脚本化一个主要的多文件多服务器FTP上传:智能中断传输恢复可能吗?

时间:2012-10-16 20:16:09

标签: bash upload ftp

我正在尝试将数百个文件上传到10多个不同的服务器。我之前使用FileZilla完成了这项工作,但我正在尝试使用常见的命令行工具和shell脚本,以便它不依赖于在特定主机上工作。

现在我有一个shell脚本,它接受一个服务器列表(格式为ftp://user:pass@host.com)并生成一个新的后台实例'ftp ftp://user:pass@host.com<每个服务器的batch.file'。

原则上这是有效的,但是一旦与给定服务器的连接超时/重置/被中断,它就会中断。虽然所有其他转移继续进行,但我无法恢复任何已中断的转移。知道是否发生这种情况的唯一方法是手动检查每个接收服务器。这很糟糕!

现在我正在查看wput和lftp,但这些需要安装在我想要运行上传的主机上。关于如何以更简单的方式实现这一目标的任何建议?

1 个答案:

答案 0 :(得分:0)

我建议使用rsync。仅转移传输过程中已更改的数据非常好。比FTP更有效!可以找到有关如何使用示例恢复中断连接的更多信息here。希望有所帮助!