wget命令简要介绍了wget命令用于从指定的URL下载文件的方法。 wget非常稳定,对带宽较窄和不稳定的网络有很强的适应性。 如果下载由于网络而失败,构件将继续尝试直到整个文件下载完成。 如果服务器中断了下载过程,请重新连接服务器并从停止的位置继续下载。 这有助于从链接时间有限的服务器上下载大文件。
语法构件“选项”“参数”
设定
-a日志文件:用于将数据记录到指定日志文件的执行进程; -A扩展名:指定要下载的文件的扩展名,并用逗号分隔多个扩展名; -b )在后台运行wget; -B连接目标:设定参照的连接目标的基地地址; c :继续上次终端的任务的-C标志:激活服务器数据块功能标志on,关闭off,将默认值设定为on-d :调试模式运行指令; -D域名列表:设置以“,”分隔的域名列表; -e命令:执行指定为".wgetrc "文件一部分的命令; -h :显示命令的帮助信息; -i文件:从指定文件获取要下载的URL地址; -l目录列表:设置以“,”分隔多个目录的目录列表; -L :仅沿着相关链接; -r :递归下载方式; -nc :如果文件存在,则下载的文件不会复盖原始文件; -nv :下载时只显示更新和错误信息,不显示指令的详细执行过程; -q :不显示命令执行进程; -nh :不检查主机名; -v :显示详细的执行步骤; -V :显示版本信息; --passive-ftp :使用被动模式PASV连接到FTP服务器; --follow-FTP :从html文件下载FTP连接文件。 参数: URL :下载指定的URL地址
wget APP应用程序实例使用wget下载wget http://download.I misty.cn/uandroidtool2.9.1. zip文件
从网络下载文件并将其保存到当前目录中。 下载过程中会显示进度条。 (下载完成率、下载的字节数、当前下载速度、剩馀下载时间)。
要下载并重命名文件,请使用参数-O指定文件名
wget-owordpress.zip http://www.Linux de.net/download.aspx? id=1080
缺省情况下,wget命令时使用最后一个/后面的字符,下载动态链接时文件名通常不正确。
错误示例:以下示例是否要下载文件并将其命名为download.aspx? id=1080保存:
wget 3358 www.Linux de.net/download.aspx? id=1080 download.PHP,即使下载的文件为zip格式? id=1080命名。
wget限速下载wget---limit-rate=300 k http://download.I misty.cn/uandroidtool2.9.1. zip
xwdjd运行wget时,缺省情况下将占用所有可能的宽带下载。 但是,xwdjd计划下载较大的文件,如果需要下载其他文件,则需要提高限速。
使用wget断点重新分发wget-c http://www.Linux de.net/test file.zip
使用wget -c重新启动中断的文件在下载大文件时突然由于网络或其他原因中断时很有用。 您可以继续下载,而不是重新下载文件。 如果需要继续中断的下载,可以使用-c参数。
后台wget-b http://www.Linux de.net/test file.zipcontinuinginbackground,PID 1840.outputwilbewrittento ` wget-log
tail -f wget-log
使用代理名称伪造wget-- user-agent=' Mozilla/5.0 (windows; u; Windows NT 6.1; en-US ) appleWebKit/534.16(khtml,like Gecko ) chrome/10.0.648.204 safari/534.16 ' http://www.Linux de.net/Tet
有些站点可以通过确定代理名称不是浏览器来拒绝下载请求。 但是,可以用-user-agent参数伪装。
测试链接xwdjd计划进行定时下载。 必须测试在预定时间下载链接是否有效。 -允许添加和检查-spider参数。
wget --spider URL
如果下载链接正确,将显示:
spidermodeenabled.checkifremotefileexists.http request sent,awaiting response . 200 ok length : unspecified [ text/html ]
ecursion is disabled -- not retrieving.这保证了下载能在预定的时间进行,但xwdjd给错了一个链接,将会显示如下错误:
wget --spider urlSpider mode enabled. Check if remote file exists.HTTP request sent, awaiting response... 404 Not FoundRemote file does not exist -- broken link!!!你可以在以下几种情况下使用–spider参数:
定时下载之前进行检查间隔检测网站是否可用检查网站页面的死链接 增加重试次数wget --tries=40 URL
如果网络有问题或下载一个大文件也有可能失败。wget默认重试20次连接下载文件。如果需要,你可以使用–tries增加重试次数。
wget -i filelist.txt
首先,保存一份下载链接文件:
接着使用这个文件和参数-i下载。
镜像网站wget --mirror -p --convert-links -P ./LOCAL URL
下载整个网站到本地。
wget --reject=gif url
下载一个网站,但你不希望下载图片,可以使用这条命令。
wget -o download.log URL
不希望下载信息直接显示在终端而是在一个日志文件,可以使用。
wget -Q5m -i filelist.txt
xwdjd想要下载的文件超过5M而退出下载,你可以使用。注意:这个参数对单个文件下载不起作用,只能递归下载时才有效。
下载指定格式文件wget -r -A.pdf url
可以在以下情况使用该功能:
下载一个网站的所有图片。
下载一个网站的所有视频。
下载一个网站的所有PDF文件。
可以使用wget来完成ftp链接的下载。
使用wget匿名ftp下载:
wget ftp-url
使用wget用户名和密码认证的ftp下载:
wget --ftp-user=USERNAME --ftp-password=PASSWORD url
鸣谢感谢 Linu命令大全提供的资料