首页 > 编程知识 正文

python抓取图片(python怎么爬取一个网页图片)

时间:2023-05-04 07:47:37 阅读:72192 作者:4668

根据网上有趣的报道,爬行类和反爬行类有模和型。 初学者的爬行动物,似乎确实有这种感觉。 由于个人工作的需要,我想从网上刊登美女的照片拍照,于是找到了荷包蛋网。 第一个煎鸡蛋网url以页数命名,类似于http://jandan.net/ooxx/page-9 # comments。 可以直接推测。 此后,它更改为与http://jandan.net/ooxx/mjaymda0mjatmtts相似的随机代码

我从网络百度上果然找到了更好的想法。 太棒了。 荷包蛋网每页都有【下一步】按钮。 知道第一页的url并提取下一页的url。 这样递归进行的话,不是能登上全站吗? 真的被自己瞧不起了。 代码由一位热心的网友更改如下。 没有保存原始博文链接,所以不引用。 类似的想法有几个。

importrequestsimportosfrombs4importbeautifulsoupdefget _ soup (URL ) :r=requests.get(URL, headers=headers ) reters 'lxml ' ) defdownload_this_page(soup ) : global img _ idforlinkinsoup.find _ all (a { ' class ' 3360 ' view _ img _ link ' } : img _ URL=link.get (href ) withopen({} . jpg ).format 'wb ' ) ASF : f.write (requests.get (http : ' img _ URL ).content (打印) img_id ) img_id ' ifno tos.path.exists (download _ dir ) : OS.mkdir (download _ dir ) img_id=1 # )下载图像使用数字max _ page=双赢64; x64 ) appleWebKit/537.36 ) khtml、likegecko(chrome ) 75.0.3770.142safari/537.36'} forIinrange(max_page ) :soup=get_soup ) URL ) downloloup获取下一页的URL URL=' http : ' soup.find (a ),{ ' coup }

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。