首页 > 编程知识 正文

爬虫python代码,完整的python爬虫项目实例

时间:2023-05-04 03:57:25 阅读:128549 作者:2052

微信sogou [1] -微信公众号爬虫。 基于Sogouwechat搜索的wechatpublic-commerchange爬虫界面可以扩展到基于Sogou搜索的爬虫,结果是列表,分别是公众号的具体信息词典。

DouBanSpider[2]-豆瓣阅读爬行动物。 爬豆瓣阅读标签下的所有书,按评分排名顺序保存,可以保存在Excel中,大家可以搜索,比如筛选评分人数为1000的高分书; 可以将每个主题存储在Excel的不同shell中,使用用户代理伪装成浏览器进行滚动,或者添加随机延迟以更好地模仿浏览器的行为,从而防止爬行器被困。

智虎_ Spider [3] -了解爬行动物。 这个项目的功能是了解用户信息和人的拓扑关系,爬行器框架使用scrapy,数据存储使用mongo

bilibili-user[4]- Bilibili用户爬行动物。 总数据数: 20119918,图表字段:用户id、昵称、性别、头像、级别、经验值、粉丝数、生日、地址、注册时间、签名、级别和经验值等。 然后生成Web站的用户数据报告。

SinaSpider[5]-新浪微博爬虫。 主要关注新浪微博用户的个人信息、微博信息、粉丝、关注。 代码可以获取新浪微博Cookie登录,通过多个账号登录,防止新浪反扒。 主要使用scrapy爬行器框架。

distribute_crawler[6]-小说下载分布式爬行动物。 使用scrapy、redis、mongodb、graphite实现的分布式网络爬虫、底层存储mongodb集群、分布式redis实现,爬虫的状态显示使用graphite实现,主要是小说网站

CnkiSpider[7]-中国知网爬行动物。 设置搜索条件后,运行src/CnkiSpider.py以捕获数据并将其保存在/data目录下。 这是每个数据文件的第一个行为字段名称。

连佳spider [8] -林克曼网爬行动物。 创北京地区链家多年二手房成交记录。 涵盖链接家爬虫一文的所有代码,包括链接家的伪登录代码。

scrapy_jingdong[9]-京东爬行动物。 基于scrapy的京东网站爬虫,保存形式为csv。

QQ-Groups-Spider[10]- QQ群爬行动物。 批量获取QQ组信息,包括组名、组号、组人数、单身苗条、组配置文件等,最终生成xls(x )/CSV结果文件。

wooyun_public[11]-乌云爬行动物。 向乌云公开漏洞、基于知识的爬虫和搜索。 所有公共漏洞列表和每个漏洞的文本内容都存在于mongodb中,在约2G的内容即整个车站将所有文本和图像作为离线查询进行攀登时,约10G的空间、2小时(10M的通信带宽); 全部拿下知识库,共有约500M的空间。 漏洞搜索使用了Flask作为web服务器,使用了bootstrap作为前端。

QunarSpider[12]-去哪里网络爬虫。 网络爬虫Selenium使用代理登录。 访问哪个网站,使用Selenium模拟浏览器登录,获取翻页操作。 代理保存在一个文件中,程序可以读取使用。 支持多进程捕获。

findtrip[13]-机票爬行动物(去哪里,薄片爬行网)。 Findtrip是一种基于Scrapy的机票爬虫,目前集成了国内两大机票网站(去往何处)。

163 spider [ 14 ] -基于requests、MySQLdb和torndb的互联网客户端内容爬虫

doubanspiders[15]-豆瓣电影、书籍、团体、专辑、物品等爬行类集

QQSpider[16]- QQ空间爬虫每天可捕获400万条数据,包括日志、讲话、个人信息等。

style="margin-top:20px;margin-bottom:20px;">baidu-music-spider [17]- 百度mp3全站爬虫,使用redis支持断点续传。

tbcrawler [18]- 淘宝和天猫的爬虫,可以根据搜索关键词,物品id来抓去页面的信息,数据存储在mongodb。

stockholm [19]- 一个股票数据(沪深)爬虫和选股策略测试框架。根据选定的日期范围抓取所有沪深两市股票的行情数据。支持使用表达式定义选股策略。支持多线程处理。保存数据到JSON文件、CSV文件。

BaiduyunSpider[20]-百度云盘爬虫。 

[1]: GitHub - Chyroc/WechatSogou: 基于搜狗微信搜索的微信公众号爬虫接口
[2]: GitHub - lanbing510/DouBanSpider: 豆瓣读书的爬虫
[3]: GitHub - LiuRoy/zhihu_spider: 知乎爬虫
[4]: GitHub - airingursb/bilibili-user: Bilibili用户爬虫
[5]: GitHub - LiuXingMing/SinaSpider: 新浪微博爬虫(Scrapy、Redis)
[6]: GitHub - gnemoug/distribute_crawler: 使用scrapy,redis, mongodb,graphite实现的一个分布式网络爬虫,底层存储mongodb集群,分布式使用redis实现,爬虫状态显示使用graphite实现
[7]: GitHub - yanzhou/CnkiSpider: 中国知网爬虫

[8]: GitHub - lanbing510/LianJiaSpider: 链家爬虫

[9]: GitHub - taizilongxu/scrapy_jingdong: 用scrapy写的京东爬虫

[10]: GitHub - caspartse/QQ-Groups-Spider: QQ Groups Spider(QQ 群爬虫)

[11]: GitHub - hanc00l/wooyun_public: 乌云公开漏洞、知识库爬虫和搜索 crawl and search for wooyun.org public bug(vulnerability) and drops

[12]: GitHub - lining0806/QunarSpider: 网络爬虫之Selenium使用代理登陆:爬取去哪儿网站

[13]: GitHub - fankcoder/findtrip: 机票爬虫(去哪儿和携程网)。flight tickets multiple webspider.(scrapy + selenium + phantomjs + mongodb)

[14]: GitHub - leyle/163spider: 爬取网易客户端内容的小爬虫。

[15]: GitHub - dontcontactme/doubanspiders: 豆瓣电影、书籍、小组、相册、东西等爬虫集 writen in Python

[16]: GitHub - LiuXingMing/QQSpider: QQ空间爬虫(日志、说说、个人信息)

[17]: GitHub - Shu-Ji/baidu-music-spider: 百度mp3全站爬虫

[18]: GitHub - pakoo/tbcrawler: 淘宝天猫 商品 爬虫

[19]: GitHub - benitoro/stockholm: 一个股票数据(沪深)爬虫和选股策略测试框架

[20]:GitHub - k1995/BaiduyunSpider: 爱百应,百度云网盘搜索引擎,爬虫+网站


更多Python干货欢迎关注:

微信公众号:Python中文社区
Python初级技术交流QQ群:152745094
Python高级技术交流QQ群:273186166
Python网络爬虫组QQ群:206241755
PythonWeb开发组QQ群:577672548
Python量化交易策略组QQ群:264204289
Python数据分析挖掘组QQ群:539956362
Python自然语言处理组QQ群:570364809 

-------------------------- 

Python学习资源下载: 

Python学习思维脑图大全汇总打包 (密码:visk)

-------------------------

4分钟告诉你Python是什么—在线播放—优酷网,视频高清在线观看http://v.youku.com/v_show/id_XMTcwMTg4NzYwOA==

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。