Python爬虫是python的应用领域中最为出名的方向了,那么想要编写好一个python爬虫程序有哪些常用的模块和库可以使用呢。下文就会对三个常用的爬虫模块进行解析,一起看看吧。
一、request模块
request模块的中文手册名称叫做让HTTP服务人类,它的底层实现是基于urllib3开发的,api的使用更为简洁方便。同时request还支持cookie会话、文件上传、http连接池等功能,还可以在请求头中包含headers参数和parmas参数,使用方法如下:
# 使用get方式进行请求连接并带入header参数 import requests headers = { "User-Agent": "Mozilla/5.0"} response = requests.get("http://www.baidu.com/s?"headers = headers) # 接收返回的数据
二、parse模块
parse模块主要的功能就是对于url内参数按照一定的格式进行解析、拆分、拼接等操作,方便开发人员对网站地址进行理解,使用方法如下:
import urlparse url_change = urlparse.urlparse('https://i.cnblogs.com/EditPosts.aspx?opt=1') print url_change ParseResult(scheme='https', netloc='i.cnblogs.com', path='/EditPosts.aspx', params='', query='opt=1', fragment='') 其中netloc是域名服务器、params是参数,query是查询的条件、path是相对路径、scheme是协议。
三、urllib3模块
该模块集成了以上两个模块的大部分功能,可以使用request的urlopen()方法去和网站进行连接,但不能带响应头。也可以使用parse模块的urlendoe()模块对网站的链接进行格式转换等等。
以上就是关于“Python爬虫有哪些常用模块?三个爬虫模块解析”的全部内容了,想要了解更多python的实用知识和实际案例可以在网页顶部栏目中找到python查看更多哦。