优草派  >   Python

Python爬虫有哪些常用模块?三个爬虫模块解析

罗西汉            来源:优草派

Python爬虫是python的应用领域中最为出名的方向了,那么想要编写好一个python爬虫程序有哪些常用的模块和库可以使用呢。下文就会对三个常用的爬虫模块进行解析,一起看看吧。

Python爬虫有哪些常用模块?三个爬虫模块解析

一、request模块

request模块的中文手册名称叫做让HTTP服务人类,它的底层实现是基于urllib3开发的,api的使用更为简洁方便。同时request还支持cookie会话、文件上传、http连接池等功能,还可以在请求头中包含headers参数和parmas参数,使用方法如下:

# 使用get方式进行请求连接并带入header参数
import requests
headers = { "User-Agent": "Mozilla/5.0"}
response = requests.get("http://www.baidu.com/s?"headers = headers)    # 接收返回的数据

二、parse模块

parse模块主要的功能就是对于url内参数按照一定的格式进行解析、拆分、拼接等操作,方便开发人员对网站地址进行理解,使用方法如下:

import urlparse
url_change = urlparse.urlparse('https://i.cnblogs.com/EditPosts.aspx?opt=1')
print url_change
ParseResult(scheme='https', netloc='i.cnblogs.com', path='/EditPosts.aspx', params='', query='opt=1', fragment='')
其中netloc是域名服务器、params是参数,query是查询的条件、path是相对路径、scheme是协议。

三、urllib3模块

该模块集成了以上两个模块的大部分功能,可以使用request的urlopen()方法去和网站进行连接,但不能带响应头。也可以使用parse模块的urlendoe()模块对网站的链接进行格式转换等等。

以上就是关于“Python爬虫有哪些常用模块?三个爬虫模块解析”的全部内容了,想要了解更多python的实用知识和实际案例可以在网页顶部栏目中找到python查看更多哦。

【原创声明】凡注明“来源:优草派”的文章,系本站原创,任何单位或个人未经本站书面授权不得转载、链接、转贴或以其他方式复制发表。否则,本站将依法追究其法律责任。
TOP 10
  • 周排行
  • 月排行