爬虫基本流程
发起请求
通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。
获取响应内容
如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML,Json字符串,二进制数据(如图片视频)等类型。
解析内容
得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转为Json对象解析。可能是二进制数据,可以做保存或者进一步的处理。
保存数据
保存形多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。
Request与Response
- (1)浏览器发送消息给该网址所在的服务器,这个过程叫做HTTP Request。
- (2)服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做响应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response。
- (3)浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。
Request
请求方式
主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
GET请求将参数放在URL中,POST请求的参数包含在form data中。
请求URL
URL全称统一资源定位符,如一个网页文档、一张图片、一个视频等都可以用URL唯一来确定。
请求头
包含请求时的头部信息,如User-agent、Host、Cookies等信息。键值对形式。
请求体
请求时额外携带的数据,如表单提交时的表单数据。
Response
响应状态
有多种响应状态,如200表示成功、301跳转、404找不到页面、502服务器错误。
响应头
如内容类型、内容长度、服务器信息、设置Cookie等等。
响应体
最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等。
能抓怎样的数据
网页文本
如HTML文档、Json格式文本
图片
获取到的是二进制文件,保存到图片格式就可以了
视频
同为二进制文件,保存为视频格式即可。
其他
只要是能请求到的,都能获取。
怎么样解析?
直接处理
Json解析
通过AJAX加载的
正则表达式
BeautifulSoup
PyQuery
Xpath
为什么我抓到的数据和浏览器看到的不一样?
AJAX接口异步请求,JS渲染
怎样解决JS渲染的问题?
-
分析Ajax请求
分析返回的json
-
Selenium/WebDriver
from selenium import webdriver driver = webdriver.Chrome() driver.get('http://m.weibo.com') # 得到和element一样的源代码 print(driver.page_source)
-
Splash ,也是模拟JS渲染的
-
PyV8、Ghost.py
怎么样保存数据
-
文本
纯文本、Json、Xml等。
-
关系型数据库
如MySQL、Oracle、SQL Server等具有结构化表结构形式存储。
-
非关系型数据库
如MongoDB、Redis等Key-Value形式存储。
-
二进制文件
如图片、视频、音频等等直接保存成特定格式即可。