什么是RequestsRequests是⽤python语⾔基于urllib编写的,采⽤的是Apache2 Licensed开源协议的HTTP库
如果你看过上篇⽂章关于urllib库的使⽤,你会发现,其实urllib还是⾮常不⽅便的,⽽Requests它会⽐urllib更加⽅便,可以节约我们⼤量的⼯作。(⽤了requests之后,你基本都不愿意⽤urllib了)⼀句话,requests是python实现的最简单易⽤的HTTP库,建议爬⾍使⽤requests库。默认安装好python之后,是没有安装requests模块的,需要单独通过pip安装
requests功能详解总体功能的⼀个演⽰import requests
response = requests.get(\"https://www.baidu.com\")print(type(response))
print(response.status_code)print(type(response.text))print(response.text)print(response.cookies)print(response.content)
print(response.content.decode(\"utf-8\"))
我们可以看出response使⽤起来确实⾮常⽅便,这⾥有个问题需要注意⼀下:
很多情况下的⽹站如果直接response.text会出现乱码的问题,所以这个使⽤response.content
这样返回的数据格式其实是⼆进制格式,然后通过decode()转换为utf-8,这样就解决了通过response.text直接返回显⽰乱码的问题.
请求发出后,Requests 会基于 HTTP 头部对响应的编码作出有根据的推测。当你访问 response.text 之时,Requests 会使⽤其推测的⽂本编码。你可以找出 Requests 使⽤了什么编码,并且能够使⽤ response.encoding 属性来改变它.如:
response =requests.get(\"http://www.baidu.com\")response.encoding=\"utf-8\"print(response.text)
各种请求⽅式requests⾥提供个各种请求⽅式
import requests
requests.post(\"http://httpbin.org/post\")requests.put(\"http://httpbin.org/put\")
requests.delete(\"http://httpbin.org/delete\")requests.head(\"http://httpbin.org/get\")requests.options(\"http://httpbin.org/get\")
请求基本GET请求import requests
response = requests.get('http://httpbin.org/get')print(response.text)
带参数的GET请求,例⼦1
import requests
response = requests.get(\"http://httpbin.org/get?name=zhaofan&age=23\")print(response.text)
如果我们想要在URL查询字符串传递数据,通常我们会通过httpbin.org/get?key=val⽅式传递。Requests模块允许使⽤params关键字传递参数,以⼀个字典来传递这些参数,例⼦如下:
import requestsdata = {
\"name\":\"zhaofan\", \"age\":22}
response = requests.get(\"http://httpbin.org/get\",params=data)print(response.url)print(response.text
上述两种的结果是相同的,通过params参数传递⼀个字典内容,从⽽直接构造url
注意:第⼆种⽅式通过字典的⽅式的时候,如果字典中的参数为None则不会添加到url上解析json
import requestsimport json
response = requests.get(\"http://httpbin.org/get\")print(type(response.text))print(response.json())
print(json.loads(response.text))print(type(response.json()))
从结果可以看出requests⾥⾯集成的json其实就是执⾏了json.loads()⽅法,两者的结果是⼀样的获取⼆进制数据
在上⾯提到了response.content,这样获取的数据是⼆进制数据,同样的这个⽅法也可以⽤于下载图⽚以及视频资源添加headers
和前⾯我们将urllib模块的时候⼀样,我们同样可以定制headers的信息,如当我们直接通过requests请求知乎⽹站的时候,默认是⽆法访问的
import requests
response =requests.get(\"https://www.zhihu.com\")print(response.text)
这样会得到如下的错误
因为访问知乎需要头部信息,这个时候我们在⾕歌浏览器⾥输⼊chrome://version,就可以看到⽤户代理,将⽤户代理添加到头部信息
import requestsheaders = {
\"User-Agent\":\"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36\"}
response =requests.get(\"https://www.zhihu.com\",headers=headers)print(response.text)
这样就可以正常的访问知乎了。
基本POST请求通过在发送post请求时添加⼀个data参数,这个data参数可以通过字典构造成,这样对于发送post请求就⾮常⽅便
import requestsdata = {
\"name\":\"zhaofan\", \"age\":23
}
response = requests.post(\"http://httpbin.org/post\",data=data)print(response.text)
同样的在发送post请求的时候也可以和发送get请求⼀样通过headers参数传递⼀个字典类型的数据
响应 我们可以通过response获得很多属性,例⼦如下
import requests
response = requests.get(\"http://www.baidu.com\")
print(type(response.status_code),response.status_code)print(type(response.headers),response.headers)print(type(response.cookies),response.cookies)print(type(response.url),response.url)
print(type(response.history),response.history)
结果如下:
状态码判断Requests还附带了⼀个内置的状态码查询对象主要有如下内容:
100: ('continue',),
101: ('switching_protocols',),102: ('processing',),103: ('checkpoint',),
122: ('uri_too_long', 'request_uri_too_long'),
200: ('ok', 'okay', 'all_ok', 'all_okay', 'all_good', '\\o/', '✓'),201: ('created',),202: ('accepted',),
203: ('non_authoritative_info', 'non_authoritative_information'),204: ('no_content',),
205: ('reset_content', 'reset'),206: ('partial_content', 'partial'),
207: ('multi_status', 'multiple_status', 'multi_stati', 'multiple_stati'),208: ('already_reported',),226: ('im_used',),Redirection.
300: ('multiple_choices',),
301: ('moved_permanently', 'moved', '\\o-'),302: ('found',),
303: ('see_other', 'other'),304: ('not_modified',),305: ('use_proxy',),306: ('switch_proxy',),
307: ('temporary_redirect', 'temporary_moved', 'temporary'),308: ('permanent_redirect',
'resume_incomplete', 'resume',), # These 2 to be removed in 3.0Client Error.
400: ('bad_request', 'bad'),401: ('unauthorized',),
402: ('payment_required', 'payment'),403: ('forbidden',),
404: ('not_found', '-o-'),
405: ('method_not_allowed', 'not_allowed'),406: ('not_acceptable',),
407: ('proxy_authentication_required', 'proxy_auth', 'proxy_authentication'),408: ('request_timeout', 'timeout'),409: ('conflict',),410: ('gone',),
411: ('length_required',),
412: ('precondition_failed', 'precondition'),
413: ('request_entity_too_large',),414: ('request_uri_too_large',),
415: ('unsupported_media_type', 'unsupported_media', 'media_type'),
416: ('requested_range_not_satisfiable', 'requested_range', 'range_not_satisfiable'),417: ('expectation_failed',),
418: ('im_a_teapot', 'teapot', 'i_am_a_teapot'),421: ('misdirected_request',),
422: ('unprocessable_entity', 'unprocessable'),423: ('locked',),
424: ('failed_dependency', 'dependency'),425: ('unordered_collection', 'unordered'),426: ('upgrade_required', 'upgrade'),
428: ('precondition_required', 'precondition'),429: ('too_many_requests', 'too_many'),
431: ('header_fields_too_large', 'fields_too_large'),444: ('no_response', 'none'),449: ('retry_with', 'retry'),
450: ('blocked_by_windows_parental_controls', 'parental_controls'),451: ('unavailable_for_legal_reasons', 'legal_reasons'),499: ('client_closed_request',),
Server Error.
500: ('internal_server_error', 'server_error', '/o\\', '✗'),501: ('not_implemented',),502: ('bad_gateway',),
503: ('service_unavailable', 'unavailable'),504: ('gateway_timeout',),
505: ('http_version_not_supported', 'http_version'),506: ('variant_also_negotiates',),507: ('insufficient_storage',),
509: ('bandwidth_limit_exceeded', 'bandwidth'),510: ('not_extended',),
511: ('network_authentication_required', 'network_auth', 'network_authentication'),通过下⾯例⼦测试:(不过通常还是通过状态码判断更⽅便)
import requests
response= requests.get(\"http://www.baidu.com\")if response.status_code == requests.codes.ok: print(\"访问成功\")
项⽬实例:使⽤流程
指定url
基于requests模块发起请求获取响应对象中的数据值持久化存储
1、需求:爬取搜狗指定词条搜索后的页⾯数据
import requestsimport os
#指定搜索关键字
word = input('enter a word you want to search:')#⾃定义请求头信息headers={
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }
#指定url
url = 'https://www.sogou.com/web'#封装get请求参数param = {
'query':word, 'ie':'utf-8'}
#发起请求
response = requests.get(url=url,params=param)#获取响应数据
page_text = response.text
with open('./sougou.html','w',encoding='utf-8') as fp: fp.write(page_text)
View Code
2、需求:登录⾖瓣电影,爬取登录成功后的页⾯数据
import requestsimport os
url = 'https://accounts.douban.com/login'#封装请求参数data = {
\"source\": \"movie\",
\"redir\": \"https://movie.douban.com/\", \"form_email\": \"15027900535\",
\"form_password\": \"bobo@15027900535\", \"login\": \"登录\",}
#⾃定义请求头信息headers={
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }
response = requests.post(url=url,data=data)page_text = response.text
with open('./douban111.html','w',encoding='utf-8') as fp: fp.write(page_text)
View Code
#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport urllib.request
if __name__ == \"__main__\":
#指定ajax-get请求的url(通过抓包进⾏获取) url = 'https://movie.douban.com/j/chart/top_list?'
#定制请求头信息,相关的头信息必须封装在字典结构中 headers = {
#定制请求头中的User-Agent参数,当然也可以定制请求头中其他的参数
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win; x) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36', }
#定制get请求携带的参数(从抓包⼯具中获取) param = { 'type':'5',
'interval_id':'100:90', 'action':'', 'start':'0', 'limit':'20' }
#发起get请求,获取响应对象
response = requests.get(url=url,headers=headers,params=param) #获取响应内容:响应内容为json串 print(response.text)
View Code
#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport urllib.request
if __name__ == \"__main__\":
#指定ajax-post请求的url(通过抓包进⾏获取)
url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'
#定制请求头信息,相关的头信息必须封装在字典结构中 headers = {
#定制请求头中的User-Agent参数,当然也可以定制请求头中其他的参数
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win; x) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36', }
#定制post请求携带的参数(从抓包⼯具中获取) data = { 'cname':'', 'pid':'',
'keyword':'北京', 'pageIndex': '1', 'pageSize': '10' }
#发起post请求,获取响应对象
response = requests.get(url=url,headers=headers,data=data) #获取响应内容:响应内容为json串 print(response.text)
View Code
5、需求:爬取搜狗知乎指定词条指定页码下的页⾯数据
import requestsimport os
#指定搜索关键字
word = input('enter a word you want to search:')#指定起始页码
start_page = int(input('enter start page num:'))end_page = int(input('enter end page num:'))#⾃定义请求头信息headers={
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }
#指定url
url = 'https://zhihu.sogou.com/zhihu'#创建⽂件夹
if not os.path.exists('./sougou'): os.mkdir('./sougou')
for page in range(start_page,end_page+1): #封装get请求参数 params = { 'query':word, 'ie':'utf-8',
'page':str(page) }
#发起post请求,获取响应对象
response = requests.get(url=url,params=params) #获取页⾯数据
page_text = response.text
fileName = word+'_'+str(page)+'.html' filePath = './sougou/'+fileName
with open(filePath,'w',encoding='utf-8') as fp: fp.write(page_text)
print('爬取'+str(page)+'页结束')
View Code
requests⾼级⽤法⽂件上传
实现⽅法和其他参数类似,也是构造⼀个字典然后通过files参数传递
import requests
files= {\"files\":open(\"git.jpeg\",\"rb\")}
response = requests.post(\"http://httpbin.org/post\",files=files)print(response.text)
结果如下:
获取cookie
import requests
response = requests.get(\"http://www.baidu.com\")print(response.cookies)
for key,value in response.cookies.items(): print(key+\"=\"+value)
会话维持
cookie的⼀个作⽤就是可以⽤于模拟登陆,做会话维持
import requests
s = requests.Session()
s.get(\"http://httpbin.org/cookies/set/nufffmber/123456\")response = s.get(\"http://httpbin.org/cookies\")print(response.text)
这是正确的写法,⽽下⾯的写法则是错误的
import requests
requests.get(\"http://httpbin.org/cookies/set/number/123456\")response = requests.get(\"http://httpbin.org/cookies\")print(response.text)
因为这种⽅式是两次requests请求之间是独⽴的,⽽第⼀次则是通过创建⼀个session对象,两次请求都通过这个对象访问证书验证
现在的很多⽹站都是https的⽅式访问,所以这个时候就涉及到证书的问题
import requests
response = requests.get(\"https:/www.12306.cn\")print(response.status_code)
为了避免这种情况的发⽣可以通过 verify=False但是这样是可以访问到页⾯,但是会提⽰:解决⽅法为:
import requests
from requests.packages import urllib3
urllib3.disable_warnings()
response = requests.get(\"https://www.12306.cn\",verify=False)print(response.status_code)
这样就不会提⽰警告信息,当然也可以通过cert参数放⼊证书路径 代理设置
import requests
proxies= {
\"http\":\"http://127.0.0.1:9999\", \"https\":\"http://127.0.0.1:8888\"}
response = requests.get(\"https://www.baidu.com\",proxies=proxies)print(response.text)
超时设置
通过timeout参数可以设置超时的时间认证设置
如果碰到需要认证的⽹站可以通过requests.auth模块实现
import requests
from requests.auth import HTTPBasicAuth
response = requests.get(\"http://120.27.34.24:9001/\",auth=HTTPBasicAuth(\"user\",\"123\"))print(response.status_code)
当然这⾥还有⼀种⽅式
import requests
response = requests.get(\"http://120.27.34.24:9001/\",auth=(\"user\",\"123\"))print(response.status_code)
异常处理
通过下⾯的例⼦进⾏简单的演⽰
import requests
from requests.exceptions import ReadTimeout,ConnectionError,RequestExceptiontry:
response = requests.get(\"http://httpbin.org/get\",timeout=0.1) print(response.status_code)except ReadTimeout: print(\"timeout\")
except ConnectionError: print(\"connection Error\")except RequestException: print(\"error\")
其实最后测试可以发现,⾸先被捕捉的异常是timeout,当把⽹络断掉的haul就会捕捉到ConnectionError,如果前⾯异常都没有捕捉到,最后也可以通过RequestExctption捕捉到
项⽬实例:cookie和代理实例
⼀、基于requests模块的cookie操作
引⾔:有些时候,我们在使⽤爬⾍程序去爬取⼀些⽤户相关信息的数据(爬取张三“⼈⼈⽹”个⼈主页数据)时,如果使⽤之前requests模块常规操作时,往往达不到我们想要的⽬的,例如:
#!/usr/bin/env python# -*- coding:utf-8 -*-import requests
if __name__ == \"__main__\":
#张三⼈⼈⽹个⼈信息页⾯的url
url = 'http://www.renren.com/2676607/profile'
#伪装UA headers={
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }
#发送请求,获取响应对象
response = requests.get(url=url,headers=headers) #将响应内容写⼊⽂件
with open('./renren.html','w',encoding='utf-8') as fp: fp.write(response.text)
结果发现,写⼊到⽂件中的数据,不是张三个⼈页⾯的数据,⽽是⼈⼈⽹登陆的⾸页⾯,why?⾸先我们来回顾下cookie的相关概念及作⽤:
cookie概念:当⽤户通过浏览器⾸次访问⼀个域名时,访问的 web服务器会给客户端发送数据,以保持web服务器与客户端之间的状态保持,这些数据就是cookie。
cookie作⽤:我们在浏览器中,经常涉及到数据的交换,⽐如你登录邮箱,登录⼀个页⾯。我们经常会在此时设置30天内记住我,或者⾃动登录选项。那么它们是怎么记录信息的呢,答案就是今天的主⾓cookie了,Cookie是由HTTP服务器设置的,保存在浏览器中,但HTTP协议是⼀种⽆状态协议,在数据交换完毕后,服务器端和客户端的链接就会关闭,每次交换数据都需要建⽴新的链接。就像我们去超市买东西,没有积分卡的情况下,我们买完东西之后,超市没有我们的任何消费信息,但我们办了积分卡之后,超市就有了我们的消费信息。cookie就像是积分卡,可以保存积分,商品就是我们的信息,
超市的系统就像服务器后台,http协议就是交易的过程。
经过cookie的相关介绍,其实你已经知道了为什么上述案例中爬取到的不是张三个⼈信息页,⽽是登录页⾯。那应该如何抓取到张三的个⼈信息页呢?思路:
1、我们需要使⽤爬⾍程序对⼈⼈⽹的登录时的请求进⾏⼀次抓取,获取请求中的cookie数据。
2、在使⽤个⼈信息页的url进⾏请求时,该请求需要携带 1 中的cookie,只有携带了cookie后,服务器才可识别这次请求的⽤户信息,⽅可响应回指定的⽤户信息页数据。
#!/usr/bin/env python# -*- coding:utf-8 -*-import requests
if __name__ == \"__main__\":
#登录请求的url(通过抓包⼯具获取)
post_url = 'http://www.renren.com/ajaxLogin/login?1=1&uniqueTimestamp=201873958471' #创建⼀个session对象,该对象会⾃动将请求中的cookie进⾏存储和携带 session = requests.session() #伪装UA headers={
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }
formdata = {
'email': '17701256561', 'icode': '',
'origURL': 'http://www.renren.com/home', 'domain': 'renren.com', 'key_id': '1',
'captcha_type': 'web_login',
'password': '7b456e6c3eb6615b2e122a2942ef3845da1f91e3de075179079a3b84952508e4', 'rkey': '44fd96c219c593f3c9612360c80310a3',
'f': 'https%3A%2F%2Fwww.baidu.com%2Flink%3Furl%3Dm7m_NSUp5Ri_ZrK5eNIpn_dMs48UAcvT-N_kmysWgYW%26wd%3D%26eqid%3Dba95daf5000065ce000000035b120219', }
#使⽤session发送请求,⽬的是为了将session保存该次请求中的cookie session.post(url=post_url,data=formdata,headers=headers) get_url = 'http://www.renren.com/960481378/profile'
#再次使⽤session进⾏请求的发送,该次请求中已经携带了cookie response = session.get(url=get_url,headers=headers) #设置响应内容的编码格式 response.encoding = 'utf-8' #将响应内容写⼊⽂件
with open('./renren.html','w') as fp: fp.write(response.text)
⼆、基于requests模块的代理操作
什么是代理
代理就是第三⽅代替本体处理相关事务。例如:⽣活中的代理:代购,中介,微商......爬⾍中为什么需要使⽤代理
⼀些⽹站会有相应的反爬⾍措施,例如很多⽹站会检测某⼀段时间某个IP的访问次数,如果访问频率太快以⾄于看起来不像正常访客,它可能就会会禁⽌这个IP的访问。所以我们需要设置⼀些代理IP,每隔⼀段时间换⼀个代理IP,就算IP被禁⽌,依然可以换个IP继续爬取。代理的分类:
正向代理:代理客户端获取数据。正向代理是为了保护客户端防⽌被追究责任。反向代理:代理服务器提供数据。反向代理是为了保护服务器或负责负载均衡。免费代理ip提供⽹站
西祠代理快代理
代码:
#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport random
if __name__ == \"__main__\": #不同浏览器的UA header_list = [ # 遨游
{\"user-agent\": \"Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)\"}, # ⽕狐
{\"user-agent\": \"Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1\"}, # ⾕歌
{
\"user-agent\": \"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11\"} ]
#不同的代理IP proxy_list = [
{\"http\": \"112.115.57.20:3128\"}, {'http': '121.41.171.223:3128'} ]
#随机获取UA和代理IP
header = random.choice(header_list) proxy = random.choice(proxy_list)
url = 'http://www.baidu.com/s?ie=UTF-8&wd=ip' #参数3:设置代理
response = requests.get(url=url,headers=header,proxies=proxy) response.encoding = 'utf-8'
with open('daili.html', 'wb') as fp: fp.write(response.content) #切换成原来的IP
requests.get(url, proxies={\"http\": \"\"})
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- awee.cn 版权所有 湘ICP备2023022495号-5
违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务