Dsh017 爬虫基础爬虫网络请求模块上,语文基础模块上

2023-08-27 7432阅读 0评论

1、几个概念 1.1 get 和 post get 查询参数会在url上面显示出来post 它的查询参数和需要提交的数据是隐藏在form表单里面不在在url地址上面显示出来 1.2 URL URL统一资源定位符URL的组成 https 网络协议主机名访问资源的路径锚点% + 十六进制进行编码

Dsh017 爬虫基础爬虫网络请求模块上,语文基础模块上 第1张

例子:https://new.qq.com/omn/TWF20200/TWF2020032502924000.html

https:网络协议

主机名:new.qq.com

访问资源的路径:omn/TWF20200/TWF2020032502924000.html

锚点(anchor):前端用来做页面定位的

1.3 User-Agent User-Agent 用户代理 记录了用户的浏览器、操作系统 为了让用户获得更好的html页面效果 反爬

User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36

1.4 refer refer 表明当前这个请求从哪个Url过来的 反爬 1.5 状态码 200 : 请求成功301 : 永久重定向302 : 临时重定向403 : 服务器拒绝请求404 : 请求失败(服务器?法根据客户端的请求找到资源(??))500 : 服务器内部请求 1.6 抓包工具 Elements : 元素 ??源代码,提取数据和分析数据(有些数据是经过特殊处 理的所以并不是都是准确的)Console : 控制台 (打印信息)Sources : 信息来源 (整个?站加载的?件)NetWork : ?络?作(信息抓包) 能够看到很多的??请求 2、爬虫请求模块 2.1 urllib.request模块

方式一

import requests # 需要安装第三方requests模块url = \’https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=2534506313,1688529724&fm=26&gp=0.jpg\’req = requests.get(url)fn = open(\’code.png\’,\’wb\’)fn.write(req.content)fn.close()with open(\’code2.png\’,\’wb\’) as f: f.write(req.content)

方式二

from urllib import request # 调用内置urllib模块,不需要第三方requests模块url = \’https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=2534506313,1688529724&fm=26&gp=0.jpg\’request.urlretrieve(url,\’code2.png\’) 版本 python2 :urllib2、urllibpython3 :把urllib和urllib2合并,urllib.request 常用的方法 urllib.request.urlopen(“?址”) 作? :向?站发起?个请求并获取响应字节流 = response.read()字符串 = response.read().decode(“utf-8”)urllib.request.Request\”?址\”,headers=“字典”) urlopen()不?持重构 User-Agent 2.2 urllib的使用 read()把对象内容读取出来 decode() bytes数据类型 —> str数据类型encode() str数据类型 —> bytes数据类型 getcode() 返回HTTP的响应码geturl() 返回实际数据的URL(防?重定向问题) url = \’https://www.baidu.com/\’headers = { \’User-Agent\’: \’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36\’}# 1 创建了请求的对象Request()req = urllib.request.Request(url,headers=headers)# 2 获取响应对象 urlopen()res = urllib.request.urlopen(req)# 3 读取响应的内容 read()html = res.read().decode(\’utf-8\’)# print(html) # 打印内容# print(res.getcode()) # 返回状态码print(res.geturl()) # 返回我们实际请求的url 2.3 urllib.parse模块 urlencode(字典)quote(字符串) (这个??的参数是个字符串) import urllib.parsete = {\’wd\’:\’海贼王\’}result = urllib.parse.urlencode(te)print(result) # 将‘海贼王’编码为二进制 %E6%B5%B7%E8%B4%BC%E7%8E%8B

ex:搜索一个内容 把这个数据保存到本地 html

import urllib.parseimport urllib.requestbaseurl = \’https://www.baidu.com/s?\’#key = input(\’请输入你要搜索的内容:\’)# 进行urlencde()进行编码w = {\’wd\’:key}k = urllib.parse.urlencode(w)# 拼接urlurl = baseurl + k# print(url)headers = { \’User-Agent\’: \’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36\’,\’Cookie\’:\’BIDUPSID=23F0C104655E78ACD11DB1E20FA56630; PSTM=1592045183; BD_UPN=12314753; sug=0; sugstore=0; ORIGIN=0; bdime=0; BAIDUID=23F0C104655E78AC9F0FB18960BCA3D3:SL=0:NR=10:FG=1; BDUSS=ldxR1FyQ2FEaVZ5UWFjTDlRbThVZHJUQTY1S09PSU81SXlHaUpubVpEY0FMakZmRVFBQUFBJCQAAAAAAAAAAAEAAADzvSajSjdnaGgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAChCV8AoQlfb; BDUSS_BFESS=ldxR1FyQ2FEaVZ5UWFjTDlRbThVZHJUQTY1S09PSU81SXlHaUpubVpEY0FMakZmRVFBQUFBJCQAAAAAAAAAAAEAAADzvSajSjdnaGgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAChCV8AoQlfb; MCITY=-158%3A; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; BD_HOME=1; delPer=0; BD_CK_SAM=1; PSINO=6; BDRCVFR[feWj1Vr5u3D]=I67x6TjHwwYf0; BDRCVFR[tox4WRQ4-Km]=mk3SLVN4HKm; BDRCVFR[-pGxjrCMryR]=mk3SLVN4HKm; BDRCVFR[CLK3Lyfkr9D]=mk3SLVN4HKm; COOKIE_SESSION=204_0_5_9_4_6_0_0_5_4_0_0_533_0_0_0_1602246393_0_1602250500%7C9%2369429_193_1601361993%7C9; H_PS_PSSID=32757_32617_1428_7566_7544_31660_32723_32230_7517_32116_32718; H_PS_645EC=ab4cD3QpA7yZJBKDrrzZqesHzhDrwV%2BYww0WVHtmGJ3Adcj0qvjZIVV%2F9q4\’}# 创建请求对象req = urllib.request.Request(url,headers=headers)# 获取响应对象res = urllib.request.urlopen(req)# 读取响应对象html = res.read().decode(\’utf-8\’)# 写入文件with open(\’搜索2.html\’,\’w\’,encoding=\’utf-8\’) as f: f.write(html) import urllib.parseimport urllib.requestbaseurl = \’https://www.baidu.com/s?wd=\’key = input(\’请输入你要搜索的内容:\’)k = urllib.parse.quote(key)url = baseurl + kheaders = { \’User-Agent\’: \’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36\’,\’Cookie\’:\’BIDUPSID=23F0C104655E78ACD11DB1E20FA56630; PSTM=1592045183; BD_UPN=12314753; sug=0; sugstore=0; ORIGIN=0; bdime=0; BAIDUID=23F0C104655E78AC9F0FB18960BCA3D3:SL=0:NR=10:FG=1; BDUSS=ldxR1FyQ2FEaVZ5UWFjTDlRbThVZHJUQTY1S09PSU81SXlHaUpubVpEY0FMakZmRVFBQUFBJCQAAAAAAAAAAAEAAADzvSajSjdnaGgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAChCV8AoQlfb; BDUSS_BFESS=ldxR1FyQ2FEaVZ5UWFjTDlRbThVZHJUQTY1S09PSU81SXlHaUpubVpEY0FMakZmRVFBQUFBJCQAAAAAAAAAAAEAAADzvSajSjdnaGgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAChCV8AoQlfb; MCITY=-158%3A; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; BD_HOME=1; delPer=0; BD_CK_SAM=1; PSINO=6; BDRCVFR[feWj1Vr5u3D]=I67x6TjHwwYf0; BDRCVFR[tox4WRQ4-Km]=mk3SLVN4HKm; BDRCVFR[-pGxjrCMryR]=mk3SLVN4HKm; BDRCVFR[CLK3Lyfkr9D]=mk3SLVN4HKm; COOKIE_SESSION=204_0_5_9_4_6_0_0_5_4_0_0_533_0_0_0_1602246393_0_1602250500%7C9%2369429_193_1601361993%7C9; H_PS_PSSID=32757_32617_1428_7566_7544_31660_32723_32230_7517_32116_32718; H_PS_645EC=ab4cD3QpA7yZJBKDrrzZqesHzhDrwV%2BYww0WVHtmGJ3Adcj0qvjZIVV%2F9q4\’}# 创建请求对象req = urllib.request.Request(url,headers=headers)# 获取响应对象res = urllib.request.urlopen(req)# 读取响应对象html = res.read().decode(\’utf-8\’)# 写入文件with open(\’搜索3.html\’,\’w\’,encoding=\’utf-8\’) as f: f.write(html)28771295

《Dsh017 爬虫基础爬虫网络请求模块上,语文基础模块上》来自互联网同行内容,若有侵权,请联系我们删除!


免责声明
1、本网站属于个人的非赢利性网站,转载的文章遵循原作者的版权声明。
2、本网站转载文章仅为传播更多信息之目的,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所
提供信息的准确性及可靠性,但不保证信息的正确性和完整性,且不对因信息的不正确或遗漏导致的任何
损失或损害承担责任。
3、任何透过本网站网页而链接及得到的资讯、产品及服务,本网站概不负责,亦不负任何法律责任。
4、本网站所刊发、转载的文章,其版权均归原作者所有,如其他媒体、网站或个人从本网下载使用,请在
转载有关文章时务必尊重该文章的著作权,保留本网注明的“稿件来源”,并白负版权等法律责任。

手机扫描二维码访问

文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。

发表评论

快捷回复: 表情:
评论列表 (暂无评论,7432人围观)

还没有评论,来说两句吧...

目录[+]