0
点赞
收藏
分享

微信扫一扫

Python3网络爬虫教程2——urlopen的返回对象


上接:Python3网络爬虫教程1——初始爬虫(爬虫是干嘛的?)

2.3. urlopen的返回对象

  • rsp = request.urlopen(url)
  • 有时候不一定能获得对象,断网了,服务器故障等等
  • geturl: 返回请求对象的URL
  • info: 返回反馈对象的meta信息
  • getcode: 返回的http code(状态码)
  • 看实例43_3

# chardet
# 自动检测URL编码

import chardet
from urllib import request

if __name__ == '__main__':
url = 'http://china.chinadaily.com.cn/a/201901/15/WS5c3d510fa31010568bdc3902.html'
# 打开一个URL然后返回页面的内容
rsp = request.urlopen(url)
# 把返回的结果读取出来
print(type(rsp))
print("URL: {0}".format(rsp.geturl()))
print("Info: {0}".format(rsp.info()))
print("Code: {0}".format(rsp.getcode()))

2.4. request.data

  • 访问网络的两种方法
  • get
  • 利用参数给服务器传递信息
  • 参数为dict,使用parse编码
  • 看实例43_4

from urllib import request, parse

if __name__ == '__main__':

# 百度搜索请求头信息
url = 'http://www.baidu.com/s?'
wd = input('Input your keyword: ')

# 要想使用data,需使用字典结构
qs = {'wd': wd}

# 将输入的字典qs转换为url编码
# 可以将打印出来的和百度搜索访问结果图片43_4中进行对比,发现url编码是一样的
qs = parse.urlencode(qs)
print(qs)

fullurl = url + qs
print(fullurl)

# 访问的网址必须转换为url编码,直接访问会报错
# fullurl = 'http://www.baidu.com/s?wd=大熊猫'
rsp = request.urlopen(fullurl)

html = rsp.read()
html= html.decode()
print(html)

- post
- 一般向服务器传递参数使用
- post是把信息自动加密处理
- 我们如果想使用post信息,需要使用data参数
- 使用post,意味着http请求头可能需要更改:
- Content-Type: application/x-www.form-urlencode
- Content-Length: 数据长度
- 简而言之,一旦更改请求方法,注意其它请求头部信息相适应
- 看实例43_5/6
- 为了更多的设置请求信息,单纯通过urlopen就不太适用了
- 需要使用request.Request类

43-5

# 本案例用request.urlopen实现
# 更多的设置请求信息需要使用request.Request类,参考43_6

"""
利用parse模块模拟post请求
分析百度词典,参考图片43_5
分析步骤:
1. 打开网页检查(F12),输入单次girl,
2. 一个字母一个字母的输入,每输入一个字母,都会发生一次请求
3. headers采用name排序,会看见有四个sug,发生了四次请求
4. 查看headers里面的FormData的值是kw:girl
5. 检查返回的内容content-type是json格式,需要用到json包
"""
"""
大致流程:
1. 利用data构造内容,然后urlopen打开
2. 返回一个json格式的内容
3. 结果就应该是girl的释义
"""

from urllib import request, parse
import json

baseurl = 'https://fanyi.baidu.com/sug'

# 存储用来模拟formdata的数据一定是字典格式
wd = input('Input your keyword: ')
data = {'kw': wd}

# 需要对data进行编码
data = parse.urlencode(data).encode('utf-8')
print(type(data))
print(data)

# 有了data和url就可以尝试发出请求了,获取网页的内容
rsp = request.urlopen(baseurl, data=data)
json_data = rsp.read().decode('utf-8')
print(type(json_data))
print(json_data)

# 把json的原始字符串数据形式转换成python可编写的字典格式
# 对比上面和下面的打印结果的区别
json_data = json.loads(json_data)
print(type(json_data))
print(json_data)

# 查看结果是一个字典,取出字典中键data对应的值是一个列表,
# 列表中又是有多个字典,每个字典中有两个键值对,将两个值取出,一一对应
for item in json_data['data']:
# print(item)
print(item['k'], "-----", item['v'])

43-6

# 本案例用request.Request类实现
# 对比43_5案例

"""
利用parse模块模拟post请求
分析百度词典,参考图片43_5
分析步骤:
1. 打开网页检查(F12),输入单次girl,
2. 一个字母一个字母的输入,每输入一个字母,都会发生一次请求
3. headers采用name排序,会看见有四个sug,发生了四次请求
4. 查看headers里面的FormData的值是kw:girl
5. 检查返回的内容content-type是json格式,需要用到json包
"""
"""
大致流程:
1. 利用Request请求内容(可以进行大量的请求),然后urlopen打开
2. 返回一个json格式的内容
3. 结果就应该是girl的释义
"""

from urllib import request, parse
import json

baseurl = 'https://fanyi.baidu.com/sug'

# 存储用来模拟formdata的数据一定是字典格式
wd = input('Input your keyword: ')
data = {'kw': wd}

# 需要对data进行编码
data = parse.urlencode(data).encode('utf-8')

# 我们需要构造一个请求头,请求头至少包含数据的长度
# request要求传入的请求头是一个dict格式
headers = {'Content-Length': len(data)}

# 构造一个Request类的实例,可以ctrl然后右键查看Request类的源代码
req = request.Request(url=baseurl, data=data, headers=headers)

# 已经构造了一个Request类的实例,然后用urlopen打开
rsp = request.urlopen(req)
json_data = rsp.read().decode('utf-8')

# 把json的原始字符串数据形式转换成python可编写的字典格式
json_data = json.loads(json_data)

# 查看结果是一个字典,取出字典中键data对应的值是一个列表,
# 列表中又是有多个字典,每个字典中有两个键值对,将两个值取出,一一对应
for item in json_data['data']:
# print(item)
print(item['k'], "-----", item['v'])

下接:Python3网络爬虫教程3——urllib.error的使用


举报

相关推荐

Python3网络编程

0 条评论