0
点赞
收藏
分享

微信扫一扫

scrapy::Max retries exceeded with url

伢赞 2022-05-18 阅读 4

运行scrapy时出错这个错误:Max retries exceeded with url

解决方法:

img1=requests.get(url=aa,headers=header1,timeout=5,verify=False)
爬虫能运行了,但还是报错,但不影响使用




举报

相关推荐

0 条评论