99问答网
所有问题
Python爬虫如何设置异常处理
爬取一个网站多个页面时,有时候因为网络原因,有些页面加载不了爬不下来。如何设置异常处理 在发生异常时重爬这一页 或者记录下来,等到循环结束重新爬取 异常的那一页
举报该问题
推荐答案 2018-02-03
发生异常时记录下来
urls = [
#...
]
errors = []
for url in urls:
try:
# 请求URL 保存内容
except:
# 发生异常时, 记录 跳出
errors.append(url)
continue
温馨提示:答案为网友推荐,仅供参考
当前网址:
http://99.wendadaohang.com/zd/W7eezv77XWWvzjBOWOt.html
相似回答
大家正在搜
相关问题
python爬虫怎么处理异常和超时
Python爬虫异常和超时问题怎么处理
python中异常处理的问题
python爬虫出现了错误,怎么弄
python爬虫 如何解决http error 503问题
python爬虫返回错误
如何解决python爬虫urlretrive发生异常
python爬虫运行提示错误,这个怎么解决呢