Scrapy爬取苏宁易购图书
1、创建一个scrapy项目
scrapy startproject book
2、生成一个爬虫文件
scrapy genspider su book
.suning
.com
3、设置settings
添加log日志等级 添加headers请求头 打开管道
4、添加一个文件运行爬虫
from scrapy
import cmdline
cmdline
.execute
(['scrapy','crawl','su'])
5、编写程序
将结果保存到 pipelines 中
转载请注明原文地址:https://tech.qufami.com/read-21027.html