1、打开cmd找到指定目录。
(1)E:
(2)cd python_crawler
(3)cd 第十六节课-scrapy入门
2、创建项目
scrapy startproject [name] # name 为项目名称
3、创建spider。
(1)进入创建的项目
cd [name]
(2)数据爬虫文件名和url
scrapy genspider [spider_name] [url] # spider_name 为爬虫名,url为要抓取的目标网站。
(3)执行爬虫(run)
scrapy crawl spider_name