使用scrapy做爬虫遇到的一些坑:保存信息的最简单的方法

# json格式,默认为Unicode编码
scrapy crawl ++++ -o ****.json

# json lines格式,默认为Unicode编码
scrapy crawl ++++ -o ****.jsonl

# csv 逗号表达式,可用Excel打开
scrapy crawl ++++ -o ****.csv

# xml格式
scrapy crawl ++++ -o ****.xml

++++表示的是文件名,****表示的是保存文本的名称,-o 输出指定格式的文件。以上格式都是在命令行窗口先跳转到保存路径再输入。

eg:cd C:\Users\ME\Desktop\Python project\mySpider

        scrapy crawl myfirstblog -o teachers.csv


猜你喜欢

转载自blog.csdn.net/weixin_41931602/article/details/80189953