开启Scrapy项目之旅之二:用Scrapy进行项目爬虫管理

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_38262266/article/details/85340870

1、进入scrapy文件夹下,创建Scrapy项目

scrapy startproject myfirstpjt

2、进入自己创建的scrapy项目中:

cd myfirstpjt

进入后,我们可以对该爬虫项目进行管理,可以通过工具命令实现,下节介绍。

3、爬虫项目管理就少不了日志文件。
日志文件;用来记录用户所有操作的信息。
在我们创建爬虫项目的时候就可以加上一些参数进行控制,如:

1、scrapy startproject -h (用于调出帮助信息)
2、--logfile=FILE参数用来指定日志文件
如:将日志文件存在上一层目录上
scrapy startproject --logfile=“../logf.log” mypjt1

我们可以对日志等级进行控制,以便于日记文件中输出我们需要的信息。
CRITICAL:发生最严重的错误
ERROR:发生了必须立即处理的错误
WARNING:出现了一些警告信息,即潜在错误
INFO:输出一些提示信息
DEBUG:输出一些调试信息,常用于开发阶段
默认为DEBUG

设置日志文件输出内容
scrapy startproject --loglevel=DEBUG mypjt2
不输出日志文件信息
scrapy startproject --nolog mypjt3

若要删除爬虫项目,直接删除文件夹即可。

猜你喜欢

转载自blog.csdn.net/qq_38262266/article/details/85340870