记录到每个作业的 scrapyd 日志文件
Logging to scrapyd log file of each job
我将我的 scrapy 应用程序部署到 scrapyd,并且在每个作业的日志文件中:
http://{host}:6800/logs/{project_name}/{spider_name}/{job_id}.log
我没有看到使用我定义的记录器记录的日志,但如果我将其更改为使用 self.logger.info(....),它会显示在作业的日志文件中。
LOGGER = logging.getLogger(__name__)
LOGGER.info('...') # this not show up in the log file
self.logger.info('...') # this shows up in the log file
谁能提供一些见解,拜托!
找到原因了。
因为我添加了:
LOGGER.propagate = False
我将我的 scrapy 应用程序部署到 scrapyd,并且在每个作业的日志文件中:
http://{host}:6800/logs/{project_name}/{spider_name}/{job_id}.log
我没有看到使用我定义的记录器记录的日志,但如果我将其更改为使用 self.logger.info(....),它会显示在作业的日志文件中。
LOGGER = logging.getLogger(__name__)
LOGGER.info('...') # this not show up in the log file
self.logger.info('...') # this shows up in the log file
谁能提供一些见解,拜托!
找到原因了。 因为我添加了:
LOGGER.propagate = False