微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

仅当当前任务已收到服务器的响应时,如何才将scrapy Spider赋予新任务

如何解决仅当当前任务已收到服务器的响应时,如何才将scrapy Spider赋予新任务

我在数据库中有一个条目列表,每个条目对应于一些抓取任务。只完成一次,我是否希望蜘蛛继续到下一个。这是一些伪代码,给出了我想做什么的想法,尽管它并不是我想要的,因为它使用while循环创建了大量待处理的条目积压。

def start_requests(self):
    while True:
        rec = GetDocumentAndMarkAsProcessing()
        if rec == None:
            break;
        script = getScript(rec)
        yield SplashRequest(...,callback=self.parse,endpoint="execute",args={
                    'lua_source': script
                }
              )

def parse(self,response):
    ... store results in database ...

仅当下一个条目收到前一个条目的上一个SplashRequest的响应时,如何才能使下一个条目变得抓斗?

我不确定简单的回调函数是否足以解决问题,或者我是否需要更复杂的东西。

解决方法

我需要做的就是在parse函数中显式调用另一个yield的请求,并将parse作为回调本身。所以最后我有这样的东西:

def start_requests(self):
    rec = GetDocumentAndMarkAsProcessing()
    script = getScript(rec)
    yield SplashRequest(...,callback=self.parse,endpoint="execute",args={
                'lua_source': script
            }
          )

def parse(self,response):
    ... store results in database ...
    rec = GetDocumentAndMarkAsProcessing()
    script = getScript(rec)
    yield SplashRequest(...,args={
                'lua_source': script
            }
          )
,

我相信您可以通过将settings.py中的CONCURRENT_REQUESTS设置为1来实现。这样就可以使抓取工具一次只发送一个请求,尽管我承认我不确定第二个请求的计时如何工作-是在回调完成执行时还是在检索响应时发送。 >

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。