V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
lixuda
V2EX  ›  Python

scrapy 多站点爬虫问题请教

  •  
  •   lixuda · 2018-09-17 10:22:08 +08:00 · 2816 次点击
    这是一个创建于 2019 天前的主题,其中的信息可能已经有所发展或是发生改变。
    目前需要:
    有 1000+以上的网站需要爬,并且经常要增加减少。有部分网站是通用类型,直接通过摘要提取 html 内容,不用 xpath。部分需要自写 xpath 提取。不需要分布式。
    抓取的只要标题,内容,图片。


    对 scrapy 刚接触,网上搜索下,有以下方式:
    1.自定义项目命令
    2.process.crawl 方式
    3.Scrapyd 方式

    现在个人想法是
    所有网站都用一个 scrapy 来做,通用 items,每一个网站写一个 spider 蜘蛛,通用的网站用一个 spider。

    问题:
    1.是否 scrapy 适应以上任务。
    2.如果合适,怎么样的项目方案合适?同时要启动多个 spider,怎么样方式合理?
    谢谢
    5 条回复    2018-09-17 17:11:46 +08:00
    simonliu2018
        1
    simonliu2018  
       2018-09-17 10:38:23 +08:00
    >有 1000+以上的网站需要爬,并且经常要增加减少
    把这些网址存在数据库里,定期重启 spider 来加载到 start requests 里

    >有部分网站是通用类型,部分需要自写 xpath 提取
    自定义几个 middleware 区分不同的业务;也可以写不同的 spider

    >同时要启动多个 spider
    我之前是写一个小工具来生成多个 spider 启动脚本,用 daemontools 管理这些脚本
    raysmond
        2
    raysmond  
       2018-09-17 12:16:22 +08:00
    scrapy-redis 了解一下,spider 常驻了,start_urls 放在了 redis 里,需要抓取时塞进去
    lixuda
        3
    lixuda  
    OP
       2018-09-17 14:56:40 +08:00
    @simonliu2018 好的,谢谢
    chengxiao
        4
    chengxiao  
       2018-09-17 14:59:12 +08:00
    @raysmond 要抓多个站点的话 或者多个 spider 的话, scrpy-redis 该怎么部署呢?
    lixuda
        5
    lixuda  
    OP
       2018-09-17 17:11:46 +08:00
    @simonliu2018 感谢,另外通用型的网站 LinkExtractor 要增加,其他都是一样
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2852 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 15:21 · PVG 23:21 · LAX 08:21 · JFK 11:21
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.