|  |      1PythoneerDev6      2017-05-26 10:09:49 +08:00 麻烦之处 在哪 | 
|  |      2qsnow6      2017-05-26 10:11:31 +08:00 start_requests | 
|  |      3knightdf      2017-05-26 10:19:35 +08:00 同问怎么麻烦?虽然没用 scrapy-redis | 
|  |      4HGladIator OP @PythoneerDev6 #1  @knightdf #3 需要很长一串啊 一个一个加进去 比如我有 50 个页码怎么加 ``` 127.0.0.1:6379> lpush yourspider:start_urls https://www.v2ex.com/t/363913 ``` 这样的 url 不是要写 50 个? | 
|  |      5HGladIator OP @qsnow6 #2 这个写在 spider 里面吗 | 
|  |      6knightdf      2017-05-26 10:50:04 +08:00 @HGladIator 循环啊,你是手动加的么?直接写个 py 脚本不一下加进去了 | 
|  |      7HGladIator OP @knightdf #6 我才不会手动呢,我想着应该会有更便捷的高级方法 | 
|  |      8HGladIator OP 我还是老老实实写脚本吧 | 
|  |      9sunchen      2017-05-26 11:19:26 +08:00 start_requests 读文件 | 
|  |      10shimmerh      2017-05-26 11:44:55 +08:00 大哥,你写个 python 脚本来导入这么难吗? | 
|  |      11HGladIator OP @shimmerh #10 看这便捷的方法不是找到了吗,  start_requests 读文件啊 |