V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  jasonkayzk  ›  全部回复第 24 页 / 共 26 页
回复总数  516
1 ... 16  17  18  19  20  21  22  23  24  25 ... 26  
@iyg429 是可以添加视频下载的,我请求的那个 json 里面有视频的流地址;但是一般视频挺大的我就没有加= =;
2020-12-23 22:07:59 +08:00
回复了 funbox 创建的主题 MySQL 日常涨知识系列-惊天地泣鬼神的 sql, 300 行~~
想知道这种 SQL 的性能如何= =
@jackrebel 哈哈,谢谢夸奖~
@nspih 二百多公斤的英国大理石都爬不动我的一个微博;
@ab 谢谢夸奖,哈哈
@fl2d 养了的,哈哈
@adm7n 这个估计不行,得用 cookie 的方式;可以参考其他人发的解决方案;
@JCZ2MkKb5S8ZX9pq 哈哈,这个倒是有可能;爬虫这种一直都不稳定;= =
@JCZ2MkKb5S8ZX9pq 暂时没发现频度限制,本来想嵌入一个 go 并发下载的,后来想了想,万一太猛被封 IP 了呢,所以还是用 JS 吧;
@night98 应该是原图,是请求返回 json 的"large"字段;
@skygee 如果不是深度使用,以 JS 单线程和设置的延时来看,这点爬虫流量应该算不了什么吧= =;
@lwlizhe 啪的一下,很快啊!
@5966 这个改一下源码就好了,在寻找图片链接的时候,同时判断一下微博的内容是否符合你的要求就行了!
@JCZ2MkKb5S8ZX9pq 我的这个是不需要 cookie 的,用微博移动版: https://m.weibo.cn/ ,可以看看这个能不能实现= =
@justfun hhhh~ 正好前段时间粗略看了下 Electron,就写了一个呗;😅😅
@kingcos 这个…,我也不玩微博= =,我也不知道啊!你试试 /呆滞
@qxsd 这个也可以爬,只是稍微麻烦一些了;你可以直接 Fork 这个仓库,然后修改鸭!
@wangdefu 如果是 py 脚本的话,设置个 crontab 丢到服务器上跑呗;
@anxn 我试着编译一下看看= =
@whatalittleboy 体积大是因为 Electron 编译之后本身就太大,项目挺简单的也没用啥东西。= =
1 ... 16  17  18  19  20  21  22  23  24  25 ... 26  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5071 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms · UTC 05:58 · PVG 13:58 · LAX 22:58 · JFK 01:58
Developed with CodeLauncher
♥ Do have faith in what you're doing.