1
liuchen9586 2015-01-17 08:51:55 +08:00
网站根目录下建立个robots.txt文件
然后内容写上 User-agent: * Disallow: / 就行了 |
2
Chipper 2015-01-17 08:52:47 +08:00
在网站的根目录里建立一个robots文件即可。
|
3
xfspace 2015-01-17 08:53:52 +08:00
|
4
fising 2015-01-17 08:54:54 +08:00 via iPad
除了robots文件,最好能在服务器层面deny
|
5
typcn 2015-01-17 09:08:07 +08:00
我之前尝试过拒绝 UA 中含有 360 的请求,结果 360 搜索非常正常地收录了我的最新内容。
|
6
kiritoalex 2015-01-17 09:26:31 +08:00 via Android
@typcn 360爬虫不遵循robots协议,只能屏蔽IP
|
7
hjc4869 2015-01-17 09:34:24 +08:00 via iPhone
@kiritoalex 360不支持https吧
|
8
kiritoalex 2015-01-17 09:40:04 +08:00 via iPhone
@hjc4869 应该是
|
9
kiritoalex 2015-01-17 09:43:29 +08:00 via iPhone
最有效的方式是屏蔽搜索引擎整个的IP段,对于遵循robots的爬虫可以直接放robots.txt.不遵循的也只好屏蔽整个IP段了(比如腾讯搜搜和360的爬虫)
|
10
overlords 2015-01-17 10:44:23 +08:00
使用dnspod的用户可以在给搜索引擎特地执行一个IP;如127.0.0.1 搞定了;
|
11
miao 2015-01-17 14:06:55 +08:00
好吧. 我的网站巴不得天天爬虫来爬
|
12
mornlight 2015-01-17 14:11:52 +08:00
robots 有个缓存期,如果需要立马有效的话,nginx里屏蔽UA
|
13
enjoyzhou 2015-01-18 01:43:30 +08:00
只是减少服务器压力,可以通过搜索引擎站长平台调整抓取频率,无需全部禁止的
|
14
ctsed 2015-01-18 13:22:00 +08:00
http://zhanzhang.baidu.com/pressure/index # 站点管理 > 抓取频次
https://www.google.com/webmasters/tools/settings # 网站设置 > 抓取速度 |
15
kimmykuang 2015-01-20 23:23:34 +08:00
国内很多spider是不遵守robots协议的,比如360,明着不要脸的,我们现在采用的方法还是用go实现了一套逻辑去分析用户行为,最终还是为了去ban spider ip,结合着fail2ban使用
|