大家敢不敢在 robots 里面屏蔽百度?

2019-05-31 10:08:15 +08:00
 woshishuia

这里好像没有不骂百度,既然如此,为何不直接在自己的网站屏蔽掉它呢,加速他的衰亡(虽然就算不屏蔽百度也未必来收录你)?

9052 次点击
所在节点    奇思妙想
38 条回复
woshishuia
2019-05-31 10:09:57 +08:00
很多站长苦百度久矣,可是就是不会一起变被动为主动。
sanshiliu
2019-05-31 10:25:29 +08:00
屏蔽很久了,但是百度依然抓取。
9151
2019-05-31 10:38:59 +08:00
员工能代替老板做这种决定?
hack
2019-05-31 10:39:52 +08:00
屏蔽也无视的
kios
2019-05-31 11:26:51 +08:00
君子协定 百度是不会遵守的 。要真想屏蔽 直接在 nginx 上 block 掉
kindjeff
2019-05-31 11:33:11 +08:00
xiri
2019-05-31 11:33:56 +08:00
博客放在 Github Pages 上,不用我去屏蔽,Github 帮我屏蔽了🐶
passerbytiny
2019-05-31 11:39:56 +08:00
君子协定,屏蔽无用。倒不如在你的页面上加一个类似于“不欢迎百度”的提示。
lzxgh621
2019-05-31 11:40:06 +08:00
因为他根本不收
Tink
2019-05-31 11:40:16 +08:00
屏蔽有用??
est
2019-05-31 11:43:20 +08:00
blog.est.im/robots.txt

路过一下。
msg7086
2019-05-31 12:10:48 +08:00
我根本不关心度娘的死活,为何要特地在 robots 里为他加上一段?

(然后每次打开 robots 或者 nginx 文件的时候还要特地被恶心一次……
mason961125
2019-05-31 12:12:06 +08:00
nginx 里配置百度的 referrer 直接 403
kingfalse
2019-05-31 12:15:23 +08:00
想起了当年 360 强行抓某网站,
lycc
2019-05-31 12:53:55 +08:00
早已屏蔽
looking0truth
2019-05-31 13:13:35 +08:00
个人站应该很多都屏蔽了吧 上次见过更狠的,百度跳过去弹窗数落百度的罪证
sheeta
2019-05-31 13:19:19 +08:00
@looking0truth coolshell 是这样的,哈哈
trait
2019-05-31 13:27:29 +08:00
实不相瞒,我把 Google 在内的所有爬虫全屏蔽了
liuxey
2019-05-31 13:28:42 +08:00
403 好评
Lpl
2019-05-31 15:31:52 +08:00
@mason961125 你这太暴力了,还不如跳到一个页面说明下更好

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/569347

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX