设置了 robots.txt
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /
User-agent: *
Disallow: /
没用,照样收录。Nginx 中禁止了搜索引擎的 User-Agent:
if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Feedfetcher-Google|Yahoo! Slurp|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot|ia_archiver|Tomato Bot")
{
return 404;
}
两周过去了,没用,还是收录,此时所有其他搜索引擎都停止了收录。
甚至直接举报了网站,一直显示处理中,没有结果。
为什么百度像狗皮膏药一样恶心?到底怎么才能禁止百度收录网站?
1
Yourshell 2024-01-04 10:38:41 +08:00
黑名单不行就白名单
|
2
lingeo 2024-01-04 10:40:05 +08:00
https://help.baidu.com/question?prod_id=99&class=470&id=3009
如何撰写页面就完全没内容了。 |
3
opengps 2024-01-04 10:40:37 +08:00
主动去百度站长收录平台提交下就行
|
4
SkywalkerJi 2024-01-04 10:59:34 +08:00 2
发一些政治内容。
|
5
lovezww2011 2024-01-04 11:06:23 +08:00
可以根据 url 做判断,如果是来自百度的流量,直接 301 跳转到其它网站
|
6
lifei6671 2024-01-04 11:18:56 +08:00
发一些涉政和某功文章。😂
|
7
vueli 2024-01-04 11:53:52 +08:00
#6 楼说的对
|