比如博文是这个内容:“这里有段文字”
输出到 html: “这 gss 里 xcv 有 ewf 段 sdv 文 sdf 字”
因为背景图是白色的,那些乱码混淆文字输出到 html 也是白色,在视觉上自动隐藏了。看上去没问题,但是复制文本和爬虫会有乱码
这种是什么技术?想问个名字自己找插件或者命名做一个插件
1
dfkjgklfdjg 245 天前 1
反爬虫使用的比较多的印象中是自定义字体的方式 👉 [斗鱼关注人数爬取 ── 字体反爬的攻与防 - CJ Ting's Blog]( https://cjting.me/2020/07/01/douyu-crawler-and-font-anti-crawling/)
|
2
bronana 245 天前
安装上这个插件就可以了
[Simple Allow Copy]( https://chromewebstore.google.com/detail/aefehdhdciieocakfobpaaolhipkcpgc) |
3
AlexPao 244 天前
这种解决方案非常有意思, mark.
就是一个问题是, 这样做, 原理上呈现给搜索引擎的, 是 “这里有段文字” 还是 “这 gss 里 xcv 有 ewf 段 sdv 文 sdf 字” 后者还是不利于做 SEO 的, 只能用于防范盗版 |
8
AlexPao 242 天前
"英文的都是白色。视觉看不出来。"
这种是针对用户的, 实际搜索引擎还是抓的全文, 也就是他会看到并且易识别为 "这 s 是 v 一 c 段 x 文 f 字 randomEnd" 你说的是否单页应用我不太懂, 但是个人感觉爬虫肯定是要爬内容的, 不然网页爬来干啥 所以这类方案可能只适合用于本身自带流量的站, 又要 SEO 优化又要防盗感觉是做不到的 |