这是一个高性能的基于puppeteer
的SSR
方案, 他使用 Headless Chrome 从网页中生成 html,然后以 http 的方法返回 html 内容
很多公司和开发者使用 JavaScript 框架(包括 AngularJS,BackboneJS,ReactJS, VueJS)开发应用程序和网站。组件化对开发者和开发效率都是非常友好的(对比 MVC),但很多搜索引擎,社交媒体,爬虫不支持抓取 JavaScript 的网页,也就无法做网站 SEO 。
通过 UserAgent 判断,如果是来自于爬虫, 则通过 nginx(tomcat, Apache)等反向代理到本服务,则可以把渲染好的 html 网页内容传递给搜索引擎, 从而间接实现 SEO, 这样,既可以保持纯粹的前端开始思路, 还能节省 SSR 造成的服务器负担
也可以使用在爬虫采集, 生成网页截图,生成网页 PDF 等场景
https://github.com/zuoyanart/sparender
新项目, 欢迎 star
git clone https://github.com/zuoyanart/sparender
cd sparender
npm i
npm start
http://127.0.0.1:3001/render?url=http://www.example.com
服务器: 1H2G1M (别打我, 阿里云自用的) 并发:10 运行时间:40S
项目配置: 不使用缓存, 屏蔽图片,字体,多媒体等
请求地址: http://xxxx/render?url=https://www.baidu.com
单次渲染 | 并发 QPS | |
prerender | 2054ms | 0.03 |
sparender | 476ms | 0.3 |
ps: 初步测试,因为服务器和带宽真不怎么样, 在 QPS 上的表现在高配服务器上可能变数很大, 不过单次渲染的差距还是比较明显(在我笔记本上测试也基本上是 5 倍的差距)
关于性能还需进一步测试
以下内容摘自 https://markdowner.net/article/73058307795021824, 并根据自己经验做了部分改动
方式 | 优点 | 缺点 |
CSR 客户端渲染 | SPA 的优点(用户体验较好) | * SEO 不友好(爬虫如果没有执行 js 的能力,如百度,获取到的页面是空的,不利于网站推广) 首屏加载慢(到达浏览器端后再加载数据,增加用户等待时间 |
SSR 服务端渲染 | SEO 友好, 首屏渲染快(可在服务端缓存页面,请求到来直接给 html ) | 代码改动大、需要做特定 SSR 框架的改动(经过我们实践、原有 SPA 代码改动非常大) 丢失了部分 SPA 体验 node 容易成为性能瓶颈 |
服务端动态渲染(利用 user-agent ) | 兼顾 SPA 优点同时解决 SEO 问题 | 需要服务端应用(但动态渲染只针对爬虫、不会成为性能瓶颈) |
为了提高用户体验我们用了 SPA 技术、为了 SEO 我们用了 SSR 、预渲染等技术。不同技术方案有一定差距,不能兼顾优点。但仔细想,需要这些技术优点的用户
,其实时不一样的,SPA 针对的是浏览器普通用户、SSR 针对的是网页爬虫,如 googlebot 、baiduspider 等,那为什么我们不能给不同用户
不同的页面呢,服务端动态渲染就是这种方案。
基本原理: 服务端对请求的 user-agent 进行判断,浏览器端直接给 SPA 页面,如果是爬虫,给经过动态渲染的 html 页面(因为蜘蛛不会造成 DDOS,所以这种方案相对于 SSR 能节省不少服务器资源)
PS: 你可能会问,给了爬虫不同的页面,会不会被认为是网页作弊行为呢? Google 给了回复:
Dynamic rendering is not cloaking Googlebot generally doesn't consider dynamic rendering as cloaking. As long as your dynamic rendering produces similar content, Googlebot won't view dynamic rendering as cloaking. When you're setting up dynamic rendering, your site may produce error pages. Googlebot doesn't consider these error pages as cloaking and treats the error as any other error page. Using dynamic rendering to serve completely different content to users and crawlers can be considered cloaking. For example, a website that serves a page about cats to users and a page about dogs to crawlers can be considered cloaking.
也就是说,如果我们没有刻意去作弊,而是使用动态渲染方案去解决 SEO 问题,爬虫经过对比网站内容,没有明显差异,不会认为这是作弊行为。
至于百度,请参考 豆丁网是在做黑帽 SEO 吗?
通过 user-agent 判断,将 Baiduspider 定向到 http 页面
基本的解释是:
的确从单一 feature 来讲,会比较难区分 cloaking 型的 spam 和豆丁类的搜索优化,但是搜索引擎判断 spam 绝对不会只用一个维度的 feature 。docin 这样的网站,依靠它的外链关系、alexa 流量、用户在搜索结果里面的点击行为等等众多信号,都足以将其从 spam 里面拯救出来了。
何况,一般的 spam 肯定还有关键词堆砌、文本语义前后不搭、link farm 等等众多特征。总之 antispam 一门综合性的算法,会参考很多要素,最后给出判断。
实在不行了,还可以有白名单作为最后的弥补手段,拯救这批大网站是没什么问题的啦。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.