http2 多路复用的实现原理

2018-08-14 09:29:22 +08:00
 vevlins

看到一篇文章,基本的说法的 1.x 需要按照顺序,但是 2 使用了 stream。

2)所谓请求阻塞意思就是一条 TCP 的 connection 在同一时间只能允许一个请求经过,这样假如后续请求想要复用这个链接就必须等到前一个完成才行。 3 )之所以有这个问题就是因为 HTTP1.x 需要每条请求都是可是识别,按顺序发送,否则 server 就无法判断该相应哪个具体的请求。

但是 1.x 的请求不可以识别吗?不是有 http 请求头可以对应吗? 还是说同一类型请求的多次发送?

4985 次点击
所在节点    前端开发
13 条回复
rrfeng
2018-08-14 09:36:28 +08:00
我同样的请求连续发两次,你知道哪个是哪个吗?
snail1988
2018-08-14 09:38:07 +08:00
1.x 的数据流顺序和完整性是直接基于 TCP 的
2 的数据流是在 TCP 的里面又加了一层 mux 的结构 Stream,一条 TCP 连接可以同时传输多个 Stream

可以看看 http2 的标准文档,再找个 http2 的实现源码
zhujinliang
2018-08-14 09:41:16 +08:00
HTTP1 想要复用链接,必须指定 Content-Length,或者使用 Chunked 编码,否则不能知道什么时候一次请求结束,只能靠断开 TCP 链接结束一次请求
zpf124
2018-08-14 09:45:43 +08:00
http 1.0 应该完全没 这些问题,因为他 tcp 链路都不复用。一个 tcp 三次握手发一个请求就断开了。如果都用 1.0 的协议,人多了服务器就要炸了。

假设 在 http 1.1 下 出现了同时发多个请求的情况, 我觉得会出问题的不是服务端,而是客户端。

比如 client 请求了 /api/user 不等返回响应,立马发送新的请求 /api/top,
这里确实可以做到 服务可以识别到不同的请求,

但如果 top 的结果先一步算出来,要不要返回?返回了的话 client 怎么判断 当前返回的数据时 user 的还是 top 的?
nfroot
2018-08-14 10:40:26 +08:00
现在能做的事情大部分以前都能做到,但是前提是要想得到,用得上才实际。

就好像人类的祖先,最重要的是活下来,才有空去研究和改进,然后一步步改进,你让他一次性考虑完全、完整,那早都饿死了。

协议一定下来,就很久都不会去改变了,要不然别人没法用的。
est
2018-08-14 10:46:57 +08:00
http/1.1 其实有 pipeline 特性,不过大家都不怎么支持。支持了的都说是用来跑分作弊的。

不过就算 pipeline,也得严格讲究顺序。还是会有 head of line blocking。
imn1
2018-08-14 10:55:53 +08:00
我以前 python 写过 http1.1 一个 connection 多次请求的 socket(client),爬虫用
请求和得到应答部分是成功的,但水平不够,搞不定容错部分,放弃了
gamexg
2018-08-14 11:36:24 +08:00
楼上说的差不多了。

http1.1 支持的是顺序流,即客户端连续发出多个 http 请求,服务器按顺序处理,处理完第一个就发送第一个的回应,然后处理第二个并发送第二个的回应。缺陷是如果第一个请求响应延迟很大,例如是个长连接推送,那么之后的请求就别想等到回应了,所以实际浏览器并没有用这个功能。
http2 的是将单个 tcp 连接拆分成多个流,并发的多个请求分别通过不同的流发出及接收,即使中间某个请求时长连接也不会出现什么问题,他只会阻塞自己所在的流,其他请求一样可以正常返回。
gamexg
2018-08-14 11:39:01 +08:00
@gamexg #8 另外补充下,靠谱的 http 服务器如果实现 http 协议正确,能够分清楚每个 http 请求,那么默认就应该是支持 http1.1 pipeline 的。
est
2018-08-14 12:00:21 +08:00
@gamexg 其实不支持。。想一想各种负载均衡反向代理。。。请求跑到哪一台服务器去了鬼才知道。。。
gamexg
2018-08-14 13:49:42 +08:00
@est #10 实际前端负载均衡按标准实现 http 协议就没问题。他只管读取请求,转发到后端,获得后端响应,转发响应给浏览器。
读取 http 请求时只要可靠的实现了 http 协议,那么应该只读取了第一个请求,剩下的请求的还在缓存区,下个循环时才会读取到。
当然我也见过非常烂的代码,读完第一个请求后不管缓存区是不是还有数据就直接丢弃了...
est
2018-08-14 14:09:18 +08:00
@gamexg 我觉得有问题。LVS 转发是 4 层基于 tcp 的。。。顺序早就不知道飞到哪个节点去了。。。

节点自己处理完了自己就返回,压根不会管顺序。。
gamexg
2018-08-14 18:06:32 +08:00
@est #12 没用过 lvs,以前看过说明,印象 lvs 是浏览器到服务器的部分经过 lvs,服务器到浏览器的部分不经过 lvs。
这种情况 lvs 负载均衡应该无法拆分单个 tcp 连接到多个服务器,所以对后面的服务器基本等于透明的,还是只看后面的 web 服务器是否支持即可。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/479560

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX