V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ChristopherWu
V2EX  ›  程序员

最熟悉的陌生人: 5 分钟快速理解 HTTP2

  •  2
     
  •   ChristopherWu · 2019-09-23 13:19:28 +08:00 · 6822 次点击
    这是一个创建于 1670 天前的主题,其中的信息可能已经有所发展或是发生改变。

    最熟悉的陌生人:5 分钟快速理解 HTTP2

    from : https://mp.weixin.qq.com/s/fb02vTE884Txx6npW2mfcQ 有些图裂了,看原文比较方便~

    最熟悉的陌生人系列,将带你快速理解熟悉的名词如:HTTP2、HTTP3、IPV6、BBR 等。

    通读 90 年代上下的论文,你会发现,在已经基本建成的计算机科学大厦中,后辈码农只要做一些零星的修补工作就行了。

    在计算机科学晴朗天空的远处,还有几朵令人不安的小小乌云。

    ​ ——皓尼・郝里斯( HioHio )

    img

    而其中一朵小小乌云,就是前辈的协议制定实现得太牢靠了,就算有着诸多不足,还是用的好好的,让后辈没什么动力去创新替换。。

    HTTP 的不足

    在阅读此章时,读者可以给自己一个思考时间,锻炼设计与思考能力—— 目前在用的 HTTP 协议,你认为有哪些不足呢? 你可以重新设计一个替代它并且尽可能兼容的协议,你会怎么做呢?

    可尝试自己写下设计,定会受益甚多。

    TCP 连接数过多

    HTTP1.0只允许一条 tcp 链接上处理一个 request,尽管后来的 HTTP1.1(现在常用的版本)允许pipelining, 管道,通过这个管道,浏览器的多个请求可以同时发到服务器,但是服务器的响应只能够一个接着一个的返回 (但各大浏览器有些不支持 / 默认关闭,因此这功能可以说是鸡肋)。

    HTTP 头部过多重复

    HostAccept-EncodingConnectionorigincontent-type等等一堆头部,都在不同的请求中重复出现。

    除了浪费大量流量,还会导致 TCP 的初始拥塞窗口(initcwnd)快速满了,当多个请求准备在同一个 tcp 连接上发送时,会导致大量延迟——当initcwnd >= ssthresh ( slow start threshold ) 时,tcp 就会进入 “拥塞避免算法”,把发送的速度调慢,避免增长过快导致网络拥塞,慢慢的增加调整到网络的最佳值。

    当然初始拥塞窗口(initcwnd)也不能调太大来避免。

    If the initcwnd values is large, then there will be fewer RTTs required to download the same file. But we cannot set initcwnd to a huge value as the network environment and the routers also has the limitation of having limited buffers. If exceedingly large values are set, it may lead to router buffer overflows, packet loss, packet re-transmissions. So, we need to set an optimal value for the initcwnd which is directly proportional to the network bandwidth.

    使用文本协议

    文本协议尽管带来了可读性以及方便程序员 debug,但这是高性能网络程序要竭力避免的——君不见每个公司内部都要搞一个自己的二进制协议吗?二进制,每个在网络上交流的 bit 的意义都被发挥得淋漓尽致。

    而说到 可读与 debug 的问题,自然浏览器(客户端),服务器(框架)可以帮你解决,套上一层中间层就好。

    HTTP2 概览

    HTTP2, 为解决以上问题而生。

    • 允许多个 request/response 在同一个 tcp 链接上发送
    • 高效压缩头部( http header )
    • 二进制协议,真正的多路复用
    • 还有自己的流量控制,保证各个 stream 不被互相干扰;
    • 支持请求分优先级发送,优先级越高如核心 css、html,优先发给客户端
    • 支持服务器预测并推送客户端可能需要的资源,让客户端先做缓存( server push ),榨干服务器
    • 兼容 HTTP1.1 的语义,尽可能一致。

    兼容 HTTP1.1

    其实平常我们在用的网站都支持 HTTP2 了,如

    而想找一些不支持的,找一些小型网站就好,如 yonghaowu.github.iogcores.comdouban.combilibili.com/,还有臭名昭著的 baidu.com

    当然,这里说不支持时,只是说这个域名不支持,他可能 api 是用另外的域名然后是支持的。

    升级 HTTP2

    兼容,或者说客户端要求升级到 HTTP2,主要有两种方法:

    • 客户端的HTTP headerUpgrade 指定h2cHTTP/2 ClearText
      • 如你所知,Connection: UpgradeUpgrade: websocket,Websocket 就是这样子变换协议的;
    • ALPN ( Application Layer Protocol Negotiation,应用层协议协商),TLS 的扩展功能
      • 客户端在建立 TLS 连接的 Client Hello 握手中,通过 ALPN 扩展列出了自己支持的各种应用层协议
      • 如果服务端支持 HTTP/2,在 Server Hello 中指定 ALPN 的结果为 h2 就可以了
      • 如果服务端不支持 HTTP/2,从客户端的 ALPN 列表中选一个自己支持的即可

    而一般你看现在的网站请求,都用第二种方式了,因为第一种方式服务端接收到后还需要返回101 状态码 Switching Protocols告知客户端,客户端再发送 http2 的数据。

    HTTP2 的 帧( frame )

    HTTP2 中二进制协议的基本单元叫 frame (帧),不同 frame 有不同作用,如:

    • SETTING帧:建立连接时,向对方传达一些配置信息如是否开启 server push 功能、最大帧 size 等等(牢记,下文不累述此);
    • HEADERS帧:发送 http 的 request 或者 response 的头部;
    • CONTINUATION帧:headers 要跨越多个帧,用此来指示头部上一个HEADERS;本质就是HEADERS帧,但是为了轻松处理,就用明确的类型来区分这种情况;
    • DATA帧:发送 body 数据用;
    • PUSH_PROMISE 帧:用来告知对端初始化哪些数据,就是以上说到的 server push 功能
    • WINDOW_UPDATE帧:用来做流量控制

    等。

    帧的格式如下,熟悉二进制协议的你对此想必很清晰:

    • +-----------------------------------------------+
      |                 Length (24)                   |
      +---------------+---------------+---------------+
      |   Type (8)    |   Flags (8)   |
      +-+-------------+---------------+-------------------------------+
      |R|                 Stream Identifier (31)                      |
      +=+=============================================================+
      |                   Frame Payload (0...)                      ...
      +---------------------------------------------------------------+
      
      • lengthframe payload 的长度;
      • typeframe 的类型;
      • flag: 保留给frame 的类型使用;
      • R: 保留的一个 bit,没有任何作用;
      • Stream Identifier:unsigned 31 位整数id,用来区分 stream ;
      • Frame Payload: frame 携带的可变长数据,可为空;

      以上 6 种东西,Frame Payload 可以没有,但是其他必须有。

      所以所有 frame 必定会有至少 24 + 8 + 8 + 1 + 31 + (0…) = 72 位的数据。

      一个经典的 http 请求在 http2 中对应如下,可以看到 HEADERSDATA 两个 frame:

      Figure 12-1. HTTP/2 binary framing layer

      值得注意的是,当 data 过大的时候,http2 的 rfc 没有规定 data frame 应该拆分与否(翻了一大堆资料都没有找到)。

      然而去用一些工具如 nghttp 去看详细过程,可看到 data frame 都是拆开一个个的,原因就是为了多路复用。这

      $ nghttp -v -n --no-dep -w 14 -a https://www.vgtime.com

      [  0.063] recv (stream_id=9) eagleid: 2ff6019a15691588216324974e
      [  0.063] recv (stream_id=9) content-encoding: gzip
      [  0.063] recv HEADERS frame <length=188, flags=0x04, stream_id=9>
                ; END_HEADERS
                (padlen=0)
                ; First response header
      [  0.063] recv DATA frame <length=8192, flags=0x00, stream_id=9>
      [  0.063] recv DATA frame <length=464, flags=0x00, stream_id=9>
      [  0.063] recv DATA frame <length=2510, flags=0x00, stream_id=9>
      [  0.063] recv DATA frame <length=10, flags=0x01, stream_id=9>
                ; END_STREAM
      

      所以一个大的请求如下图,常见的帧就是每一个 Frame Header 接一个 Frame Body

      img

      帧的大小范围规定为 2 的 14 次方 (16,384)2 的 24 次方-1 (16,777,215) 字节,也就是大概 16KB 到 16MB

      但若双方没有协议,一般默认为 16Kb,假如HEADERS帧不够装完头部时,就用第二个 CONTINUATION帧来装,

      所以你看到可以有多个 CONTINUATETION帧下有省略号,因为可以有多个。

      流( stream )

      流在 HTTP2 一条连接中,在客户端与服务端之间,双向交换帧( frame )。

      简单说,客户端与服务端之间相互发送的帧,都通过一个个独立流来传输,多个流可以在同一 http2 连接中并发,而每个流都有一个 ID ( Stream Identifier ),frame 就是通过此来识别流。

      流你可以理解为一个抽象概念,就是为了区分不同的请求,用于多路复用。

      流的状态机如下:

      img

      我们常见的 HTTP 请求就是走黄色的线:

      idle状态 -> 发送 HEADER帧后变成OPEN -> 发送完数据后发送 END_STREAM代表发完 -> 变成 half closed状态 -> 等待对方发送 END_STREAM代表对方发完 。

      你会发现这个流程非常像 TCP 的四次挥手,因为本质都是自己关闭流后,要等待对方关闭并自己来确认。

      当然,也会有像四次挥手一样的RESET 一样 reset stream 的功能,我就不累述了。

      Stream 流量控制

      HTTP2 的 Stream 有流量控制功能,HTTP2 的接收方通过 WINDOW_UPDATE 帧告诉对方自己准备接收多少字节的数据,注意只有 DATA 帧才会受限制,因为其他帧都不大,而且也比较重要。

      Stream 优先级

      客户端可以在开启一个流时,通过设置在HEADER 帧里的PRIORITY这个 flag,来指定流的优先级。这样子就可以做到优先级越高如核心 css、html,优先发给客户端

      Server Push

      HTTP2打破了以往 HTTP1 一问一答的范式,允许服务器主动往客户端推数据了,但值得注意的是,这依然不能代替 Websoket,两者是不等价的,除非你自己重新实现 http2 客户端服务端的功能——也就是改 HTTP2 协议了。

      服务器可以通过 PUSH_PROMISE帧,把预估客户端可能需要的资源,在其没有请求前直接发送给对方,让对方缓存。如下图就直接发了 styles.css给对方。

      Web Server Communication with HTTP/2 server push.

      头部压缩( HPACK )

      HPACK就是专门用来处理重复冗余的头部的,对这个优化,自然就想到查表法——客户端发送请求前,在内部创建一个哈希表,索引对应着头部与值,并将此对应表发送供给服务器;服务器首次接收到后,也维护一个一模一样的表,之后有重复头部时,客户端直接发索引值即可。

      后记

      拖拖拉拉,写了一两周总算把这篇学习笔记写完了,相比网上很多文章或者书籍(比如网上很多人没讲明白流是什么,frame 如何分段等),我觉得这篇笔记是系统性的且非常符合不熟悉 HTTP2 的同学理解它是什么的。

      有很多知识是精简了的,以后看读者反馈再补充。

      如果您觉得写的好,对您有用,不妨用行动(你懂的)多多支持~

    img

    33 条回复    2019-09-26 18:14:02 +08:00
    learningman
        1
    learningman  
       2019-09-23 13:52:22 +08:00
    bilibili 在我这儿支持 h2。。。
    ChristopherWu
        2
    ChristopherWu  
    OP
       2019-09-23 13:57:19 +08:00
    @learningman #1 诶,你是怎么测的呀?
    vus520
        3
    vus520  
       2019-09-23 14:10:08 +08:00
    后台除了 WebServer 要改动以外,对后端程序有没有一起改动的要求?或者说后台程序如何改可以更好的利用 http2?
    ChristopherWu
        4
    ChristopherWu  
    OP
       2019-09-23 14:29:21 +08:00
    @vus520 #3 我还没有多少实践经验,按我知道的,webserver 其实不用改动,因为现在基本所有 http 库都支持 http2 的了。后台程序改动是有的,很多以前 http1 中的优化技巧,在 http2 里就不一定是好处了,比如常见的多个域名(因为 http1 规定一个域名只能承载有限的 http 链接)等。具体可以看看 http2 的一本小书,里面介绍的很详细。

    我文章的确没有讲到实际应用应该怎么办~
    ChristopherWu
        5
    ChristopherWu  
    OP
       2019-09-23 14:30:27 +08:00
    @vus520 #3 如果不从性能上抠,实际上用没用 http2,除非要 debug 或者 curl,否则对程序员(前后端都是)是没有感知的。 可能也就运维要改改 nginx (如果用到)
    ChristopherWu
        6
    ChristopherWu  
    OP
       2019-09-23 14:36:33 +08:00
    picone
        7
    picone  
       2019-09-23 14:38:56 +08:00
    我猜想一些网站不支持 HTTP2 的原因,可能是收益没有你说的那么大。HTTP2 优化的更多是多个静态资源 /异步请求等这些情况,但是往往网站的静态资源是分开放的,所以可以看到很多网站的静态资源是支持 HTTP2,但是页面是不支持(就算支持了也没啥用)
    ChristopherWu
        8
    ChristopherWu  
    OP
       2019-09-23 14:42:07 +08:00
    @picone #7 我没有详细看过两种方案做到极致优化下的对比哈~ 就我现在了解的,我认为上、或者说切换到 http2 的性价比是很高的
    jhdxr
        9
    jhdxr  
       2019-09-23 14:43:57 +08:00
    我想知道 皓尼・郝里斯 是谁。。。

    顺便说一句,现在 http/3 已经成为标准了
    ChristopherWu
        10
    ChristopherWu  
    OP
       2019-09-23 14:49:05 +08:00
    @jhdxr #9 现在 HTTP2 还不是很多人了解嘛。。http3 一步步来,下次就学习它。

    皓尼・郝里斯( HioHio ) 就是我 HioHio 哒。
    picone
        11
    picone  
       2019-09-23 14:50:01 +08:00
    @ChristopherWu #8 对于公司来说,收益不明显的事改了还得冒着出问题的风险,一般不会做。
    bojackhorseman
        12
    bojackhorseman  
       2019-09-23 14:50:52 +08:00
    是 JOJO
    ChristopherWu
        13
    ChristopherWu  
    OP
       2019-09-23 14:57:45 +08:00
    @picone #11 但是你看到外国的公司很多都上了啦。
    ChristopherWu
        14
    ChristopherWu  
    OP
       2019-09-23 14:57:55 +08:00
    @picone #11 风险不大的。
    jarnanchen
        15
    jarnanchen  
       2019-09-23 15:32:55 +08:00
    B 站 —— 小型网站 (滑稽)
    ChristopherWu
        16
    ChristopherWu  
    OP
       2019-09-23 15:35:35 +08:00
    @jarnanchen #15 哈哈,的确小 #滑稽
    nyanyh
        17
    nyanyh  
       2019-09-23 15:41:13 +08:00
    @learningman #1 真的吗?我在 FF 里开发者工具观察 B 站首页加载,所有资源都是 HTTP/1.0 和 /1.1 啊
    cheeto
        18
    cheeto  
       2019-09-23 15:50:44 +08:00
    不是开尔文说的么 - -
    ChristopherWu
        19
    ChristopherWu  
    OP
       2019-09-23 15:52:03 +08:00
    @cheeto #18 哪里,现在这句话明明是我皓尼・郝里斯( HioHio )说的。 开尔文说的是物理学 #滑稽
    liuyinltemp
        20
    liuyinltemp  
       2019-09-23 16:50:19 +08:00
    nginx 对 http2 支持不算好,正向代理压根不支持。
    ChristopherWu
        21
    ChristopherWu  
    OP
       2019-09-23 17:16:22 +08:00
    @liuyinltemp #20 不会吧?! 这么久了,还不支持-
    Mistwave
        22
    Mistwave  
       2019-09-24 00:52:48 +08:00 via iPhone
    写得不错 支持一下
    msg7086
        23
    msg7086  
       2019-09-24 01:24:06 +08:00
    逼站不支持的话也可能是因为 CDN 不支持。很多网站是外包到 CDN 的,所以是否支持 h2 其实是看对应的 CDN 是否支持。有些是不同地区国家用不同 CDN 的,就会出现有些人访问支持,有些人访问不支持的情况。
    learningman
        24
    learningman  
       2019-09-24 08:01:42 +08:00 via Android
    @nyanyh Chrome Stable latest,部分资源是 h2
    learningman
        25
    learningman  
       2019-09-24 08:02:17 +08:00 via Android
    @ChristopherWu 官方说不打算支持,因为 h2 在后端通讯没有体现出优势
    ChristopherWu
        26
    ChristopherWu  
    OP
       2019-09-24 10:30:34 +08:00
    @learningman #25 谢谢,我找到官网 faq 了:
    Q&A
    Q: Will you support HTTP/2 on the upstream side as well, or only support HTTP/2 on the client side?

    A: At the moment, we only support HTTP/2 on the client side. You can’t configure HTTP/2 with proxy_pass. [Editor – In the original version of this post, this sentence was incorrectly transcribed as “You can configure HTTP/2 with proxy_pass.” We apologize for any confusion this may have caused.]

    But what is the point of HTTP/2 on the backend side? Because as you can see from the benchmarks, there’s not much benefit in HTTP/2 for low‑latency networks such as upstream connections.

    Also, in NGINX you have the keepalive module, and you can configure a keepalive cache. The main performance benefit of HTTP/2 is to eliminate additional handshakes, but if you do that already with a keepalive cache, you don’t need HTTP/2 on the upstream side.
    ChristopherWu
        27
    ChristopherWu  
    OP
       2019-09-24 10:31:51 +08:00
    @learningman #25 也就是 proxy_pass 不支持,这个问题不大,的确没什么必要。
    ChristopherWu
        28
    ChristopherWu  
    OP
       2019-09-24 10:32:29 +08:00
    @Mistwave #22 老铁来个三连?
    learningman
        29
    learningman  
       2019-09-24 11:18:20 +08:00
    @ChristopherWu v2ray 的 http2 协议很需要。。。
    tammy
        30
    tammy  
       2019-09-24 15:03:11 +08:00
    看了一下,我是用 Caddy 作为前端的,默认启用 http2,具体有什么优势没体验出来
    ChristopherWu
        31
    ChristopherWu  
    OP
       2019-09-24 15:13:39 +08:00
    @tammy #30 小姐姐吗? 优势要有数据对比才能体现啊。
    shubei
        32
    shubei  
       2019-09-26 18:07:01 +08:00
    图好像挂了

    ps:所以你的公众号是啥
    ChristopherWu
        33
    ChristopherWu  
    OP
       2019-09-26 18:14:02 +08:00
    @shubei #32 YongHao 写东西的 cache
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   3312 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 34ms · UTC 10:44 · PVG 18:44 · LAX 03:44 · JFK 06:44
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.