传输层协议TCP
目录
TCP协议段格式
确认应答(ACK)机制
超时重传机制
连接管理机制
三次握手
四次挥手
状态转化
三次握手
四次挥手
理解 TIME_WAIT 状态
解决 TIME_WAIT 状态引起的 bind 失败的方法
理解 CLOSE_WAIT 状态
滑动窗口
丢包
流量控制
拥塞控制
延迟应答
捎带应答
面向字节流
粘包问题
TCP/UDP 对比
TCP协议段格式
TCP,全称传输控制协议(Transmission Control Protocol)
源/目的端口:表示数据是从个进程来,到哪个进程去
32位序号/确认序号:发送的数据与接受的数据位置,后文会详细讲
4位首部长度:表示除了数据以外,剩余部分的总长度,单位为4字节(32bit)。最小长度32*5=160bit,即20个字节,此时选项大小为0,首部长度最长为1111,即15*4=60个字节。
6位标志位:
URG: 紧急指针是否有效
ACK: 确认号是否有效
PSH: 提示接收端应用程序立刻从 TCP 缓冲区把数据读走
RST: 对方要求重新建立连接; 我们把携带 RST 标识的称为复位报文段
SYN: 请求建立连接; 我们把携带 SYN 标识的称为同步报文段
FIN: 通知对方, 本端要关闭了, 我们称携带 FIN 标识的为结束报文段
16位窗口大小:接收缓冲区剩余大小,后文详细讲
16 位校验和: 发送端填充, CRC 校验. 接收端校验不通过, 则认为数据有问题. 此
处的检验和不光包含 TCP 首部, 也包含 TCP 数据部分。
16 位紧急指针: 标识哪部分数据是紧急数据。
40 字节头部选项: 暂时忽略;
确认应答(ACK)机制
简单点来说,就是发送方发送数据,接收方如果确认收到了数据那么就需要发送标志位 ACK为1的报文给发送方,同时该报文里的确认序号需要标为下一次接收数据的首地址。
例如上面的例子,发送方发送数据1~1000
接收方收到了数据,需要发送报文,标记上ACK(确认应答),同时确认序号设置为1001,表示1001以前的数据都收到了,下次发送数据需要从1001开始。
TCP对每个字节的数据都进行了标号,即序列号
超时重传机制
我们上面说过了,接收方收到了数据需要发送ACK报文给发送方说明接收到了数据,但是有可能因为某种原因报文丢了或者压根就没有发送成功,这时候就需要用到超时重传机制。
超时重传:如果发送方在一定时间间隔以内没有收到来自接收方的确认应答,就会进行重传。
对于接收方,如果说是重复的数据的话,通过我们前面的确认序列可以很容易的判断接收到的数据到底有没有重复,需不需要丢弃。
至于这个时间间隔不过太大还是太小都会有问题。太长可能会导致效率太低,太短则会发送重复的包
因此TCP会对这个时间间隔进行动态计算
1.Linux 中(BSD Unix 和 Windows 也是如此), 超时以 500ms 为一个单位进行控
制, 每次判定超时重发的超时时间都是 500ms 的整数倍
2.如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传
3.如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增
4.累计到一定的重传次数, TCP 认为网络或者对端主机出现异常, 强制关闭连接
连接管理机制
正常情况下,TCP建立连接与断开连接需要经历三次握手与四次挥手
三次握手
1.客户端发送连接请求SYN
2.服务器收到了客户端发送的SYN,向服务器发送连接请求SYN同时捎带应答ACK表示收到了客户端的连接请求
3.客户端收到了来自服务器的SYN与ACK之后再向服务器发送ACK表示收到了消息,但是并不需要服务器再次发送。因为服务器要是没有收到的话就会再次执行第二步
四次挥手
1.客户端向服务器发送断开连接请求FIN
2.服务器收到了来自客户端的FIN,发送ACK,但是并不会同时捎带FIN断连请求,因为服务器里面可能还有数据没有发完,需要等待数据发送完之后才能发送断开连接请求
3.服务器的数据发送完之后,向客户端发送请求FIN
4.客户端收到FIN,向服务器发送ACK,四次挥手结束,和三次握手一样,服务器如果没收到的话会再次发送FIN(即执行第三步)。
状态转化
三次握手
1.客户端发送SYN,进入状态SYN_SENT,此时也就是客户端调用connect申请建立连接,但是并不返回,因为要收到服务端的SYN与ACK,这也就是为什么connect在服务端没有调用accept时会进入阻塞的原因
2.服务端收到了客户端发送的SYN,向客户端发送SYN与ACK,此时服务端进入状态SYN_RCVD。
3.客户端收到了服务端的SYN与ACK,发送ACK,此时对于客户端来说,连接相当于已经建立完成了,connect返回,客户端进入状态ESTABLISHED。
4.服务端收到了客户端发送的ACK,此时对于服务端来说连接也建立完成了,accept返回,服务端进入状态ESTABLISHED。
四次挥手
1.客户端调用close,给服务端发送FIN,进入状态FIN_WAIT_1。
2.服务端收到客户端发送的FIN,向客户端发送ACK,同时进入状态CLOSE_WAIT。
3.客户端收到服务端的的ACK,进入状态FIN_WAIT_2,此时正在等待服务端发送FIN。
4.服务端发送完所有数据之后,正式申请断开连接,向客户端发送FIN,进入状态LAST_ACK。
5.客户端收到服务端发送的FIN之后,进入状态TIME_WAIT,同时向服务端发送ACK,过一段时间后,客户端会自动进入CLOSED状态
6.服务端收到客户端发送的ACK,连接正式断开,进入状态CLOSED
上图虚线为服务端,实线为客户端
理解 TIME_WAIT 状态
我们之前说过为了避免因为TIME_WAIT状态导致某地址无法被绑定,我们需要设置套SO_REUSEADDR
现在做一个测试,首先启动 server,然后启动 client,然后用 Ctrl-C 使 server 终止,这时马
上再运行 server, 结果是:
原因就是上面四次挥手时,主动断开连接的一方会进入TIME_WAIT状态,我们上面也说了,TIME_WAIT状态需要过一段时间才能够转为CLOSED状态,也就是说此时实际上TCP连接相当于并没有断开,所以我们尝试绑定时无法绑定一个已经存在的地址与端口号
MSL 是 TCP 报文的最大生存时间, 因此 TIME_WAIT 持续存在 2MSL 的话就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);
解决 TIME_WAIT 状态引起的 bind 失败的方法
我们前面的TCP编程以及上面都说过了,设置socket选项SO_REUSEADDR即可
这个选项有两个作用
1.允许创建地址不同但是端口号相同的多个socket(绑定监听)
2.避免TIME_WAIT状态导致的绑定失败
理解 CLOSE_WAIT 状态
我们从上面的图里就可以看出来,CLOSE_WAIT状态实际上就是客户端调用了close断开连接,但是服务器却并没有断开连接,这样子会导致服务器积压大量的CLOSE_WAIT 状态连接
当然了,我们只要让服务器对应调用close就可以解决这个问题了
滑动窗口
我们前面提到的发送数据,如果是一发一收的话,效率实在是太低了,所以我们就可以采用一次发多个的方式,比如前面一次发送一份1000字节,我们可以变成一次发送四份1000字节。
这样子我们的效率就大大提高了。
此时我们就可以解释我们前面TCP协议段格式中窗口大小的用处了
窗口大小指的是无需等待确认应答而可以继续发送数据的最大值. 上图的窗口
大小就是 4000 个字节(四个段)
1.发送前四个段的时候, 不需要等待任何 ACK, 直接发送
2.收到第一个 ACK 后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推
3.操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪
些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉
4.窗口越大, 则网络的吞吐率就越高
丢包
1.数据包抵达了,但是ACK没有收到
这种情况下, 部分 ACK 丢了并不要紧, 因为可以通过后续的 ACK 进行确认
2.数据包就直接丢了
当某一段报文段丢失之后, 发送端会一直收到 1001 这样的 ACK, 就像是在提醒
发送端 "我想要的是 1001" 一样;
但是我们发送了多段,这样我们就可以判断出来实际上是数据包丢了而不是ACK没收到
如果发送端主机连续三次收到了同样一个 "1001" 这样的应答, 就会将对应的数
据 1001 - 2000 重新发送;
这个时候接收端收到了 1001 之后, 再次返回的 ACK 就是 7001 了(因为 2001 -
7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;
这种机制被称为 "高速重发控制"(也叫 "快重传")
流量控制
接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这
个时候如果发送端继续发送, 就会造成丢包, 继而引起丢包重传等等一系列连锁反应
因此 TCP 支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量
控制(Flow Control);
1.接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通
过 ACK 端通知发送端;
2.窗口大小字段越大, 说明网络的吞吐量越高;
3.接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通
知给发送端;
4.发送端接受到这个窗口之后, 就会减慢自己的发送速度
5.如果接收端缓冲区满了, 就会将窗口置为 0; 这时发送方不再发送数据, 但是需
要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端
当然了,我们前面看到窗口字段为16位,这意味着窗口最大位65535,其实不然
40字节首部长度里面还包含一个窗口扩大因子M,窗口实际大小为窗口字段左移M
拥塞控制
由于不知道网络情况,所以TCP引入“慢启动”机制
也就是先发少量数据探路来获取网络的实际情况
此处引入一个概念称为拥塞窗口。
发送开始的时候, 定义拥塞窗口大小为 1;
每次收到一个 ACK 应答, 拥塞窗口加 1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较
小的值作为实际发送的窗口;
从图中我们可以看到,所谓的“慢启动”是开始时慢,实际上增长速度很快。
为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍
此处引入一个叫做慢启动的阈值
当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增
长
当 TCP 开始启动的时候, 慢启动阈值等于窗口最大值在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回 1;少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;当 TCP 通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;拥塞控制, 归根结底是 TCP 协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案。
延迟应答
如果接收数据的主机立刻返回 ACK 应答, 这时候返回的窗口可能比较小
假设接收端缓冲区为 1M. 一次收到了 500K 的数据; 如果立刻应答, 返回的窗口
就是 500K;
但实际上可能处理端处理的速度很快, 10ms 之内就把 500K 数据从缓冲区消费
掉了
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也
能处理过来
如果接收端稍微等一会再应答, 比如等待 200ms 再应答, 那么这个时候返回的
窗口大小就是 1M
一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络
不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么? 肯定也不是;
1.数量限制: 每隔 N 个包就应答一次。
2.时间限制: 超过最大延迟时间就应答一次。
具体的数量和超时时间, 依操作系统不同也有差异; 一般 N 取 2, 超时时间取 200ms;
捎带应答
在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 "一发一收"
的. 意味着客户端给服务器说了 "How are you", 服务器也会给客户端回一个 "Fine,
thank you";
那么这个时候 ACK 就可以搭顺风车, 和服务器回应的 "Fine, thank you" 一起回给客户
端
面向字节流
我们受过UDP是面向数据包,是一次性发送,而TCP是面向字节流,这意味着一份数据可以分多次发送。
创建一个 TCP 的 socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区
1.调用 write 时, 数据会先写入发送缓冲区中
2.如果发送的字节数太长, 会被拆分成多个 TCP 的数据包发出
3.如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去
4.接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区
5.然后应用程序可以调用 read 从接收缓冲区拿数据
6.另一方面, TCP 的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工
粘包问题
1.首先要明确, 粘包问题中的 "包" , 是指的应用层的数据包
2.在 TCP 的协议头中, 没有如同 UDP 一样的 "报文长度" 这样的字段, 但是有一个序号这样的字段
3.站在传输层的角度, TCP 是一个一个报文过来的. 按照序号排好序放在缓冲区中
4.站在应用层的角度, 看到的只是一串连续的字节数据
5.那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包
那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界
1.对于定长的包,保证每次都按固定大小读取即可
2.对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置
3.对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿
自己来定的, 只要保证分隔符不和正文冲突即可);
对于 UDP 协议来说, 是否也存在 "粘包问题" 呢?
对于 UDP, 如果还没有上层交付数据, UDP 的报文长度仍然在. 同时, UDP 是一
个一个把数据交付给应用层. 就有很明确的数据边界
站在应用层的站在应用层的角度, 使用 UDP 的时候, 要么收到完整的 UDP 报
文, 要么不收. 不会出现"半个"的情况
TCP/UDP 对比
TCP侧重可靠性,例如文件传输。
UDP侧重高速传输,如视频传输。
具体用哪个还要根据具体情况分析