传输层中的“端口号”和UDP、TCP协议

传输层

传输层负责数据能够从发送端传输到接收端。

端口号

端口号是传输层协议的内容。

  • 端口号是一个2字节16位的整数;
  • 端口号用来标识网络进程,告诉操作系统,当前的这个数据要交给哪一个进程来处理;
  • IP地址+端口号能够标识网络上的某一台主机的某一个进程;
  • 一个端口号只能被一个进程占用

总结一下:

端口号用来标识主机上唯一一个网络进程,公网IP标识互联网上唯一的主机。端口号+IP地址可以标识互联网上唯一一个网络进程。

一台主机与另一台主机通信是进程间通信的另一种方式。

之前学习系统编程的时候,学习了pid表示唯一的一个进程,此处我们的端口号也唯一表示一个进程,它们的关系是:一个进程可以绑定多个端口号,但是一个端口号不能被多个进程绑定。

源端口号和目的端口号:

传输层协议(TCP和UDP)的数据段中有两个端口号,分别叫做源端口号和目的端口号。描述的是“数据是谁发的,要发给谁”。

端口号范围划分:

  • 0-1023:知名端口号,HTTP,FTP,SSH等这些广为流传的应用层协议,它们的端口号都是固定的。
  • 1024-65535:操作系统动态分配的端口号。客户端程序的端口号就是由操作系统从这个范围分配的。

有些非常常用的服务器的端口号为:

  • ssh服务器,使用22端口
  • ftp服务器,使用21端口
  • telnet服务器,使用23端口
  • http服务器,使用80端口
  • https服务器,使用443端口

执行一下命令,可以查看知名端口号

cat  /etc/services

netstat

netstat是一个用来查看网络状态的重要工具。

常见选项:

  • n 拒绝显示别名,能显示数字的全部转化成数字
  • l 仅列出有在Listen(监听)的服务状态
  • p 显示建立相关连接的程序名
  • t 仅显示TCP相关选项
  • u 仅显示UDP相关选项
  • a 显示所有选项,默认不显示LISTEN相关

pidof

在查看服务器的进程id时非常方便。用pidof [进程名],通过进程名,查看进程id

UDP协议(用户数据报协议)

UDP协议端格式

  • 16位UDP长度,表示整个数据报(UDP首部+UDP数据)的最大长度
  • 16位UDP检验和,如果校验和出错,就会直接丢弃

UDP的特点

UDP传输的过程类似于寄信

  • 无连接:知道对端的IP和端口号就直接进行传输,不需要建立连接;
  • 不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息;
  • 面向数据报: 不能够灵活的控制读写数据的次数和数量。

面向数据报

应用层交给UDP多长的报文,UDP会原样发送,既不会拆分,也不会合并。例如:如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个 字节; 而不能循环调用10次recvfrom, 每次接收10个字节。

UDP的缓冲区

  • UDP没有真正意义上的发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作。
  • UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃。

由于UDP首部中有一个16位的最大长度,也就是说一个UDP能传输的数据最大值是64K,然而64K对于当今的互联网网络而言太小了,所以就需要在应用层手动的分包,多次发送,并在接收端手动拼装。

基于UDP的应用层协议

  • NFS: 网络文件系统
  • TFTP: 简单文件传输协议
  • DHCP: 动态主机配置协议
  • BOOTP: 启动协议(用于无盘设备启动)
  • DNS: 域名解析协议 

此外,还有自己写UDP程序时自定义的应用层协议。

TCP协议(传输控制协议)

16位源端口号和16位目的端口号:表示数据从哪个进程来,到哪个进程去。32

32位序号:保证数据按序到达接收端。

32位确认序号:保证确认。

补充一句:怎么知道发出的数据对方收到了?在规定的时间内发送方收到了接收方的应答。

4位首部长度:表示该TCP头部有32位bit(4个字节),所以,TCP头部最大长度是15*4=60

TCP是面向字节流的,所以不需要知道数据的大小。

6位标志位:

  • URG: 紧急指针是否有效,有效时置为1
  • ACK: 确认号是否有效 ,有效时置为1
  • PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走 (外带数据)
  • RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
  • SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
  • FIN: 通知对方, 本端要关闭了, 我们称携带FIN标识的为结束报文段

16位窗口大小:代表接收端缓冲区剩余空间的大小(对方的接受能力,三次握手期间“协商”了对方能够接收的空间大小),其中流量控制是为了保证可靠性(为了解决数据来不及接收的问题)

TCP既有发送缓冲区,又有接收缓冲区,我们读数据是在接收缓冲区。

16位校验和: 发送端填充, CRC校验. 接收端校验不通过, 则认为数据有问题. 此处的检验和不光包含TCP首部, 也 包含TCP数据部分。

16位紧急指针:通常指偏移量。标识哪部分数据是紧急数据。

(一)确认应答(ACK)机制

TCP将每个字节的数据都进行了编号,即为序列号,然后将数据按序号放置。

每个ACK都带有对应的确认序号,意思是告诉发送方,接收方已经收到了哪些数据,下一次发送方要从哪里开始发。

(二)超时重传机制

  • 主机A发,送数据给主机B之后,可能因为网络拥堵等原因,数据无法到达主机B 。如果主机A在一个特定时间间隔内没有收到B发来的确认应答,就会进行重发。
  • 但是,主机A未收到主机B发来的确认应答,也可能是因为ACK丢失了。
  • 因为主机B会收到很多重复数据,那么TCP协议需要能识别出哪些包是重复的包,并且把重复的包丢弃掉。这时候用前面提到的序列号,就可以很容易做到去重的效果。

确定超时的时间

  • 理想的情况下, 找到一个小的时间, 保证 "确认应答一定能在这个时间内返回".
  • 但是这个时间的长短, 随着网络环境的不同, 是有差异的.
  • 如果超时时间设的太长, 会影响整体的重传效率;
  • 如果超时时间设的太短, 有可能会频繁发送重复的包; 

TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个大超时时间.

  • Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时 时间都是500ms的整数倍.
  • 如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传. 如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
  • 累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接。

(三)连接管理机制

正常情况下,TCP要经过三次握手建立连接和四次挥手断开连接

注:两个wait是为了保证最后一个确认被收到.

服务器状态转化:

  • [CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接;
  • [LISTEN -> SYN_RCVD] 一旦监听到连接请求(同步报文段), 就将该连接放入内核等待队列中, 并向客户端 发送SYN确认报文. 
  • [SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行 读写数据了.
  • [ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器 返回确认报文段并进入CLOSE_WAIT;
  • [CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当 服务器真正调用close关闭连接时, 会向客户端发送FIN, 此时服务器进入LAST_ACK状态, 等待后一个 ACK到来(这个ACK是客户端确认收到了FIN)
  • [LAST_ACK -> CLOSED] 服务器收到了对FIN的ACK, 彻底关闭连接

客户端状态转化:

  • [CLOSED -> SYN_SENT] 客户端调用connect, 发送同步报文段;
  • [SYN_SENT -> ESTABLISHED] connect调用成功, 则进入ESTABLISHED状态, 开始读写数据;
  • [ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入 FIN_WAIT_1;
  • [FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服 务器的结束报文段;
  • [FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK;
  • [TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文大生存时间)的时间, 才会 进入CLOSED状态. 

(四)理解TIME_WAIT状态

如果先启动server,然后启动client,然后用Ctrl-C使server终止,接着运行server,结果是:

bind error:Address already in use

这是因为虽然server的应用程序终止了,但TCP协议层的连接并没有完全断开,因此不能再次监听同样的server端口.

  • TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL(maximum segment lifetime) 的时间后才能回到CLOSED状态.
  • 我们使用Ctrl-C终止了server, 所以server是主动关闭连接的一方, 在TIME_WAIT期间仍然不能再次监听 同样的server端口;
  • MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s; 可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看msl的值.

为什么是TIME_WAIT的时间是2MSL?

  • MSL是TCP报文的大生存时间, 因此TIME_WAIT持续存在2MSL的话 就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到 来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);
  • 同时也是在理论上保证后一个报文可靠到达(假设后一个ACK丢失, 那么服务器会再重发一个FIN. 这 时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK); 

解决TIME_WAIT状态引起的bind失败的方法

在server的TCP连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的:

  • 服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是每秒都有很大数量的客户 端来请求).
  • 这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产 生大量TIME_WAIT连接.
  • 由于我们的请求量很大, 就可能导致TIME_WAIT的连接数很多, 每个连接都会占用一个通信五元组(源ip, 源端口, 目的ip, 目的端口, 协议). 其中服务器的ip和端口和协议是固定的. 如果新来的客户端连接的ip和 端口号和TIME_WAIT占用的链接重复了, 就会出现问题. 
  • 使用setsockopt()设置socket描述符的选项SO_REUSEADDR为1, 表示允许创建端口号相同但IP地址不同的多个 socket描述符

(五)理解CLOS_WAIT状态

当我们运行服务器,启动客户端连接,查看TCP状态,发现客户端服务器都是ESTABLISHED状态.如图:

在root用户下用指令:

然后我们关闭客户端程序:

此时服务器进入CLOSE_WAIT状态,结合前面的四次挥手流程图,此处四次挥手没有正确完成.

总结:对于服务器上出现大量的CLOSE_WAIT状态,原因就是服务器没有正确的关闭socket,导致四次挥手没有正确完成.这个BUG只需要加上对应的close即可解决.

(六)滑动窗口

前面我们讨论了TCP的确认应答机制,对每个发送的数据段,都要给一个ACK确认应答,收到ACK后再发送下一个数据段.这样的做法有一个比较大的缺点就是性能差,尤其是数据往返的时间较长的时候.

既然这样一发一收的方式性能较低,所以我们一次发送多条数据,就可以大大提高性能(其实就是将多个段的等待时间重叠在一起了)

  • 窗口(滑动窗口)大小指的是无需等待确认应答而可以继续发送数据的最大值.(滑动窗口在发送缓冲区中,滑动窗口的大小由对方的接收能力决定)
  • 发送多个段的时候,不需要等待任何ACK,直接发送
  • 收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据,依次类推;
  • 操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有认应答过的数据, 才能从缓冲区删掉;
  • 窗口越大, 则网络的吞吐率就越高;

滑动窗口可缩小扩大,最小缩为0.

如果出现了丢包,如何进行重传,这里有两种情况.

情况一:数据包已经到达,ACK被丢了.

这种情况下,部分AC丢了可以通过后续的ACK进行确认.

情况二:数据包就直接丢了.

  • 当某一段报文丢失之后,发送端会一直收到此报文前一个报文的ACK,比如丢失的报文为1001~2000,那么接收端一直收到1001的ACK,提醒发送端"我想要的是1001".
  • 如果发送端主机连续三次收到了同样一个 "1001" 这样的应答, 就会将对应的数据 1001 - 2000 重新发送; 
  • 这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中.

这种机制被称为"高速重发控制"(也叫"快重传").快重传不会等到超时重传,超时重传是重传的底线,而快重传可以提高重传速度.

(七)流量控制

接收端处理数据的速度是有限的,如果发送端发的太快,导致接收端的缓冲区被打满,这个时候如果发送端继续发送,就会造成丢包,继而引起丢包重传等一系列连锁反应.

因此,TCP支持根据接收端的处理能力来决定发送端的发送速度,这个机制叫做流量控制(自己的接收缓冲区大小)

  • 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通过ACK端通知发送端; 窗口大小字段越大, 说明网络的吞吐量越高;
  • 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
  • 发送端接受到这个窗口之后, 就会减慢自己的发送速度;
  • 如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端.

接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息; 那么问题来了, 16位数字大小表示65535, 那么TCP窗口大就是65535字节么? 实际上, TCP首部4n(n表示整数)字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是窗口字段的值左移 M 位.

(八)拥塞控制

虽然TCP有了滑动窗口,能够高效可靠的发送大量的数据,但是如果在刚开始就发送大量的数据,仍然会引发问题.

因为网络上有很多的计算机,可能当前的网络状态已经比较拥堵,在不清楚当前网络状态下,贸然发送大量的数据,会造成网络状态更加拥堵.

TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据; 

此处引入一个概念程为拥塞窗口 发送开始的时候, 定义拥塞窗口大小为1; 每次收到一个ACK应答, 拥塞窗口加1; 每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;

像上面这样的拥塞窗口增长速度, 是指数级别的. "慢启动" 只是指初使时慢, 但是增长速度非常快

  • 为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
  • 此处引入一个叫做慢启动的阈值 .
  • 当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长 
  • 当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
  • 在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1

少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞; 当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降; 拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.

(九)延迟应答

如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小

  • 假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
  • 但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
  • 在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
  • 如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M

窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率.

shi但并不是所有的包都可以延迟应答,有数量限制和时间限制

  • 数量限制: 每隔N个包就应答一次;
  • 时间限制: 超过大延迟时间就应答一次

具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms; 

(十)捎带应答

在延迟应答的基础上,我们发现,很多情况下,客户端服务器在应用层也是"一发一收"的,意味着客户端给服务器说"你吃饭了吗?",服务器也给客户端回一个"我吃了,今天的饭菜很好吃".后面的"今天的饭菜很好吃"就可以搭顺风车和ACK一起回给客户端.

(十一)面向字节流

创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;

  • 调用write时, 数据会先写入发送缓冲区中;
  • 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出; 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
  • 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区; 然后应用程序可以调用read从接收缓冲区拿数据;
  • 另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可 以写数据. 这个概念叫做 全双工

由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:

  • 写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
  • 读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次 read一个字节, 重复100次; 

(十二)粘包问题

  • 首先要明确, 粘包问题中的 "包" , 是指的应用层的数据包.
  • 在TCP的协议头中, 没有如同UDP一样的 "报文长度" 这样的字段, 但是有一个序号这样的字段.
  • 站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
  • 站在应用层的角度, 看到的只是一串连续的字节数据. 那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.

如何避免粘包问题,归根结底就是:明确两个包之间的边界.

  • 对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲 区从头开始按sizeof(Request)依次读取即可;
  • 对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
  • 对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔 符不和正文冲突即可)

但对于UDP来说,不存在"粘包问题".因为:

  • 对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.
  • 站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况.

(十三)TCP异常情况

进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN. 和正常关闭没有什么区别.
机器重启: 和进程终止的情况相同. 机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即使没有写入操作, TCP自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放. 另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ 断线之后, 也会定期尝试重新连接. 

(十四)TCP总结

TCP之所以这么复杂,是因为要保证可靠性,同时又尽可能提高性能

可靠性:

  • 校验和
  • 序列号(按序到达)
  • 确认应答
  • 超时重发
  • 连接管理
  • 流量控制
  • 拥塞控制

提高性能:

  • 滑动窗口
  • 快速重传
  • 延迟应答
  • 捎带应答

(十五)TCP和UDP对比

我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单绝对的进行比较.

  • TCP用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景;
  • UDP用于对高速传输和实时性要求较高的通信领域, 例如, 早期的QQ, 视频传输等. 另外UDP可以用于广播;

归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定. 

发布了119 篇原创文章 · 获赞 17 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/tangya3158613488/article/details/96427426
今日推荐