深入理解计算机系统_第零部分_第一章_计算机系统漫游

深入,并且广泛
				-沉默犀牛

写在前面

今天是2018/12/14,还有一周我的实习期就结束了,发现自己的基础特别薄弱,选了几本提升基础的书籍,《深入理解计算机系统》是我将要看的第一本书,特别开这个系列文章,记录所学所得所想,也用作检验自己学习进度的指标之一。
PS:大部分是摘抄书中原话,[]方括号中的内容是自己所想所得。

文章导读

这一章漫游式的介绍了计算机系统。

  1. 信息就是位+上下文
  2. 程序被其他程序翻译成不同的格式:介绍了源程序经过哪些步骤成为可执行目标程序
  3. 了解编译系统如何工作是大有益处的
  4. 处理器读并解释存储在内存中的指令
    4.1 系统的硬件组成:介绍了总线、I/O设备、主存、处理器的概念和它们的联系
    4.2 运行hello程序:介绍了hello程序运行的时候在机器里面发生了什么
  5. 高速缓存至关重要:介绍了高速缓存是什么以及它的重要性
  6. 存储设备形成层级结构:按照从存储设备中的读取速度划分了层次结构
  7. 操作系统管理硬件:介绍了操作系统的基本功能和三个抽象表示
    7.1 进程:介绍了进程的概念和进程切换时机器做了什么
    7.2 线程:介绍了线程的概念
    7.3 虚拟内存:介绍了虚拟内存的概念和其中各个区的功能
    7.4 文件:介绍了文件的概念
  8. 系统之间利用网络通信:介绍了各个系统如何通过网络联系起来
  9. 重要主题:介绍了系统是硬件软件交织的集合体
    9.1 Amdahl定律:介绍了这一提高计算机整体性能的定律
    9.2 并发和并行:介绍了并发和并行概念和三种并行方式
    9.3 计算机系统中抽象的重要性
  10. 小结

计算机系统漫游

所有的计算机都有相似的硬件和软件结构,它们又执行着相似的功能。这本书就是为了那些希望深入了解这些组件如何工作以及这些组件是如何影响程序的正确性和性能的程序员而写的。

以下将以一个hello程序的生命周期来开始对系统的学习——从它被程序员创建开始,到在系统上运行,输出简单的消息,然后终止。我们将沿着这个生命周期,简要的介绍一些逐步出现的关键概念,专业术语和组成部分。

#include <stdio.h>
int main()
{
	printf("hello,world \n");
	return 0;
}

[以前从未考虑过类似于此的问题,大学时只是简单的编译一下看到输出结果就很开心了,现在来了解一下它的生命周期。]

1.1 信息就是位+上下文

hello程序的生命周期是从一个源程序(或者说源文件)开始的,即程序员通过编辑器创建并保存的文本文件,文件名是hello.c。源程序实际上就是一个由值0和1组成的位(又称为比特)序列,8个位被组织成一组,成为字节。每个字节表示程序中的某些文本字符。

所以hello程序是以字节序列的方式存储的文件中的。每个字节都有一个整数值,对应于某些字符。例如第一个字节的整数值为35,它对应的字符是"#",第二个字节的整数值为105,它对应的字符是"i"。像hello.c这样只由ASCII字符构成的文本称为文本文件,其他所有的文件都称为二进制文件

  • hello.c的表示方法说明了一个基本思想:系统中的所有信息——包括磁盘文件、内存中的程序、内存中存放的用户数据以及网络上传输的数据,都是有一串比特表示的。区分不同数据对象的唯一方法是我们读到这些数据对象时的上下文。比如,在不同的上下文中,一个同样的字节序列可能表示为一个整数,浮点数,字符串或者机器指令。

[看这些内容的时候,想到了一个生活中类比的事情(也与我最近在看哲学书籍有关):假设有外在存在的世界(位),这个世界在不同的人眼中看,反射出来的就是不一样的(这里暂不讨论阳明心学中的吾心光明,只讨论西方哲学思想),如果我相信世界是消极的,是无序的,是黑暗的(上下文),那么世界在我这里反射出来的就是消极的,无序的,黑暗的(信息),如果我相信世界是积极的,是有序的,是光明的(上下文),那么世界在我这里反射出来的就是积极的(信息)。]

1.2 程序被其他程序翻译成不同的格式

hello程序的生命周期是从一个高级C语言程序开始的(因为这种形式能够被人读懂)。然而,为了在系统上运行hello.c程序,每条C语句都必须被其他程序转化为一系列的低级机器语言指令。然后这些执行按照一种称为可执行目标程序的格式打好包,并且以二进制磁盘文件的形式存放起来,目标程序也称为可执行目标文件

GCC编译器驱动程序读取源文件hello.c,并把它翻译成一个可执行目标文件hello。翻译过程如下图:

在这里插入图片描述

  • 预处理阶段:预处理器(cpp)根据以字符#开头!的命令,修改原始的C程序。比如hello.c中的第一行 #include <stdio.h> 命令告诉预处理器读取系统头文件stdio.h的内容,并把它直接插入程序文本中。结果得到了另一个C程序,通常以.i作为文件扩展名。
  • 编译阶段:编译器(ccl)将文本文件hello.i翻译成文本文件hello.s,它包含一个汇编语言程序
  • 汇编阶段:汇编器(as)将hello.s翻译成机器指令语言,把这些指令打包为一种叫做可重定位目标程序(relocatable object program)的格式,并将结果保存在目标文件hello.o中。
  • 链接阶段:hello程序调用的printf函数,printf函数存在一个名为printf.o的单独的预编译好了的目标文件中,而这个文件必须以某种方式合并到我们的hello.o程序中。链接器(ld)就负责处理这种合并。结果就得到了hello文件,它是一个可执行目标文件(或可执行文件),可以被加载到内存中,由系统执行。

1.3 了解编译系统如何工作是大有益处的

有一些重要的原因促使程序员必须知道编译系统是如何工作的:

  • 优化程序性能。比如,一个switch语句是否总是比一些列的if-else语句高效得多?一个函数调用的开销有多大?while循环比for循环更有效吗?指针引用比数据索引更有效吗?为什么循环求和的结果放到一个本地变量中,会比将其放到一个通过引用传递过来的参数中,运行起来快很多呢?为什么只是简单地重新排列一下算术表达式中括号就能让函数运行的更快呢?
  • 理解链接事出现的错误。比如,链接器报告说它无法解析一个引用,这是什么意思?静态变量和全局变量的区别是什么?如果你在不同的C文件中定义了名字相同的两个全局变量会发生什么?静态库和动态库的区别是什么?我们在命令行上排列库的顺序有什么影响?最严重的是,为什么有些链接错误直到运行时才会出现?
  • 避免安全漏洞。缓冲区溢出错误是造成大多数网络和Internet服务器上安全漏洞的主要原因。存在这些错误的因为很少有程序员能够理解需要限制从不受信任的源接受数据的数量和格式。

1.4 处理器读出并解释存储在内存中的指令

此刻,hello.c源程序已经被编译系统翻译成了可执行目标文件hello,并被存放在磁盘中。想要在Unix系统上运行该可执行文件,我们将它的文件名输入到称为shell的应用程序中即可。

shell是一个命令行解释器,它输出一个提示符,等待输入一个命令行,然后执行这个命令。如果该命令行的第一个单词不是一个内置的shell命令,那么shell就会假设这是一个可执行文件的名字,它将加载并运行这个文件。

1.4.1 系统的硬件组成

这张图是Intel系统产品族的模型,但是所有其他系统也有相同的外观和特性。
在这里插入图片描述

  1. 总线。贯穿整个系统的一组电子管道,称为总线,它携带信息字节并负责在各个部件间传递。通常总线被设计成传送定长的字节快,也就是字(Word)。字中的字节数(即字长)是一个基本的系统参数,各个系统中都不尽相同。现在大多数机器字长要么是4个字节(32位),要么是8个字节(64位)。

  2. I/O设备。I/O设备是系统与外部世界的联系通道。上图中的示例系统包括四个I/O设备:作为用户输入的键盘和鼠标,作为用户输出的显示器,用于长期存储数据和程序的磁盘驱动器(简单的说就是磁盘)。最开始,可执行程序hello就存放在磁盘上。
    每个I/O设备都通过一个控制器或者适配器与I/O总线相连。控制器是I/O设备本身或者系统的主印制电路板(通常称为主板)上的芯片组,适配器则是一块插在主板插槽上的卡。它们的功能都是在I/O总线和I/O设备之间传递信息。

  3. 主存。主存是一个临时存储设备,在处理器执行程序时,用来存放程序和程序处理的数据。从物理上来说,主存是由一组动态随机存取存储器(DRAM)芯片组成的。从逻辑上来说,存储器是一个线性的字节数组,每个字节都有其唯一的地址(数据索引),这些地址是从零开始的。一般来说,组成程序的每条机器指令都由不同数量的字节构成。与C程序变量相对应的数据项的大小是根据类型变化的。比如,在运行Linux的x86-64机器上,short类型的数据需要2个字节,int 和 float 类型需要4个字节,而long 和 double 类型需要8个字节。

  4. 处理器。中央处理单元(CPU),简称树立起,是解释(或执行)存储在主存中指令的引擎。处理器的核心是一个大小为一个字的存储设备(或寄存器),成为程序计数器(PC)。在任何时候,PC都指向主存中的某条机器语言指令(即含有该条指令的地址)
    从系统通电,到系统断电,处理器一直在不断地执行PC指向的指令,再更新程序计数器,使其指向下一条指令。处理器看上去是按照一个非常简单的指令执行模型来操作的,这个模型由指令集架构决定。在这个模型中,指令按照严格的顺序执行,而执行一条指令包含执行一系列的步骤。处理器从PC指向的内存处读取指令,解释指令中的位,执行该指令指示的简单操作,然后更新PC,使其指向下一条指令(这条指令不一定与刚刚执行的指令相邻)。
    这样简单的操作并不多,它们围绕着主存寄存器文件(register file)算数/逻辑单元(ALU)进行。寄存器文件是一个小的存储设备,由一些单个字长的寄存器组成,每个寄存器都有唯一的名字。ALU计算新的数据和地址值。CPU在指令的要求下可能会执行这些操作。

    4.1 加载:从主存复制一个字节或者一个字到寄存器,以覆盖寄存器原来的内容。
    4.2 存储:从寄存器复制一个字节或者一个字到主存的某个位置,以覆盖这个位置上原来的内容。
    4.3 操作:把两个寄存器的内容复制到ALUALU对这两个字做算术运算,并将结果存放到一个寄存器中,以覆盖该寄存器中原来的内容。
    4.4 跳转:从指令本身中抽取一个字,并将这个字复制到PC中,以覆盖PC中原来的值。
    PS:我们需要将处理器的指令集架构和处理器的微体系结构区分开来:指令集架构描述的是每条机器指令的效果;微体系结构描述的是处理器实际上是如何实现的。

[这些内容对我来说都只是单纯的输入,有一些与之前学的微机对应了起来,PC,寄存器文件,ALU等,对整个系统硬件有了一个总体认知]

1.4.2 运行hello程序

现在介绍当我们运行示例程序时到底发生了些什么,这里先做整体上的描述,省略很多细节,之后再补充。

  1. 初始时,shell程序执行它的指令,等待我们输入一个命令。当我们在键盘上输入字符串“./hello”后,shell程序将字符逐一读入寄存器,再把它们放到内存([内存就是图中的主存])中,如下图:在这里插入图片描述
  2. 当我们在键盘上敲回车时,shell程序就知道我们已经结束了命令的输入。然后shell执行一系列指令来加载可执行的 hello 文件,这些指令将hello目标文件中的代码和数据从磁盘复制到主存。数据包括最终会被输出的字符串“hello,world \n”。
    在这里插入图片描述
  3. 一旦目标文件 hello中的代码和数据被加载到主存,处理器就开始执行hello程序的main程序中的机器语言指令。这些指令将“hello,world \n”字符串中的字节从主存复制到寄存器文件,再从寄存器文件中复制到显示设备,最终显示在屏幕上。
    在这里插入图片描述

[通过这三幅图我才理解一个程序的执行都经历了什么,再简要概括一下:1.在shell输入指令的时候,这些指令从键盘走到CPU中的寄存器,再到主存中;2.敲入回车之后,就把程序目标文件中的代码和数据从磁盘(硬盘)复制到主存(内存);3.代码和数据被复制到主存后,CPU就执行程序的机器语言指令,这些指令会从主存复制到寄存器,如果有输出,再从寄存器中复制到显示设备,最终显示在屏幕上。]

高速缓存至关重要

这个简单示例揭示了一个重要问题:系统花费了大量的时间把信息从一个地方挪到另一个地方。hello程序的机器指令最初是存放在磁盘上,程序加载时把机器指令复制到主存;当处理器运行程序时,指令从主存复制到处理器(准确的说是处理器中的寄存器)。这种复制就是开销,减慢了程序“真正”的工作。因此,系统设计者的一个主要目标就是使这些复制操作尽可能快地完成。

比如说:一个典型系统上的磁盘可能比主存大1000倍,但是对处理器而言,从磁盘驱动器上读取一个字的时间开销要比从主存中读取的开销大1000万倍!处理器从寄存器文件中读取数据比从主存中读取又几乎快了100倍。而且随着半导体技术的进步,这种处理器与主存之间的差距还在持续增大。加快处理器的运行速度比加快主存的运行速度要容易和便宜的多。

针对这种处理器与主存之间的差异,系统设计者采用了更小更快的存储设备,称为高速缓存存储器(cache memory,简称为cache或高速缓存),作为暂时的集结区域,存放处理器近期可能会需要的信息。下图展示了典型系统中的cache
在这里插入图片描述

位于CPU芯片上的L1 cache的容量可以达到数万字节,访问速度几乎和访问寄存器文件一样快。一个容量为数十万到数百万字节的更大的L2 cache通过一条特殊的总线连接到CPU,进程访问L2 cache的时间要比访问L1 cache的时间长5倍,但是这仍然比访问主存的时间快5~10倍。

L1 和 L2 cache是用一种叫做静态随机访问存储器(SRAM)的硬件计数实现的。更强大的系统甚至有3级cache:L1 和 L2 和 L3。使得系统获得了一个很大的存储区,同时访问速度也很快,原因是利用了cache的局部性原理(即程序具有访问局部区域里数据和代码的趋势)。通过让cache里存放可能经常访问的数据,大部分的内存操作都能在高速cache中完成。

  • 本书得出的重要结论之一就是,意识到cache存在的程序员能够利用cache将程序的性能提高一个数量级。

1.6 存储设备形成层次结构

在处理器和一个较大较慢的设备(例如主存)之间插入一个更小更快的存储设备(例如cache)的想法已经成为一个普遍的观念。实际上,每一个计算机系统中的存储设备都被组织成了一个存储器层次结构,如下图。
在这里插入图片描述

在这个层次结构中,从上至下,设备的访问速度越来越慢、容量越来越大,并且每字节的造价也越来越便宜。寄存器文件在层级结构中位于最顶部,也就是第0级或记为L0,上述说过的L1、L2、L3占据了第1到3层,主存在第4层,以此类推。

正如可以运用不同的cache的知识来提高程序性能一样,程序员同样可以利用对整个存储器层次结构的理解来提高程序性能。

[这几节内容我理解了存储器层次结构,实在太希望快点学习,能利用这些知识来让我的程序更加高效了!另外我也在设想,是否可以利用cache的思想来改善一下我的生活,比如说努力提高自己的开发(空间)和任务交付(速度)的水平,让自己成为公司系统中的主存,进而成为cache,甚至是寄存器?!?!,哈哈哈哈哈 whatever~]

1.7 操作系统管理硬件

回到hello程序的例子。当shell加载和运行hello程序时,以及hello程序输出自己的消息时,shell和hello程序都没有直接访问键盘、显示器、磁盘或者主存。它们依靠的是操作系统提供的服务。我们可以把操作系统看成是应用程序和硬件之间插入的一层软件。所有的应用程序对硬件的操作尝试都必须通过操作系统。如下图
在这里插入图片描述

操作系统有两个基本功能:1.防止硬件被失控的应用程序滥用;2.向应用程序提供简单一致的机制来控制复杂而又通常大不相同的低级硬件设备。操作系统通过几个基本的抽象概念(进程、虚拟内存和文件)来实现这两个功能。如下图
在这里插入图片描述

文件是对I/O设备的抽象表示。
虚拟内存是对主存和磁盘I/O设备的抽象表示。
进程则是对处理器、主存和I/O设备的抽象表示。

1.71 进程

像hello这样的程序在现在系统上运行时,OS会提供一种假象,好像OS上只有这个程序在运行。程序看上去是独占地使用CPU、主存和I/O设备。CPU看上去就像在不间断地一条接一条地执行程序中的指令,即该程序的代码和数据是系统内存中唯一的对象。这些假象是通过进程的概念来实现的,进程是计算机科学中最重要和最成功的概念之一。

进程是OS对一个正在运行的程序的一种抽象。在一个OS上可以运行多个进程,而每个进程都好像在独占地使用硬件。而并发运行,则是说一个进程的指令和另一个进程的指令是交错执行的。在大多数系统中,需要运行的进程数量是多于可以运行它们的CPU的个数的。传统系统在一个时刻只能执行一个程序,而多核处理器可以同时执行多个程序[这个传统系统得多久远。。。]。无论是在单核还是多核系统中,一个CPU看上去都像是在并发地执行多个进程,这是通过CPU在进程间切换来实现的。OS实现这种交错执行的机制成为上下文切换。(为了简化讨论,以下先只讨论单处理器系统的情况)

OS保持跟踪进程运行所需的所有状态信息。这种状态,也就是上下文,包括许多信息,比如PC和寄存器文件的当前值,以及主存的内容。在任何时刻,单处理器系统都只能执行一个进程的代码。当OS决定要把控制权从当前进程转移到某个新进程时,就会进行上下文切换(即保存当前进程的上下文、恢复新进程的上下文,然后将控制权传递到新进程)。新进程就会从它上次停止的地方开始。

让我们看看示例hello进程运行场景的基本理念
在这里插入图片描述

示例场景中有两个并发的进程:shell进程 和 hello进程。最开始,只有shell进程在运行,即等待命令行上的输入。当我们让它运行hello程序时,shell通过调用一个专门的函数,即系统调用,来执行我们的请求,系统调用会将控制权传递给OS。OS保存shell进程的上下文,创建新的hello进程及其上下文。然后将控制权传给新的hello进程。hello进程终止后,OS恢复shell进程的上下文,并将控制权传回给它,shell进程会继续等待下一个命令行输入。

从一个进程到另一个进程的转换是由OS内核(kernel)管理的。内核是OS系统代码常驻主存的部分。当应用程序需要OS的某些操作时,比如读写文件,它就执行一条特殊的系统调用(System call)指令,将控制权传递给kernel。然后内核执行被请求的操作并返回应用程序(注意,kernel不是一个独立的进程。而是系统管理全部进程所用代码和数据结构的结合)。

1.7.2 线程

尽管通常我们认为一个进程只有单一的控制流,但是在现代系统中,一个进程实际上可以由多个称为线程的执行单元组成,每个线程都运行在进程的上下文中,并共享同样的代码和全局数据。由于网络服务器中对并行处理的需求,线程成为越来越重要的编程模型。当有多处理器可以用的时候,多线程也是一种使得程序可以运行得更快的方法。

1.7.3 虚拟内存

虚拟内存是一个抽象概念,它为每个进程提供了一个假象,即每个进程都在独占地使用主存。每个进程看到的内存都是一致的,称为虚拟地址空间。下图是Linux进程的虚拟地址空间。
在这里插入图片描述
在Linux中,地址空间最上面的区域是保留给OS中的代码和数据的,这对所有进程来说都是一样的。地址空间的底部区域存放用户进程定义的代码和数据。图中的地址是从下往上增大的。

每个进程看到的虚拟地址空间由大量准确定义的构成,每个都有专门的功能。简单的了解一下各个区:

  • 程序代码和数据。对所有的进程来说,代码是从同一固定地址开始,紧接着的是和C全局变量相对应的数据位置。代码和数据区是直接按照可执行目标文件的内容初始化的,在例子中就是可执行文件hello。
  • 堆。代码和数据区后紧随着的是运行时。代码和数据区在进程一开始时就被指定了大小,与此不同,当调用像malloc和free这样的C标准库函数时,堆可以在运行时动态地扩展和收缩。
  • 共享库。大约在地址空间的中间部分是一块用来存放像C标准库和数学库这样的共享库的代码和数据的区域。共享库的概念非常强大,也相当难懂
  • 栈。位于用户虚拟地址空间顶部的是用户栈,编译器用它来实现函数调用。和堆一样,用户栈在程序执行期间可以动态地扩展和收缩。特别的,每次我们调用一个函数时,栈就会增长;从一个函数返回时,栈就会收缩。
  • 内核虚拟内存。地址空间顶部的区域是为内核保留的。不允许应用程序读写这个区域的内容或者直接调用内核代码定义的函数。相反,它们必须调用内核来执行这些操作。

虚拟内存的运作需要硬件和操作系统软件之间精密复杂的交互,包括对处理器生成的每一个地址的硬件翻译。基本思想是把一个进程虚拟内存的内容存储在磁盘上,然后用主存作为磁盘的高速缓存。

[现在只是知道了虚拟内存的用途和每个区的用途,但是还是没有感受到它有什么好的,以后的学习中应该会体会到吧。]

1.7.4 文件

文件就是字节序列,仅此而已。每一个I/O设备,包括磁盘、键盘、显示器,甚至网络,都可以看成是文件。系统中的所有输入输出都是通过使用一组称为Unix I/O的系统函数调用读写文件来实现的。

文件这个简单而精致的概念是非常强大的,因为它向应用程序提供了一个统一的视图,来看待系统中可能含有的所有各式各样的I/O设备。例如,处理磁盘文件内容的应用程序员可以非常幸福,因为他们无须了解具体的磁盘计数。进一步说,同一个程序可以在使用不同磁盘技术的不同系统上运行。

[实习期间学习了TP和LCD的移植,在阅读它们的驱动的时候,就能体会到这里描述的概念,比如想让LCD显示一些东西,就在指定的缓存地址写入希望显示的东西,这不就是“把LCD看成了一个文件,我想要显示什么,我就在这个文件里写入什么”吗]

1.8 系统之间利用网络通信

系统漫游至此,我们一直是把系统视为一个孤立的硬件和软件的集合体。实际上,现代系统经常通过网络和其他系统连接到一起。从一个单独的系统来看,网络可以视为一个I/O设备,如下图。
在这里插入图片描述

当系统从主存复制一串字节到网络适配器时,数据流经过网络到达另一台机器,而不是比如说到达本地磁盘驱动器[这是说我发到网络上的信息,在本地是没有保存的意思吗?我可以理解成我在CSDN写这篇博客的文本时,我发布文章后,我本地确实没有这篇博客的文本吗?]。相似的,系统可以读取从其他机器发送来的数据,并把数据复制到自己的主存。

随着Internet这样的全球网络的出现,从一台主机复制信息到另外一台主机已经成为计算机系统中最重要的用途之一。比如email、FTP、Telnet这样的应用都是基于网络复制信息的功能。

再拿上面的hello例子,我们可以使用熟悉的Telnet应用在一个远程主机上运行hello程序[我一点也不熟悉…]。假设用本地主机上的Telnet客户端连接远程主机上的Telnet服务器。在我们登录到远程主机并运行shell后,远端的shell就在等待接收输入命令。此后在远端运行hello程序包括下图的五个步骤。

在这里插入图片描述

当我们在Telnet客户端键入“hello”字符串并敲下回车后,客户端软件就会将这个字符串发送到Telnet的服务器。Telnet服务器从网络上接收到这个字符串后,会把它传递给远端shell程序。接下来,远端shell运行hello程序,并将输出返回给Telnet服务器。最后,Telnet服务器通过网络把输出串转发给Telnet客户端,客户端就将输出串输出到我们的本地终端上。

这种客户端和服务器之间交互的类型在所有网络应用中是非常典型的。

[我们自己买境外服务器来搭建VPN应该是一个道理吧?在科学上网的时候信息传到服务器上,再转发给我们的设备。]

1.9 重要主题

在此有一个很重要的观点,那就是系统不仅仅只是硬件。系统是硬件和系统软件相互交织的集合体,它们必须共同协作以达到运行应用程序的最终目的。

1.9.1 Amdahl定律

该定律的主要思想是,当我们对系统的某个部分加速时,其对系统整体性能的影响取决于该部分的重要性和加速程度。
在这里插入图片描述
T old 是系统性能提升前执行某应用程序需要时间
α 系统某部分所执行时间与执行应用程序总时间比例
k 该部分性能提升比例
T new 系统性能提升后执行某应用程序需要的时间

由此可以计算加速比为:
在这里插入图片描述
举个例子,α = 60%,k = 3 则 S = 1.67,虽然我们对系统的一个部分做出了重大改进,但是获得的系统加速比却明显小于这部分的加速比。这就是Amdahl定律的重要观点——想要显著加速整个系统,必须提升全系统中相当大的部分的速度

[这个定律似乎可以用于任何由多方复杂因素共同影响的事情,比如大学生想提高GPA,我们想减肥等,因为经历过减肥的痛苦,所以感受颇深。减肥需要控制饮食、改变作息、改变日常习惯、增强锻炼等几个部分,妄图单单改变其中某一个部分来整体提升减肥加速比,简直是痴心妄想,哈哈哈不小心暴露了自己对于减肥这件事情的深恶痛绝。]

1.9.2 并发和并行

数字计算机的整个历史中,有两个需求是驱动进步的持续动力:一个是我们想要计算机做的更多,另一个是我们想要计算机运行的更快。
我们用的术语并发(concurrency)是一个通用的概念,指一个同时具有多个活动的系统
并行(parallelism)指的是用并发使一个系统运行得更快。并行可以在计算机系统的多个抽象层次上运用。

1.线程级并发。构建在进程这个抽象上,我们可以设计出同时有多个程序执行的系统,这就导致了并发。使用线程,我们甚至能够在一个进程中控制多个控制流。传统意义上,这种并发执行只是模拟出来的,是通过一台计算机在它正在执行的进程间快速切换来实现的。这种并发形式允许多个用户同时与系统交互,例如,在一个窗口中开启Web浏览器,在另一个窗口中运行字处理器,同时又播放音乐。在以前,即使处理器必须在多个任务间切换,大多数实际的计算也都是由一个处理器来完成的。这种配置成为单处理器系统

当构建一个由单操作系统内核控制的多处理器组成的系统时,我们就得到了一个多处理器系统。随着多核处理器超线程的出现,这种系统才变得常见。
在这里插入图片描述
多核处理器是将多个CPU(称为核)集成到一个集成电路芯片上。下图描述了典型的多核处理器的组织结构。

在这里插入图片描述

其中微处理器芯片有4个CPU核,每个核都有自己的L1和L2高速缓存,其中的L1高速缓存分为两个部分——一个保存最近取到的指令,另一个存放数据。这些核共享更高层次的高速缓存,以及到主存的接口。

超线程,有时称为同时多线程,是一项允许一个CPU执行多个控制流的计数。它设计CPU某些硬件有多个备份,必须程序计数器和寄存器文件,而其他的硬件部分只有一份,比如执行浮点算术运算的单元。常规的处理器需要大约20000个时钟周期做不同线程间的转换,而超线程的处理器可以在单个周期的基础上决定要执行哪一个线程。这使得CPU能够更好的利用它的处理资源。

比如,假设一个线程必须等到某些数据被装载到高速缓存中,那CPU就可以继续去执行另一个线程。举例来说,Intel Core i7处理器可以让每个核执行两个线程,所以一个4核的系统实际上可以并行地执行8个线程。

多处理器的使用可以从两方面提高系统性能。首先,它减少了在执行多个任务时模拟并发的需要。正如前面提到的,即使是只有一个用户使用的个人计算机也需要并发地执行多个活动。其次,它可以使应用程序运行得更快,当然,这必须要求程序是以多线程方式来书写的,这些线程可以并行地高效执行。

[我实在有一种愿望,就是找到一种应用程序的写法利用硬件开发线程级别并行性,不过这样的话似乎对于电脑的配置有了要求,不太符合分层思想,不过现在电脑都是多核处理器的吧。。。]

2.指令级并行,在较低的抽象层次上,现代处理器可以同时执行多条指令的属性成为指令级并行。早起的微处理器,比如Intel 8086,需要多个时钟周期来执行一条指令。最近的处理器可以保持每个时钟周期执行2~4条指令、其实每条指令从开始到结束需要长得多的时间,大约20个周期,但是处理器使用了非常多的聪明技巧来同时处理多达100条指令。之后会研究流水线的使用。在流水线中,将执行一条指令所需要的活动划分为不同的步骤,将处理器的硬件组织成一系列的阶段,每个阶段执行一个步骤。这些阶段可以并行地操作,来处理不同指令的不同部分。

如果处理器可以达到比一个周期一个指令更快的执行速率,就称之为超标量处理器。大多数现代处理器都支持超标量操作。

3 .单指令、多数据并行,在最低层次上,许多现代处理器拥有特殊的硬件,允许一条指令生产多个可以并行执行的操作,这种方式称为单指令、多数据,即SIMD并行。例如,比较新的Intel和AMD处理器都具有并行地对8对单精度浮点数(C数据类型float)做加法的指令。

提供这些SIMD指令多是为了提高处理影像、声音和视频数据应用的执行速度。虽然有些编译器会试图从C程序中自动抽取SIMD并行性,但是更可靠的方法是用编译器支持的特殊向量数据类型来写程序,比如GCC就支持向量数据类型。

[简要的理一下,并发是描述同时有多个活动的系统,是个通用概念,并行是指用并发来使一个系统运行得更快。并行分为线程级并行指令集并行单指令、多数据并行

线程级并行是较高抽象层次的概念,就是同时执行多个程序,在早先的单处理器只是通过快速切换程序间切换来模拟的,现在是由多核处理器超线程实现的,多核处理器就是多个CPU,每个CPU执行一个任务,超线程就是一个CPU可以执行多个任务,两种方法通常结合起来实现更多任务的并行。

指令级并行是在较低的抽象层次上,让处理器同时执行多条指令,比如同时执行复制和相加的指令。

单指令、多数据并行是最低层次上,通过处理器拥有的特殊硬件,让一条指令产生多个可以并行执行的操作,比如同时对好几对数据执行加法指令。]

1.9.3 计算机系统中抽象的重要性

抽象的使用是计算机科学中最为重要的概念之一。例如,为一组函数规定一个简单的API就是很好的编程习惯,程序员无须了解它内部的工作便可以使用这些代码。

我们已经介绍了计算机系统中使用的几个抽象。如下图
在这里插入图片描述

在处理器中,指令集架构提供了对实际处理器硬件的抽象。使用这个抽象,机器代码程序表现得就好像运行在一个一次只执行一条指令的处理器上。底层的硬件远比抽象描述的要复杂精细,它并行地执行多条指令,但又总是与那个简单有序的模型保持一致。只要执行模型一样,不同的处理器实现也能执行同样的机器代码,而又提供不同的开销和性能。

在学习操作系统时,我们介绍了三个抽象:文件是对I/O设备的抽象,虚拟内存是对程序存储器的抽象,而进程是对一个正在运行的程序的抽象。我们再增加一个新的抽象:虚拟机,它提供对整个计算机的抽象,包括操作系统、处理器和程序。因为一些计算机必须能够运行为不同的操作系统或同一操作系统的不同版本设计的程序,虚拟机才显示出其管理计算机方式上的优势。

1.10 小结

计算机系统是由硬件和系统软件组成的,它们共同协作以运行应用程序。计算机内部的信息被表示为一组组的位,它们依据上下文有不同的解释方式。程序被其他程序翻译成不同的形式,开始时是ASCII文本,然后被编译器和链接器翻译成二进制可执行文件。

处理器读取并解释存放在主存里的二进制指令。因为计算机花了大量的时间在主存、I/O设备和CPU寄存器之间复制数据,所以将系统中存储设备划分成层次结构——CPU寄存器在顶部,接着是多层的硬件高速缓存存储器,DRAM主存和磁盘存储器。在层次模型中位于更高层的存储设备比磁层的存储设备要更快,单位比特造价也更高。层次结构中较高层次的存储设备可以作为较低层次设备的高速缓存。通过理解和运用这种存储层次结构的知识,程序员可以优化C程序的性能。

操作系统内核是应用程序和硬件之间的媒介。它系统了三个基本抽象:1.文件是对I/O设备的抽象;2.虚拟内存是对主存和磁盘的抽象;3.进程是处理器、主存和I/O设备的抽象。

最后,网络提供了计算机系统之间通信的手段。从特出系统的角度来看,网络就是一种I/O设备。

[第一章-计算机系统漫游的内容就全部结束了,看完了这一章对计算机系统有了初步的了解。]

猜你喜欢

转载自blog.csdn.net/qq_35065875/article/details/85000835