一、并发编程之JMM详解

1、现代计算机理论模型与工作原理

现代计算机模型是基于-冯诺依曼计算机模型 计算机在运行时,先从内存中取出第一条指令,通过控制器的译码,按指令的要求,从存储器中取出数据进行指定的运算和逻辑操作等加工,然后再按地址把结果送到内存中去。接下 来,再取出第二条指令,在控制器的指挥下完成规定操作。依此进行下去。直至遇到停止指 令。
程序与数据一样存贮,按程序编排的顺序,一步一步地取出指令,自动地完成指令规定的 操作是计算机最基本的工作模型。这一原理最初是由美籍匈牙利数学家冯.诺依曼于1945年提 出来的,故称为冯.诺依曼计算机模型。

计算机五大核心组成部分:

  • 控制器(Control):是整个计算机的中枢神经,其功能是对程序规定的控制信息进行解 释,根据其要求进行控制,调度程序、数据、地址,协调计算机各部分工作及内存与外设的访 问等。

  • 运算器(Datapath):运算器的功能是对数据进行各种算术运算和逻辑运算,即对数据进 行加工处理。

  • 存储器(Memory):存储器的功能是存储程序、数据和各种信号、命令等信息,并在需 要时提供这些信息。

  • 输入(Input system):输入设备是计算机的重要组成部分,输入设备与输出设备合你为 外部设备,简称外设,输入设备的作用是将程序、原始数据、文字、字符、控制命令或现场采 集的数据等信息输入到计算机。常见的输入设备有键盘、鼠标器、光电输入机、磁带机、磁盘 机、光盘机等。

  • 输出(Output system):输出设备与输入设备同样是计算机的重要组成部分,它把外算 机的中间结果或最后结果、机内的各种数据符号及文字或各种控制信号等信息输出出来。微机 常用的输出设备有显示终端CRT、打印机、激光印字机、绘图仪及磁带、光盘机等

    下图-冯诺依曼计算机模型图
    在这里插入图片描述
    现代计算机硬件结构原理图:
    在这里插入图片描述
    CPU的内部结构划分:

  • 控制单元

  • 运算单元

  • 存储单元
    在这里插入图片描述
    1、控制单元
    控制单元是整个CPU的指挥控制中心,由指令寄存器IR(Instruction Register)、指令
    译码器ID(Instruction Decoder)和 操作控制器OC(Operation Controller) 等组成, 对协调整个电脑有序工作极为重要。它根据用户预先编好的程序,依次从存储器中取出各条指 令,放在指令寄存器IR中,通过指令译码(分析)确定应该进行什么操作,然后通过操作控制 器OC,按确定的时序,向相应的部件发出微操作控制信号。操作控制器OC中主要包括:节拍 脉冲发生器、控制矩阵、时钟脉冲发生器、复位电路和启停电路等控制逻辑。
    2、运算单元
    运算单元是运算器的核心。可以执行算术运算(包括加减乘数等基本运算及其附加运算) 和逻辑运算(包括移位、逻辑测试或两个值比较)。相对控制单元而言,运算器接受控制单元 的命令而进行动作,即运算单元所进行的全部操作都是由控制单元发出的控制信号来指挥的, 所以它是执行部件。
    3、存储单元
    存储单元包括 CPU 片内缓存Cache和寄存器组,是 CPU 中暂时存放数据的地方,里面 保存着那些等待处理的数据,或已经处理过的数据,CPU 访问寄存器所用的时间要比访问内 存的时间短。 寄存器是CPU内部的元件,寄存器拥有非常高的读写速度,所以在寄存器之间 的数据传送非常快。采用寄存器,可以减少 CPU 访问内存的次数,从而提高了 CPU 的工作 速度。寄存器组可分为专用寄存器和通用寄存器。专用寄存器的作用是固定的,分别寄存相应 的数据;而通用寄存器用途广泛并可由程序员规定其用途。
    计算机硬件多CPU架构:
    在这里插入图片描述
    多CPU
    一个现代计算机通常由两个或者多个CPU,如果要运行多个程序(进程)的话,假如只有 一个CPU的话,就意味着要经常进行进程上下文切换,因为单CPU即便是多核的,也只是多个 处理器核心,其他设备都是共用的,所以 多个进程就必然要经常进行进程上下文切换,这个代 价是很高的。
    CPU多核
    一个现代CPU除了处理器核心之外还包括寄存器、L1L2L3缓存这些存储设备、浮点运算 单元、整数运算单元等一些辅助运算设备以及内部总线等。一个多核的CPU也就是一个CPU上 有多个处理器核心,这样有什么好处呢?比如说现在我们要在一台计算机上跑一个多线程的程 序,因为是一个进程里的线程,所以需要一些共享一些存储变量,如果这台计算机都是单核单 线程CPU的话,就意味着这个程序的不同线程需要经常在CPU之间的外部总线上通信,同时还 要处理不同CPU之间不同缓存导致数据不一致的问题,所以在这种场景下多核单CPU的架构就 能发挥很大的优势,通信都在内部总线,共用同一个缓存。
    CPU寄存器
    每个CPU都包含一系列的寄存器,它们是CPU内内存的基础。CPU在寄存器上执行操作的 速度远大于在主存上执行的速度。这是因为CPU访问寄存器的速度远大于主存。
    CPU缓存
    即高速缓冲存储器,是位于CPU与主内存间的一种容量较小但速度很高的存储器。由于 CPU的速度远高于主内存,CPU直接从内存中存取数据要等待一定时间周期,Cache中保存着CPU刚用过或循环使用的一部分数据,当CPU再次使用该部分数据时可从Cache中直接调用, 减少CPU的等待时间,提高了系统的效率。
    一级Cache(L1 Cache) 二级Cache(L2 Cache) 三级Cache(L3 Cache)
    内存
    一个计算机还包含一个主存。所有的CPU都可以访问主存。主存通常比CPU中的缓存大得 多。
    CPU读取存储器数据过程
    CPU要取寄存器XX的值,只需要一步:直接读取。
    CPU要取L1 cache的某个值,需要1-3步(或者更多):把cache行锁住,把某个数据拿
    来,解锁,如果没锁住就慢了。
    CPU要取L2 cache的某个值,先要到L1 cache里取,L1当中不存在,在L2里,L2开始加锁,加锁以后,把L2里的数据复制到L1,再执行读L1的过程,上面的3步,再解锁。 CPU取L3 cache的也是一样,只不过先由L3复制到L2,从L2复制到L1,从L1到CPU。 CPU取内存则最复杂:通知内存控制器占用总线带宽,通知内存加锁,发起内存读请求,等待回应,回应数据保存到L3(如果没有就到L2),再从L3/2到L1,再从L1到CPU,之后解 除总线锁定。
    多线程环境下存在的问题
    缓存一致性问题 在多处理器系统中,每个处理器都有自己的高速缓存,而它们又共享同一主内存
    (MainMemory)。基于高速缓存的存储交互很好地解决了处理器与内存的速度矛盾,但是 也引入了新的问题:缓存一致性(CacheCoherence)。当多个处理器的运算任务都涉及同一 块主内存区域时,将可能导致各自的缓存数据不一致的情况,如果真的发生这种情况,那同步 回到主内存时以谁的缓存数据为准呢?为了解决一致性的问题,需要各个处理器访问缓存时都 遵循一些协议,在读写时要根据协议来进行操作,这类协议有MSI、 MESI(IllinoisProtocol)、MOSI、Synapse、Firefly及DragonProtocol,等等

在这里插入图片描述
指令重排序问题
为了使得处理器内部的运算单元能尽量被充分利用,处理器可能会对输入代码进行乱序执 行(Out-Of-Order Execution)优化,处理器会在计算之后将乱序执行的结果重组,保证该 结果与顺序执行的结果是一致的,但并不保证程序中各个语句计算的先后顺序与输入代码中的 顺序一致。因此,如果存在一个计算任务依赖另一个计算任务的中间结果,那么其顺序性并不 能靠代码的先后顺序来保证。与处理器的乱序执行优化类似,Java虚拟机的即时编译器中也有 类似的指令重排序(Instruction Reorder)优化

2、什么是线程

现代操作系统在运行一个程序时,会为其创建一个进程。例如,启动一个Java程序,操作系统就会创建一个Java进程。现代操作系统调度CPU的最小单元是线程,也叫轻量级进程 (Light Weight Process),在一个进程里可以创建多个线程,这些线程都拥有各自的计数器、堆栈和局部变量等属性,并且能够访问共享的内存变量。处理器在这些线程上高速切换, 让使用者感觉到这些线程在同时执行。
线程的实现可以分为两类:
1、用户级线程(User-Level Thread)
2、内核线线程(Kernel-Level Thread)
在理解线程分类之前我们需要先了解系统的用户空间与内核空间两个概念,以4G大小的内存空间为例
在这里插入图片描述
Linux为内核代码和数据结构预留了几个页框,这些页永远不会被转出到磁盘上。从 0x00000000 到 0xc0000000(PAGE_OFFSET) 的线性地址可由用户代码 和 内核代码进行 引用(即用户空间)。从0xc0000000(PAGE_OFFSET)到 0xFFFFFFFFF的线性地址只能由 内核代码进行访问(即内核空间)。内核代码及其数据结构都必须位于这 1 GB的地址空间 中,但是对于此地址空间而言,更大的消费者是物理地址的虚拟映射。

这意味着在 4 GB 的内存空间中,只有 3 GB 可以用于用户应用程序。一个进程只能运行 在用户方式(usermode)或内核方式(kernelmode)下。用户程序运行在用户方式下,而系统调用运行在内核方式下。在这两种方式下所用的堆栈不一样:用户方式下用的是一般的堆 栈,而内核方式下用的是固定大小的堆栈(一般为一个内存页的大小)

每个进程都有自己的 3 G 用户空间,它们共享1GB的内核空间。当一个进程从用户空间进 入内核空间时,它就不再有自己的进程空间了。这也就是为什么我们经常说线程上下文切换会 涉及到用户态到内核态的切换原因所在

用户线程:指不需要内核支持而在用户程序中实现的线程,其不依赖于操作系统核心,应 用进程利用线程库提供创建、同步、调度和管理线程的函数来控制用户线程。另外,用户线程 是由应用进程利用线程库创建和管理,不依赖于操作系统核心。不需要用户态/核心态切换, 速度快。操作系统内核不知道多线程的存在,因此一个线程阻塞将使得整个进程(包括它的所 有线程)阻塞。由于这里的处理器时间片分配是以进程为基本单位,所以每个线程执行的时间 相对减少。

内核线程: 线程的所有管理操作都是由操作系统内核完成的。内核保存线程的状态和上下 文信息,当一个线程执行了引起阻塞的系统调用时,内核可以调度该进程的其他线程执行。在 多处理器系统上,内核可以分派属于同一进程的多个线程在多个处理器上运行,提高进程执行 的并行度。由于需要内核完成线程的创建、调度和管理,所以和用户级线程相比这些操作要慢 得多,但是仍然比进程的创建和管理操作要快。大多数市场上的操作系统,如Windows, Linux等都支持内核级线程。
原理区别如下图所示
在这里插入图片描述
Java线程与系统内核线程关系
在这里插入图片描述
Java线程
JVM中创建线程有2种方式

  1. new java.lang.Thread().start()
  2. 使用JNI将一个native thread attach到JVM中
    针对 new java.lang.Thread().start()这种方式,只有调用start()方法的时候,才会真正的在 JVM中去创建线程,主要的生命周期步骤有:
  3. 创建对应的JavaThread的instance
  4. 创建对应的OSThread的instance
  5. 创建实际的底层操作系统的native thread
  6. 准备相应的JVM状态,比如ThreadLocal存储空间分配等
  7. 底层的native thread开始运行,调用java.lang.Thread生成的Object的run()方法
  8. 当java.lang.Thread生成的Object的run()方法执行完毕返回后,或者抛出异常终止后,
    终止native thread
  9. 释放JVM相关的thread的资源,清除对应的JavaThread和OSThread
    针对JNI将一个native thread attach到JVM中,主要的步骤有:
  10. 通过JNI call AttachCurrentThread申请连接到执行的JVM实例
  11. JVM创建相应的JavaThread和OSThread对象
  12. 创建相应的java.lang.Thread的对象
  13. 一旦java.lang.Thread的Object创建之后,JNI就可以调用Java代码了
  14. 当通过JNI call DetachCurrentThread之后,JNI就从JVM实例中断开连接
  15. JVM清除相应的JavaThread, OSThread, java.lang.Thread对象
    Java线程的生命周期:
    在这里插入图片描述

3、为什么用到并发?并发会产生什么问题?

1、为什么用到并发
并发编程的本质其实就是利用多线程技术,在现代多核的CPU的背景下,催生了并发编程 的趋势,通过并发编程的形式可以将多核CPU的计算能力发挥到极致,性能得到提升。除此之 外,面对复杂业务模型,并行程序会比串行程序更适应业务需求,而并发编程更能吻合这种业 务拆分 。
即使是单核处理器也支持多线程执行代码,CPU通过给每个线程分配CPU时间片来实现 这个机制。时间片是CPU分配给各个线程的时间,因为时间片非常短,所以CPU通过不停地切 换线程执行,让我们感觉多个线程是同时执行的,时间片一般是几十毫秒(ms)。
并发不等于并行:并发指的是多个任务交替进行,而并行则是指真正意义上的“同时进 行”。实际上,如果系统内只有一个CPU,而使用多线程时,那么真实系统环境下不能并行, 只能通过切换时间片的方式交替进行,而成为并发执行任务。真正的并行也只能出现在拥有多 个CPU的系统中。
并发的优点:

  1. 充分利用多核CPU的计算能力;
  2. 方便进行业务拆分,提升应用性能;

并发产生的问题:
1.高并发场景下,导致频繁的上下文切换
2.临界区线程安全问题,容易出现死锁的,产生死锁就会造成系统功能不可用

CPU通过时间片分配算法来循环执行任务,当前任务执行一个时间片后会切换到下一个 任务。但是,在切换前会保存上一个任务的状态,以便下次切换回这个任务时,可以再加载这 个任务的状态。所以任务从保存到再加载的过程就是一次上下文切换。

线程上下文切换过程:
在这里插入图片描述

4、什么是JMM模型

Java内存模型(Java Memory Model简称JMM)是一种抽象的概念,并不真实存在,它描 述的是一组规则或规范,通过这组规范定义了程序中各个变量(包括实例字段,静态字段和构 成数组对象的元素)的访问方式。JVM运行程序的实体是线程,而每个线程创建时JVM都会为 其创建一个工作内存(有些地方称为栈空间),用于存储线程私有的数据,而Java内存模型中规 定所有变量都存储在主内存,主内存是共享内存区域,所有线程都可以访问,但线程对变量的 操作(读取赋值等)必须在工作内存中进行,首先要将变量从主内存拷贝的自己的工作内存空 间,然后对变量进行操作,操作完成后再将变量写回主内存,不能直接操作主内存中的变量, 工作内存中存储着主内存中的变量副本拷贝,前面说过,工作内存是每个线程的私有数据区 域,因此不同的线程间无法访问对方的工作内存,线程间的通信(传值)必须通过主内存来完 成。

JMM不同于JVM内存区域模型
JMM与JVM内存区域的划分是不同的概念层次,更恰当说JMM描述的是一组规则,通过这组规则控制程序中各个变量在共享数据区域和私有数据区域的访问方式,JMM是围绕原子 性,有序性、可见性展开。JMM与Java内存区域唯一相似点,都存在共享数据区域和私有数 据区域,在JMM中主内存属于共享数据区域,从某个程度上讲应该包括了堆和方法区,而工作 内存数据线程私有数据区域,从某个程度上讲则应该包括程序计数器、虚拟机栈以及本地方法 栈。

线程,工作内存,主内存工作交互图(基于JMM规范):
在这里插入图片描述
主内存
主要存储的是Java实例对象,所有线程创建的实例对象都存放在主内存中,不管该实例对 象是成员变量还是方法中的本地变量(也称局部变量),当然也包括了共享的类信息、常量、静 态变量。由于是共享数据区域,多条线程对同一个变量进行访问可能会发生线程安全问题。

工作内存
主要存储当前方法的所有本地变量信息(工作内存中存储着主内存中的变量副本拷贝),每 个线程只能访问自己的工作内存,即线程中的本地变量对其它线程是不可见的,就算是两个线 程执行的是同一段代码,它们也会各自在自己的工作内存中创建属于当前线程的本地变量,当 然也包括了字节码行号指示器、相关Native方法的信息。注意由于工作内存是每个线程的私有 数据,线程间无法相互访问工作内存,因此存储在工作内存的数据不存在线程安全问题。

根据JVM虚拟机规范主内存与工作内存的数据存储类型以及操作方式,对于一个实例对象 中的成员方法而言,如果方法中包含本地变量是基本数据类型 (boolean,byte,short,char,int,long,float,double),将直接存储在工作内存的帧栈结构中, 但倘若本地变量是引用类型,那么该变量的引用会存储在功能内存的帧栈中,而对象实例将存 储在主内存(共享数据区域,堆)中。但对于实例对象的成员变量,不管它是基本数据类型或者 包装类型(Integer、Double等)还是引用类型,都会被存储到堆区。至于static变量以及类本身 相关信息将会存储在主内存中。需要注意的是,在主内存中的实例对象可以被多线程共享,倘 若两个线程同时调用了同一个对象的同一个方法,那么两条线程会将要操作的数据拷贝一份到 自己的工作内存中,执行完成操作后才刷新到主内存

模型如下图所示
在这里插入图片描述
Java内存模型与硬件内存架构的关系
通过对前面的硬件内存架构、Java内存模型以及Java多线程的实现原理的了解,我们应该 已经意识到,多线程的执行最终都会映射到硬件处理器上进行执行,但Java内存模型和硬件内 存架构并不完全一致。对于硬件内存来说只有寄存器、缓存内存、主内存的概念,并没有工作 内存(线程私有数据区域)和主内存(堆内存)之分,也就是说Java内存模型对内存的划分对硬件内 存并没有任何影响,因为JMM只是一种抽象的概念,是一组规则,并不实际存在,不管是工作 内存的数据还是主内存的数据,对于计算机硬件来说都会存储在计算机主内存中,当然也有可 能存储到CPU缓存或者寄存器中,因此总体上来说,Java内存模型和计算机硬件内存架构是一 个相互交叉的关系,是一种抽象概念划分与真实物理硬件的交叉。(注意对于Java内存区域划分 也是同样的道理)
在这里插入图片描述
JMM存在的必要性
在明白了Java内存区域划分、硬件内存架构、Java多线程的实现原理与Java内存模型的具 体关系后,接着来谈谈Java内存模型存在的必要性。由于JVM运行程序的实体是线程,而每个 线程创建时JVM都会为其创建一个工作内存(有些地方称为栈空间),用于存储线程私有的数 据,线程与主内存中的变量操作必须通过工作内存间接完成,主要过程是将变量从主内存拷贝 的每个线程各自的工作内存空间,然后对变量进行操作,操作完成后再将变量写回主内存,如 果存在两个线程同时对一个主内存中的实例对象的变量进行操作就有可能诱发线程安全问题。
假设主内存中存在一个共享变量x,现在有A和B两条线程分别对该变量x=1进行操作, A/B线程各自的工作内存中存在共享变量副本x。假设现在A线程想要修改x的值为2,而B线程 却想要读取x的值,那么B线程读取到的值是A线程更新后的值2还是更新前的值1呢?答案是, 不确定,即B线程有可能读取到A线程更新前的值1,也有可能读取到A线程更新后的值2,这是 因为工作内存是每个线程私有的数据区域,而线程A变量x时,首先是将变量从主内存拷贝到A 线程的工作内存中,然后对变量进行操作,操作完成后再将变量x写回主内,而对于B线程的也 是类似的,这样就有可能造成主内存与工作内存间数据存在一致性问题,假如A线程修改完后 正在将数据写回主内存,而B线程此时正在读取主内存,即将x=1拷贝到自己的工作内存中, 这样B线程读取到的值就是x=1,但如果A线程已将x=2写回主内存后,B线程才开始读取的 话,那么此时B线程读取到的就是x=2,但到底是哪种情况先发生呢?
如以下示例图所示案例:
在这里插入图片描述
以上关于主内存与工作内存之间的具体交互协议,即一个变量如何从主内存拷贝到工作内 存、如何从工作内存同步到主内存之间的实现细节,Java内存模型定义了以下八种操作来完 成。

JMM-同步八种操作介绍
(1)lock(锁定):作用于主内存的变量,把一个变量标记为一条线程独占状态
(2)unlock(解锁):作用于主内存的变量,把一个处于锁定状态的变量释放出来,释放后的 变量才可以被其他线程锁定
(3)read(读取):作用于主内存的变量,把一个变量值从主内存传输到线程的工作内存中, 以便随后的load动作使用
(4)load(载入):作用于工作内存的变量,它把read操作从主内存中得到的变量值放入工作 内存的变量副本中
(5)use(使用):作用于工作内存的变量,把工作内存中的一个变量值传递给执行引擎 (6)assign(赋值):作用于工作内存的变量,它把一个从执行引擎接收到的值赋给工作内存 的变量
(7)store(存储):作用于工作内存的变量,把工作内存中的一个变量的值传送到主内存中, 以便随后的write的操作
(8)write(写入):作用于工作内存的变量,它把store操作从工作内存中的一个变量的值传送 到主内存的变量中

如果要把一个变量从主内存中复制到工作内存中,就需要按顺序地执行read和load操作, 如果把变量从工作内存中同步到主内存中,就需要按顺序地执行store和write操作。但Java内 存模型只要求上述操作必须按顺序执行,而没有保证必须是连续执行。
在这里插入图片描述
同步规则分析
1)不允许一个线程无原因地(没有发生过任何assign操作)把数据从工作内存同步回主内存 中
2)一个新的变量只能在主内存中诞生,不允许在工作内存中直接使用一个未被初始化(load 或者assign)的变量。即就是对一个变量实施use和store操作之前,必须先自行assign和load 操作。
3)一个变量在同一时刻只允许一条线程对其进行lock操作,但lock操作可以被同一线程重复 执行多次,多次执行lock后,只有执行相同次数的unlock操作,变量才会被解锁。lock和 unlock必须成对出现。
4)如果对一个变量执行lock操作,将会清空工作内存中此变量的值,在执行引擎使用这个变 量之前需要重新执行load或assign操作初始化变量的值。
5)如果一个变量事先没有被lock操作锁定,则不允许对它执行unlock操作;也不允许去 unlock一个被其他线程锁定的变量。
6)对一个变量执行unlock操作之前,必须先把此变量同步到主内存中(执行store和write操 作)

参考:《Java并发编程的艺术》

猜你喜欢

转载自blog.csdn.net/qq_39513430/article/details/109400036