进程上下文、中断上下文及原子上下文

转载自https://blog.csdn.net/zqixiao_09/article/details/50877756

            http://blog.sina.com.cn/s/blog_821c736301012baz.html

谈论进程上下文 、中断上下文 、 原子上下文之前,有必要讨论下两个概念:

a -- 上下文

       上下文是从英文context翻译过来,指的是一种环境。相对于进程而言,就是进程执行时的环境;

       具体来说就是各个变量和数据,包括所有的寄存器变量、进程打开的文件、内存信息等。

b -- 原子

       原子(atom)本意是“不能被进一步分割的最小粒子”,而原子操作(atomic operation)意为"不可被中断的一个或一系列操作" ;

一、为什么会有上下文这种概念

         内核空间和用户空间是现代操作系统的两种工作模式,内核模块运行在内核空间,而用户态应用程序运行在用户空间。它们代表不同的级别,而对系统资源具有不同的访问权限。内核模块运行在最高级别(内核态),这个级下所有的操作都受系统信任,而应用程序运行在较低级别(用户态)。在这个级别,处理器控制着对硬件的直接访问以及对内存的非授权访问。内核态和用户态有自己的内存映射,即自己的地址空间。

         其中处理器总处于以下状态中的一种:

         内核态,运行于进程上下文,内核代表进程运行于内核空间;

         内核态,运行于中断上下文,内核代表硬件运行于内核空间;

         用户态,运行于用户空间。

  系统的两种不同运行状态,才有了上下文的概念。用户空间的应用程序,如果想请求系统服务,比如操作某个物理设备,映射设备的地址到用户空间,必须通过系统调用来实现。(系统调用是操作系统提供给用户空间的接口函数)。

       通过系统调用,用户空间的应用程序就会进入内核空间,由内核代表该进程运行于内核空间,这就涉及到上下文的切换,用户空间和内核空间具有不同的 地址映射,通用或专用的寄存器组,而用户空间的进程要传递很多变量、参数给内核,内核也要保存用户进程的一些寄存器、变量等,以便系统调用结束后回到用户 空间继续执行,

二、进程上下文

        所谓的进程上下文,就是一个进程在执行的时候,CPU的所有寄存器中的值、进程的状态以及堆栈上的内容,当内核需要切换到另一个进程时,它 需要保存当前进程的所有状态,即保存当前进程的进程上下文,以便再次执行该进程时,能够恢复切换时的状态,继续执行。

       一个进程的上下文可以分为三个部分:用户级上下文寄存器上下文以及系统级上下文

       用户级上下文: 正文、数据、用户堆栈以及共享存储区;

       寄存器上下文: 通用寄存器、程序寄存器(IP)、处理器状态寄存器(EFLAGS)、栈指针(ESP);

       系统级上下文: 进程控制块task_struct、内存管理信息(mm_struct、vm_area_struct、pgd、pte)、内核栈。

       当发生进程调度时,进行进程切换就是上下文切换(context switch)。

       操作系统必须对上面提到的全部信息进行切换,新调度的进程才能运行。而系统调用进行的是模式切换(mode switch)。模式切换与进程切换比较起来,容易很多,而且节省时间,因为模式切换最主要的任务只是切换进程寄存器上下文的切换

       进程上下文主要是异常处理程序和内核线程。内核之所以进入进程上下文是因为进程自身的一些工作需要在内核中做。例如,系统调用是为当前进程服务的,异常通常是处理进程导致的错误状态等。所以在进程上下文中引用current是有意义的。

三、中断上下文

       硬件通过触发信号,向CPU发送中断信号,导致内核调用中断处理程序,进入内核空间。这个过程中,硬件的一些变量和参数也要传递给内核, 内核通过这些参数进行中断处理。

       所以,“中断上下文”就可以理解为硬件传递过来的这些参数和内核需要保存的一些环境,主要是被中断的进程的环境。

       内核进入中断上下文是因为中断信号而导致的中断处理或软中断。而中断信号的发生是随机的,中断处理程序及软中断并不能事先预测发生中断时当前运行的是哪个进程,所以在中断上下文中引用current是可以的,但没有意义。

       事实上,对于A进程希望等待的中断信号,可能在B进程执行期间发生。例如,A进程启动写磁盘操作,A进程睡眠后B进程在运行,当磁盘写完后磁盘中断信号打断的是B进程,在中断处理时会唤醒A进程。

四、进程上下文 VS 中断上下文

       内核可以处于两种上下文:进程上下文和中断上下文。

      在系统调用之后,用户应用程序进入内核空间,此后内核空间针对用户空间相应进程的代表就运行于进程上下文。

      异步发生的中断会引发中断处理程序被调用,中断处理程序就运行于中断上下文。

      中断上下文和进程上下文不可能同时发生。

   运行于进程上下文的内核代码是可抢占的,但中断上下文则会一直运行至结束,不会被抢占。因此,内核会限制中断上下文的工作,不允许其执行如下操作:

 a -- 进入睡眠状态或主动放弃CPU

        由于中断上下文不属于任何进程,它与current没有任何关系(尽管此时current指向被中断的进程),所以中断上下文一旦睡眠或者放弃CPU,将无法被唤醒。所以也叫原子上下文(atomic context)。

b -- 占用互斥体

        为了保护中断句柄临界区资源,不能使用mutexes。如果获得不到信号量,代码就会睡眠,会产生和上面相同的情况,如果必须使用锁,则使用spinlock。

c --  执行耗时的任务

       中断处理应该尽可能快,因为内核要响应大量服务和请求,中断上下文占用CPU时间太长会严重影响系统功能。在中断处理例程中执行耗时任务时,应该交由中断处理例程底半部来处理。

d -- 访问用户空间虚拟内存

       因为中断上下文是和特定进程无关的,它是内核代表硬件运行在内核空间,所以在中断上下文无法访问用户空间的虚拟地址

e -- 中断处理例程不应该设置成reentrant(可被并行或递归调用的例程)

       因为中断发生时,preempt和irq都被disable,直到中断返回。所以中断上下文和进程上下文不一样,中断处理例程的不同实例,是不允许在SMP上并发运行的。

f -- 中断处理例程可以被更高级别的IRQ中断

      如果想禁止这种中断,可以将中断处理例程定义成快速处理例程,相当于告诉CPU,该例程运行时,禁止本地CPU上所有中断请求。这直接导致的结果是,由于其他中断被延迟响应,系统性能下降。

五、原子上下文

       内核的一个基本原则就是:在中断或者说原子上下文中,内核不能访问用户空间,而且内核是不能睡眠的。也就是说在这种情况下,内核是不能调用有可能引起睡眠的任何函数。一般来讲原子上下文指的是在中断或软中断中,以及在持有自旋锁的时候。内核提供 了四个宏来判断是否处于这几种情况里:

 
  1. #define in_irq() (hardirq_count()) //在处理硬中断中

  2. #define in_softirq() (softirq_count()) //在处理软中断中

  3. #define in_interrupt() (irq_count()) //在处理硬中断或软中断中

  4. #define in_atomic() ((preempt_count() & ~PREEMPT_ACTIVE) != 0) //包含以上所有情况

      这四个宏所访问的count都是thread_info->preempt_count。这个变量其实是一个位掩码。最低8位表示抢占计数,通常由spin_lock/spin_unlock修改,或程序员强制修改,同时表明内核容许的最大抢占深度是256。

  8-15位是软中断计数,通常由local_bh_disable/local_bh_enable修改,同时表明内核容许的最大软中断深度是256。

16-27位是硬中断计数,通常由enter_irq/exit_irq修改,同时表明内核容许的最大硬中断深度是4096。

第28位是PREEMPT_ACTIVE标志。用代码表示就是:

PREEMPT_MASK: 0x000000ff

SOFTIRQ_MASK: 0x0000ff00

HARDIRQ_MASK: 0x0fff0000

       凡是上面4个宏返回1得到地方都是原子上下文,是不容许内核访问用户空间,不容许内核睡眠的,不容许调用任何可能引起睡眠的函数。而且代表thread_info->preempt_count不是0,这就告诉内核,在这里面抢占被禁用。

      但 是,对于in_atomic()来说,在启用抢占的情况下,它工作的很好,可以告诉内核目前是否持有自旋锁,是否禁用抢占等。但是,在没有启用抢占的情况 下,spin_lock根本不修改preempt_count,所以即使内核调用了spin_lock,持有了自旋锁,in_atomic()仍然会返回 0,错误的告诉内核目前在非原子上下文中。所以凡是依赖in_atomic()来判断是否在原子上下文的代码,在禁抢占的情况下都是有问题的。

PS:读到current不知道是什么,百度了下

在linux 内核中有一宏 : current (获取当前正在运行的进程)

linux 2.4.0

struct task_struct;

static inline struct task_struct * get_current(void) 
{ 
 struct task_struct *current; 
  __asm__("andl %%esp,%0; ":"=r" (current) : "0" (~8191UL));  
  return current; 
} 
#define current get_current()

union task_union { 
   struct task_struct task;  
   unsigned long stack[INIT_TASK_SIZE/sizeof(long)]; 
}; 
对于linux 2.6之前的内核采用的模式是:进程的PCB和进程的系统空间一块分配。对于linux2.4 来讲给进程分配系统空间和PCB用到的结构体是  union task_union .
如图:                    esp  ------------------------------ 高地址
                                    |               系统               |        
                                    |              空间                |
                                    |                                     |
                                    |                                     |
                                    | -----------------------------|
                                    |          task_struct          |
                        PCB     |------------------------------ 低地址
        
     进程的创建是在内核态的,在内核态需要用到栈和PCB ,为了方便管理将PCB和系统空间一块分配了两个连续的页面(8k),其中PCB大约为1K,进程的系统空间大约是7K。但是每次切换到内核态进程的系统栈都是空的。对于 struct task_union 分配空间都是8k的整数倍,因此在每个struct task_union首地址的后13位都是0 。因此一个进程的PCB的地址和该进程的系统的 esp 的地址除低13位都相等-------------->sp 可以移动的范围实在以PCB 为基址的条件下,以8K为跨度的偏移。
      因此可以将esp 和 0xffffffe0(地址为32位)的值进行相与,得到struct task_struct 的地址。
      因为对于系统的地址范围不缺定,因此内核使用: (~8191UL)
   8191------>1 1111 1111 1111 B 
 
linux  2.6.0

struct thread_info { 
     struct task_struct *task; 
       struct exec_domain *exec_domain;
         __u32 flags; 
     __u32 cpu; 
     mm_segment_t addr_limit; 
    __s32 preempt_count;   
    struct restart_block restart_block; 
 };

static inline struct thread_info *current_thread_info(void) 
{ 
   register unsigned long sp asm ("sp"); 
   return (struct thread_info *)(sp & ~0x1fff); 
} 
static inline struct task_struct * get_current(void) 
{ 
   return current_thread_info()->task; 
} 
#define current get_current()

    从linux 2.6 开始之后内核代码有了很大的改版,因为进程的PCB中要存储的东西又增加了很多,由于进程的系统空加不能动态变化,因此是的进程的系统空间足够使用,将PCB中的一部分信息进行提取(thread_info)取代2.4内核的PCB,使得系统空间和thread_info 一块分配。

如图:                    esp  ------------------------------ 高地址
                                    |               系统               |        
                                    |              空间                |
                                    |                                     |
                                    |                                     |
                                    | -----------------------------|
                                    |          thread_info         |------------> -------------------------
                                    |------------------------------ 低地址      |        PCB               |
                                                                                            |                              |
                                                                                            --------------------------
同2.4内核一样先获得thread_info 的地址。(加粗下划线)然后根据thread_info 的结构体获得进程的pid的struct task_struct 地址。
注:0x1fff = 8191

猜你喜欢

转载自blog.csdn.net/KeyonWho/article/details/81502339