薛兆江 + 原创作品转载请注明出处 + 《Linux内核分析》MOOC课程http://mooc.study.163.com/course/USTC-1000029000
完成一个简单的时间片轮转多道程序内核代码,理解操作系统是如何工作的
函数调用约定 | 参数传递顺序 | 负责清理参数占用的堆栈 |
---|---|---|
__pascal | 从左到右 | 调用者 |
__stdcall | 从右到左 | 被调函数 |
__cdecl | 从右到左 | 调用者 |
linux中gcc默认用的规则是__stdcall.
Windows中C/C++程序的缺省函数调用约定是__cdecl.
调用函数时c语言会利用堆栈来做一个函数调用框架。如下图所示
内嵌汇编语法:__asm__(汇编语句模板: 输出部分: 输入部分: 破坏描述部分)。指令中的操作数可以使用占位符引用C语言变量,名称如下:%0,%1,…,%9。
输入部分描述输入操作数,不同的操作数描述符之间使用逗号格开,每个操作数描述符由限定字符串和C语言表达式或者C语言变量组成。
输出部分描述输出操作数,不同的操作数描述符之间用逗号格开,每个操作数描述符由限定字符串和C语言变量组成。 每个输出操作数的限定字符串必须包含“=”表示他是一个输出操作数。
限制字符有很多种,有些是与特定体系结构相关,它们的作用是指示编译器如何处理其后的C语言变量与指令操作数之间的关系。
常用限制字符 | ||
---|---|---|
分类 | 限定符 | 描述 |
通用寄存器 | “a” | 将输入变量放入eax | “b” | 将输入变量放入ebx |
“c” | 将输入变量放入ecx | |
“d” | 将输入变量放入edx | |
“s” | 将输入变量放入esi | |
“d” | 将输入变量放入edi | |
“q” | 将输入变量放入eax,ebx,ecx,edx中的一个 | |
“r” | 将输入变量放入通用寄存器,也就是eax,ebx,ecx,edx,esi,edi中的一个 | |
“A” | 把eax和edx合成一个64 位的寄存器(use long longs) | |
内存 | “m” | 内存变量 |
“o” | 操作数为内存变量,但是其寻址方式是偏移量类型,也即是基址寻址,或者是基址加变址寻址 | |
“V” | 操作数为内存变量,但寻址方式不是偏移量类型 | |
“ ” | 操作数为内存变量,但寻址方式为自动增量 | |
“p” | 操作数是一个合法的内存地址(指针) | |
寄存器或内存 | “g” | 将输入变量放入eax,ebx,ecx,edx中的一个或者作为内存变量 |
“X” | 操作数可以是任何类型 | |
立即数 | “I” | 0-31之间的立即数(用于32位移位指令) |
“J” | 0-63之间的立即数(用于64位移位指令) | |
“N” | 0-255之间的立即数(用于out指令) | |
“n” | 立即数 | |
“p” | 立即数,有些系统不支持除字以外的立即数,这些系统应该使用“n”而不是“i” | |
匹配 | & | 该输出操作数不能使用过和输入操作数相同的寄存器 |
操作数类型 | “=” | 操作数在指令中是只写的(输出操作数) |
“+” | 操作数在指令中是读写类型的(输入输出操作数) | |
浮点数 | “f” | 浮点寄存器 |
“t” | 第一个浮点寄存器 | |
“u” | 第二个浮点寄存器 | |
“G” | 标准的80387浮点常数 | |
其它 | % | 该操作数可以和下一个操作数交换位置 |
# | 部分注释,从该字符到其后的逗号之间所有字母被忽略 | |
* | 表示如果选用寄存器,则其后的字母被忽略 |
C代码中嵌入汇编代码举例
图片引用自参考资料2
cd LinuxKernel/linux-3.9.4
rm -rf mykernel
patch -p1 < ../mykernel_for_linux3.9.4sc.patch
make allnoconfig
make #编译内核请耐心等待
qemu -kernel arch/x86/boot/bzImage
进入实验楼,mykernel文件夹,从github中copy文件,覆盖原来的mymain.c myinterrupt.c 新建mypcb.h。
cd ~/LinuxKernel/linux-3.9.4/
make
cd ~/LinuxKernel/linux-3.9.4/
qemu -kernel arch/x86/boot/bzImage
void __init my_start_kernel(void) { int i = 0; while(1) { i++; if(i%100000 == 0) printk(KERN_NOTICE "my_start_kernel here %d \n",i); } }
void my_timer_handler(void) { printk(KERN_NOTICE "\n>>>>>>>>>>>>>>>>>my_timer_handler here<<<<<<<<<<<<<<<<<<\n\n"); }
mymain.c中是一个循环,每次i是100000的倍数时,进行输出。myinterrupt.c中时一个被时钟中断周期调用的函数,进行输出。
/* * linux/mykernel/mypcb.h * * Kernel internal PCB types * * Copyright (C) 2013 Mengning * */ #define MAX_TASK_NUM 4 #define KERNEL_STACK_SIZE 1024*8 /* CPU-specific state of this task */ struct Thread { unsigned long ip; unsigned long sp; }; typedef struct PCB{ int pid; volatile long state; /* -1 unrunnable, 0 runnable, >0 stopped */ char stack[KERNEL_STACK_SIZE]; /* CPU-specific state of this task */ struct Thread thread; unsigned long task_entry; struct PCB *next; }tPCB;
在这个头文件中,定义了最大进程数量为4,栈的大小为8K.
对线程的程序定义了指令指针ip和栈顶指针sp。
定义进程控制块,有进程号pid,进程状态state,进程堆栈,进程执行入口,指向下一个进程控制块的指针。
/* * linux/mykernel/mymain.c * * Kernel internal my_start_kernel * * Copyright (C) 2013 Mengning * */ #include < linux/types.h> #include < linux/string.h> #include < linux/ctype.h> #include < linux/tty.h> #include < linux/vmalloc.h> #include "mypcb.h" tPCB task[MAX_TASK_NUM];//进程组4个 tPCB * my_current_task = NULL; volatile int my_need_sched = 0;//是否需要调度,1表示需要 void my_process(void); void __init my_start_kernel(void) { int pid = 0; int i; /* Initialize process 0*/ task[pid].pid = pid; task[pid].state = 0;/* -1 unrunnable, 0 runnable, >0 stopped */ //设置0号进程的执行入口为函数my_process的起始地址。 task[pid].task_entry = task[pid].thread.ip = (unsigned long)my_process; //栈顶指针指向堆栈的高地址,函数执行过程中,栈顶指针由高地址向低地址走 task[pid].thread.sp = (unsigned long)&task[pid].stack[KERNEL_STACK_SIZE-1]; //next pid指向0号进程自身,组成一个单向循环链表 task[pid].next = &task[pid]; /*fork more process *设置1~3号进程,每个进程要做的任务都是my_process() */ for(i=1;i< MAX_TASK_NUM;i++) { memcpy(&task[i],&task[0],sizeof(tPCB)); task[i].pid = i; task[i].state = -1; task[i].thread.sp = (unsigned long)&task[i].stack[KERNEL_STACK_SIZE-1]; //组成单向循环链表,为了时间片轮转 task[i].next = task[i-1].next; task[i-1].next = &task[i]; } /* start process 0 by task[0] */ pid = 0; my_current_task = &task[pid]; //修改栈顶指针esp,指令指针eip,启动0号进程,修改栈底指针ebp asm volatile( "movl %1,%%esp\n\t" /* set task[pid].thread.sp to esp */ "pushl %1\n\t" /* push ebp */ "pushl %0\n\t" /* push task[pid].thread.ip */ "ret\n\t" /* pop task[pid].thread.ip to eip */ "popl %%ebp\n\t" //不会执行,但不仅仅为了对称,在这个程序中进程是无限循环,不会返回执行这个pop,但真实的程序会返回执行这句 : : "c" (task[pid].thread.ip),"d" (task[pid].thread.sp) /* input c or d mean %ecx/%edx*/ ); } void my_process(void) { int i = 0; while(1) { i++; if(i%10000000 == 0) { printk(KERN_NOTICE "this is process %d -\n",my_current_task->pid); if(my_need_sched == 1)//如果需要调度 { my_need_sched = 0; my_schedule();//进行调度 } printk(KERN_NOTICE "this is process %d +\n",my_current_task->pid); } } }
/* * linux/mykernel/myinterrupt.c * * Kernel internal my_timer_handler * * Copyright (C) 2013 Mengning * */ #include < linux/types.h> #include < linux/string.h> #include < linux/ctype.h> #include < linux/tty.h> #include < linux/vmalloc.h> #include "mypcb.h" extern tPCB task[MAX_TASK_NUM]; extern tPCB * my_current_task; extern volatile int my_need_sched; volatile int time_count = 0; /* * Called by timer interrupt. * it runs in the name of current running process, * so it use kernel stack of current running process */ void my_timer_handler(void) { #if 1 //time_count每自增1000,进行调度,时间片 if(time_count%1000 == 0 && my_need_sched != 1) { printk(KERN_NOTICE ">>>my_timer_handler here<<<\n"); my_need_sched = 1; } time_count ++ ; #endif return; } void my_schedule(void) { tPCB * next;//下个进程 tPCB * prev;//当前进程 if(my_current_task == NULL || my_current_task->next == NULL) { return; } printk(KERN_NOTICE ">>>my_schedule<<<\n"); /* schedule */ next = my_current_task->next;//轮转 prev = my_current_task; if(next->state == 0)/* -1 unrunnable, 0 runnable, >0 stopped */ { my_current_task = next; printk(KERN_NOTICE ">>>switch %d to %d<<<\n",prev->pid,next->pid); /* switch to next process */ asm volatile( "pushl %%ebp\n\t" /* save ebp */ "movl %%esp,%0\n\t" /* save esp */ "movl %2,%%esp\n\t" /* restore esp */ //恢复 "movl $1f,%1\n\t" /* save eip */ //67行语句地址 "pushl %3\n\t" "ret\n\t" /* restore eip */ //调到popl "1:\t" /* next process start here */ "popl %%ebp\n\t" // restore ebp : "=m" (prev->thread.sp),"=m" (prev->thread.ip) : "m" (next->thread.sp),"m" (next->thread.ip) ); } else//next->state != 0 进程未运行过 { next->state = 0; my_current_task = next; printk(KERN_NOTICE ">>>switch %d to %d<<<\n",prev->pid,next->pid); /* switch to new process */ asm volatile( "pushl %%ebp\n\t" /* save ebp */ "movl %%esp,%0\n\t" /* save esp */ "movl %2,%%esp\n\t" /* restore esp */ "movl %2,%%ebp\n\t" /* restore ebp */ "movl $1f,%1\n\t" /* save eip */ //也是第67行的地址 "pushl %3\n\t" "ret\n\t" /* restore eip */ : "=m" (prev->thread.sp),"=m" (prev->thread.ip) : "m" (next->thread.sp),"m" (next->thread.ip) ); } return; }
代码有点多,总结一下,执行过程。my_time_handler()函数,是个时间片轮转,周期性地发出中断信号,也就是my_need_sched。my_start_kernel()完成每个进程初始化,每个进程的任务都是my_process(),由于这个函数中有个无限循环,任务永远不会结束;并且启动了0号进程。任务需要调度时根据任务链表顺序进行调度。
来看my_process()函数,先不看my_schedule()函数,并且假设只有两个进程0号和1号,便于分析。my_process()执行过程就是,0号进程启动,执行到77行my_schedule(),被调度到了1号进程,1号进程从65行也就是1号进程的起始开始执行,执行到77行,又调度回0号进程,0号进程从78行继续执行,执行到81行,回到68行继续下一次循环,又执行到77行进行调度,1号进程从第78行恢复执行.......
下面来看my_schedule()函数,依然假设进程从0号切换到1号再切到0号。0号进程启动后,在my_process()的第77行中进入my_schedule(),执行到my_schedule()的第55行判断一下,由于1号进程没有运行过,next-state!=0,跳到73行,接着运行到80行,保存0号进程的ebp到栈中,81行和84行是保存0号进程的sp,ip;82,83,85行是启动1号进程。1号进程从my_process()函数的起始开始执行,又进入my_schedule()函数,执行到my_schedule()的第55行判断一下,由于0号进程运行过,next-state==0,继续执行,第61行保存1号进程的ebp到栈中,62行和64行是保存1号进程的sp,ip;63行、65行和66行是恢复0号进程。由于之前0号进程保存的ip指向的是67行,所以这次0号进程从my_schedule的第67行恢复执行,由于63行恢复了0号进程的esp,所有68行正确恢复0号进程的ebp,0号进程执行my_schedule()的第91行,回到my_process()的第79行,又运行到68行开始新的循环,又从77行进入my_schedule(),这次执行到my_schedule()的第55行,判断条件满足,继续执行第57行,又开始保存0号进程,以及恢复1号进程从67行继续执行.......