原创作品转载请注明出处 +《Linux内核分析》MOOC课程http://mooc.study.163.com/course/USTC-1000029000
一、实验要求
使用gdb跟踪调试内核从start_kernel到init进程启动,详细分析从start_kernel到init进程启动的过程。
二、实验内容
详细分析从start_kernel到init进程启动的过程,内容围绕Linux内核的启动过程,即从start_kernel到init进程启动;仔细分析start_kernel函数的执行过程总结部分需要阐明自己对“Linux系统启动过程”的理解,尤其是idle进程、1号进程是怎么来的。
三、实验环境
实验楼linux内核分析课程线上虚拟机的linux环境
主要优点:环境免配置,使用方便,不消耗主机资源。
四、实验过程
1. 使用实验楼的虚拟机打开shell
cd LinuxKernel
/
qemu
-kernel linux
-3.18.6/arch/x86/boot/bzImage
-initrd rootfs
.img
内核启动完成后将进入menu程序(《软件工程C编码实践篇》的课程项目)。
2. 使用gdb跟踪调试内核
qemu -kernel linux-
3.18.
6/arch/x86/boot/bzImage -initrd rootfs.img
-s -S
可以看到,内核启动中被冻结起来了,当前状态是Stopped。
另开一个shell窗口
gdb
(gdb)file linux-
3.18.
6/vmlinux
(gdb)target remote:
1234
(gdb)
break start_kernel
内核启动在start_kernel进程处停住了,在这之前从Power On开始是很长的初始化过程。
(gdb)c
按住c回车,系统就可以继续执行了,会一直执行到start_kernel的位置
查看start_kernel处的代码
第510行,全局变量init_task,即手工创建的PCB,0号进程初始化,0号进程就是最终的idle。
rest_init是start_kernel调用的最后一个函数。设置相关的断点,这里我们将断点设在函数rest_init处。继续程序并观察断点处代码。
在代码的第403行,第一个用户态进程开始创建。
五、代码分析
1.start_kernel函数的执行过程
asmlinkage __visible
void __init start_kernel(
void)
{
char *command_line;
char *after_dashes;
lockdep_init();
set_task_stack_end_magic(&init_task);
smp_setup_processor_id();
debug_objects_early_init();
boot_init_stack_canary();
cgroup_init_early();
local_irq_disable();
early_boot_irqs_disabled =
true;
boot_cpu_init();
page_address_init();
pr_notice(
"%s", linux_banner);
setup_arch(&command_line);
mm_init_cpumask(&init_mm);
setup_command_line(command_line);
setup_nr_cpu_ids();
setup_per_cpu_areas();
smp_prepare_boot_cpu();
build_all_zonelists(NULL, NULL);
page_alloc_init();
pr_notice(
"Kernel command line: %s\n", boot_command_line);
parse_early_param();
after_dashes = parse_args(
"Booting kernel",
static_command_line, __start___param,
__stop___param - __start___param,
-
1, -
1, &unknown_bootoption);
if (!IS_ERR_OR_NULL(after_dashes))
parse_args(
"Setting init args", after_dashes, NULL,
0, -
1, -
1,
set_init_arg);
jump_label_init();
setup_log_buf(
0);
pidhash_init();
vfs_caches_init_early();
sort_main_extable();
trap_init();
mm_init();
sched_init();
preempt_disable();
if (WARN(!irqs_disabled(),
"Interrupts were enabled *very* early, fixing it\n"))
local_irq_disable();
idr_init_cache();
rcu_init();
context_tracking_init();
radix_tree_init();
early_irq_init();
init_IRQ();
tick_init();
rcu_init_nohz();
init_timers();
hrtimers_init();
softirq_init();
timekeeping_init();
time_init();
sched_clock_postinit();
perf_event_init();
profile_init();
call_function_init();
WARN(!irqs_disabled(),
"Interrupts were enabled early\n");
early_boot_irqs_disabled =
false;
local_irq_enable();
kmem_cache_init_late();
console_init();
if (panic_later)
panic(
"Too many boot %s vars at `%s'", panic_later,
panic_param);
lockdep_info();
locking_selftest();
#ifdef CONFIG_BLK_DEV_INITRD
if (initrd_start && !initrd_below_start_ok &&
page_to_pfn(virt_to_page((
void *)initrd_start)) < min_low_pfn) {
pr_crit(
"initrd overwritten (0xlx < 0xlx) - disabling it.\n",
page_to_pfn(virt_to_page((
void *)initrd_start)),
min_low_pfn);
initrd_start =
0;
}
#endif
page_cgroup_init();
debug_objects_mem_init();
kmemleak_init();
setup_per_cpu_pageset();
numa_policy_init();
if (late_time_init)
late_time_init();
sched_clock_init();
calibrate_delay();
pidmap_init();
anon_vma_init();
acpi_early_init();
#ifdef CONFIG_X86
if (efi_enabled(EFI_RUNTIME_SERVICES))
efi_enter_virtual_mode();
#endif
#ifdef CONFIG_X86_ESPFIX64
init_espfix_bsp();
#endif
thread_info_cache_init();
cred_init();
fork_init(totalram_pages);
proc_caches_init();
buffer_init();
key_init();
security_init();
dbg_late_init();
vfs_caches_init(totalram_pages);
signals_init();
page_writeback_init();
proc_root_init();
cgroup_init();
cpuset_init();
taskstats_init_early();
delayacct_init();
check_bugs();
acpi_subsystem_init();
sfi_init_late();
if (efi_enabled(EFI_RUNTIME_SERVICES)) {
efi_late_init();
efi_free_boot_services();
}
ftrace_init();
rest_init();
}
2.rest_init()
static noinline
void __init_refok rest_init(
void)
{
int pid;
rcu_scheduler_starting();
/*
* We need
to spawn init first so that it obtains pid
1, however
* the init task will
end up wanting
to create kthreads, which,
if
* we schedule it before we create kthreadd, will OOPS.
*/
kernel_thread(kernel_init, NULL, CLONE_FS);
numa_default_policy();
pid = kernel_thread(kthreadd, NULL, CLONE_FS | CLONE_FILES);
rcu_read_lock();
kthreadd_task = find_task_by_pid_ns(pid, &init_pid_ns);
rcu_read_unlock();
complete(&kthreadd_done);
/*
* The boot idle thread must execute schedule()
* at least once
to get things moving:
*/
init_idle_bootup_task(current);
schedule_preempt_disabled();
/* Call into cpu_idle
with preempt disabled */
cpu_startup_entry(CPUHP_ONLINE);
}
3.kernel_init()
static
int __ref kernel_init(void
*unused)
{
int ret;
kernel_init_freeable();
/* need to finish all async __init code before freeing the memory */
async_synchronize_full();
free_initmem();
mark_rodata_ro();
system_state = SYSTEM_RUNNING;
numa_default_policy();
flush_delayed_fput();
if (ramdisk_execute_command) {
//这也就是Linux系统中的
1号进程,是第一个用户态进程,默认是根目录下的一个程序;如果根目录下没有这个进程,系统会寻找其他的默认进程作为
1号进程,当系统没有进程需要执行时就调度到idle进程。
ret = run_init_process(ramdisk_execute_command);
if (!ret)
return 0;
pr_err(
"Failed to execute %s (error %d)\n",
ramdisk_execute_command, ret);
}
/*
* We try
each of these
until one succeeds.
*
* The Bourne shell can be used instead of init
if we are
* trying to recover a really broken machine.
*/
if (execute_command) {
ret = run_init_process(execute_command);
if (!ret)
return 0;
pr_err(
"Failed to execute %s (error %d). Attempting defaults...\n",
execute_command, ret);
}
if (!try_to_run_init_process(
"/sbin/init") ||
!try_to_run_init_process(
"/etc/init") ||
!try_to_run_init_process(
"/bin/init") ||
!try_to_run_init_process(
"/bin/sh"))
return 0;
panic(
"No working init found. Try passing init= option to kernel. "
"See Linux Documentation/init.txt for guidance.");
}
六、总结
系统进入start_kernel这个函数之前已经进行了一些最低限度的初始化,再往前研究就涉及很多硬件相关及编程语言了。内核即进入了C语言部分,它完成了内核的大部分初始化工作。实际上,可以将start_kernel函数看做内核的main函数。
系统允许一个进程创建新进程,新进程即为子进程,子进程还可以创建新的子进程,形成进程树结构模型。整个linux系统的所有进程也是一个树形结构。Linux下有3个特殊的进程,idle进程(PID = 0), init进程(PID = 1)和kthreadd(PID = 2)。
最初执行的进程即是0号进程init_task,它是被静态产生的,内存栈的位置固定,执行一些初始化的工作。一直到start_kernel开始调用执行sched_init(),0号进程被init_idle(current, smp_processor_id())进程初始化成为一个idle task,变成上一次实验中的进程一样的,通过一个while循环不断执行,只要运行栈里没有别的进程它就执行,循环中不断检测运行栈里是否有其他进程并通过schedule函数进行调度。
init进程由idle通过kernel_thread创建,在内核空间完成初始化后, 加载init程序,是系统中所有其它用户进程的祖先进程Linux中的所有进程都是有init进程创建并运行的。首先Linux内核启动,然后在用户空间中启动init进程,再启动其他系统进程。在系统启动完成完成后,init将变为守护进程监视系统其他进程。
kthreadd进程由idle通过kernel_thread创建,并始终运行在内核空间, 负责所有内核线程的调度和管理,它的任务就是管理和调度其他内核线程kernel_thread, 会循环执行一个kthread的函数,该函数的作用就是运行kthread_create_list全局链表中维护的kthread, 当我们调用kernel_thread创建的内核线程会被加入到此链表中,因此所有的内核线程都是直接或者间接的以kthreadd为父进程。
在本次实验中我初步体会了Linux系统的启动过程,但是对Linux系统的理解还不够深入,需要进一步加强,期待下一次的实验。
参考资料
构造一个简单的Linux系统MenuOS
Linux下0号进程的前世(init_task进程)今生(idle进程)