3.2.3 init控制service
最后更新于:2022-04-02 05:48:45
先看service是如何启动的。
1.启动zygote
init.rc中有这样一句话:
~~~
#class_start是一个COMMAND,对应的函数为do_class_start,很重要,切记。
class_startdefault
~~~
class_start标示一个COMMAND,对应的处理函数为do_class_start,它位于boot section的范围内。为什么说它很重要呢?
还记得init进程中的四个执行阶段吗?当init进程执行到下面几句话时,do_class_start就会被执行了。
~~~
//将bootsection节的command加入到执行队列
action_for_each_trigger("boot",action_add_queue_tail);
//执行队列里的命令,class可是一个COMMAND,所以它对应的do_class_start会被执行。
drain_action_queue();
~~~
下面来看do_class_start函数:
**builtins.c**
~~~
int do_class_start(int nargs, char **args)
{
/*
args为do_class_start的参数,init.rc中只有一个参数,就是default。
下面这个函数将从service_list中寻找classname为”default”的service,然后
调用service_start_if_not_disabled函数。现在读者明白了service结构体中
classname的作用了吗?
*/
service_for_each_class(args[1],service_start_if_not_disabled);
return 0;
}
~~~
我们已经知道,zygote这个service的classname的值就是“default”,所以会针对这个service调用service_start_if_not_disabled,这个函数的代码是:
**parser.c**
~~~
static void service_start_if_not_disabled(structservice *svc)
{
if (!(svc->flags & SVC_DISABLED)) {
service_start(svc,NULL); //zygote可没有设置SVC_DISABLED
}
}
~~~
service_start函数的代码如下所示:
**init.c**
~~~
void service_start(struct service *svc, constchar *dynamic_args)
{
structstat s;
pid_tpid;
intneeds_console;
int n;
svc->flags &= (~(SVC_DISABLED|SVC_RESTARTING));
svc->time_started = 0;
if(svc->flags & SVC_RUNNING) {
return;//如果这个service已在运行,则不用处理
}
/*
service一般运行于另外一个进程中,这个进程也是init的子进程,所以启动service前需要判断
对应的可执行文件是否存在,zygote对应的可执行文件是/system/bin/app_process
*/
if(stat(svc->args[0], &s) != 0) {
svc->flags |= SVC_DISABLED;
return;
}
......
pid =fork(); //调用fork创建子进程
if(pid == 0) {
//pid为零,我们在子进程中
struct socketinfo *si;
struct svcenvinfo *ei;
char tmp[32];
int fd, sz;
//得到属性存储空间的信息并加到环境变量中,后面在属性服务一节中会碰到使用它的地方。
get_property_workspace(&fd, &sz);
add_environment("ANDROID_PROPERTY_WORKSPACE", tmp);
//添加环境变量信息
for (ei = svc->envvars; ei; ei = ei->next)
add_environment(ei->name, ei->value);
//根据socketinfo创建socket
for (si = svc->sockets; si; si = si->next) {
int s = create_socket(si->name,
!strcmp(si->type,"dgram") ?
SOCK_DGRAM :SOCK_STREAM,
si->perm,si->uid, si->gid);
if (s >= 0) {
//在环境变量中添加socket信息。
publish_socket(si->name, s);
}
}
......//设置uid,gid等
setpgid(0, getpid());
if(!dynamic_args) {
/*
执行/system/bin/app_process,这样就进入到app_process的main函数中了。
fork、execve这两个函数都是Linux系统上常用的系统调用。
*/
if (execve(svc->args[0], (char**)svc->args, (char**) ENV) < 0) {
......
}
}else {
......
}
......//父进程init的处理,设置service的信息,如启动时间、进程号,以及状态等。
svc->time_started = gettime();
svc->pid = pid;
svc->flags |= SVC_RUNNING;
//每一个service都有一个属性,zygote的属性为init.svc.zygote,现在设置它的值为running
notify_service_state(svc->name, "running");
}
~~~
原来,zygote是通过fork和execv共同创建的!但service结构中的那个onrestart好像没有派上用场,原因何在?
2. 重启zygote
根据名字,就可猜到onrestart应该是在zygote重启时用的。下面先看在zygote死后,它的父进程init会有什么动作:
**init.c**
~~~
static void sigchld_handler(int s)
{ //当子进程退出时,init的这个信号处理函数会被调用
write(signal_fd, &s, 1); //往signal_fd write数据
}
~~~
signal_fd,就是在init中通过socketpair创建的两个socket中的一个,既然会往这个signal_fd中发送数据,那么另外一个socket就一定能接收到,这样就会导致init从poll函数中返回:
**init.rc::main函数代码片断**
~~~
nr =poll(ufds, fd_count, timeout);
......
if(ufds[2].revents == POLLIN) {
read(signal_recv_fd, tmp, sizeof(tmp));
while (!wait_for_one_process(0))//调用wait_for_one_process函数处理
;
continue;
}
......
//直接看这个wait_for_one_process函数:
static int wait_for_one_process(int block)
{
pid_tpid;
intstatus;
structservice *svc;
structsocketinfo *si;
time_tnow;
structlistnode *node;
structcommand *cmd;
while( (pid = waitpid(-1, &status, block ? 0 : WNOHANG)) == -1 &&
errno == EINTR );
if(pid <= 0) return -1;
//找到死掉的那个service,现在应该找到了代表zygote的那个service。
svc = service_find_by_pid(pid);
......
if(!(svc->flags & SVC_ONESHOT)) {
//杀掉zygote创建的所有子进程,这就是zygote死后,Java世界崩溃的原因。
kill(-pid, SIGKILL);
}
//清理socket信息,不清楚的读者可以通过命令man 7 AF_UNIX查询一下相关知识。
for(si = svc->sockets; si; si = si->next) {
char tmp[128];
snprintf(tmp, sizeof(tmp), ANDROID_SOCKET_DIR"/%s",si->name);
unlink(tmp);
}
svc->pid = 0;
svc->flags &= (~SVC_RUNNING);
if(svc->flags & SVC_ONESHOT) {
svc->flags |= SVC_DISABLED;
}
......
now= gettime();
/*
如果设置了SVC_CRITICAL标示,则4分钟内该服务重启次数不能超过4次,否则
机器会重启进入recovery模式。根据init.rc的配置,只有servicemanager进程
享有此种待遇。
*/
if(svc->flags & SVC_CRITICAL) {
if(svc->time_crashed + CRITICAL_CRASH_WINDOW >= now) {
if (++svc->nr_crashed > CRITICAL_CRASH_THRESHOLD) {
......
sync();
__reboot(LINUX_REBOOT_MAGIC1,LINUX_REBOOT_MAGIC2,
LINUX_REBOOT_CMD_RESTART2, "recovery");
return 0;
}
}else {
svc->time_crashed = now;
svc->nr_crashed = 1;
}
}
svc->flags |= SVC_RESTARTING;
//设置标示为SVC_RESTARTING,然后执行该service onrestart中的COMMAND,这些内容就
//非常简单了,读者可以自行学习。
list_for_each(node, &svc->onrestart.commands) {
cmd = node_to_item(node, struct command, clist);
cmd->func(cmd->nargs, cmd->args);
}
//设置init.svc.zygote的值为restarting。
notify_service_state(svc->name, "restarting");
return0;
}
~~~
通过上面的代码,可知道onrestart的作用了,但zygote本身又在哪里重启的呢?答案就在下面的代码中:
**init.c::main函数代码片断**
~~~
for(;;) {
int nr, i, timeout = -1;
for (i = 0; i < fd_count; i++)
ufds[i].revents = 0;
drain_action_queue(); //poll函数返回后,会进入下一轮的循环
restart_processes(); //这里会重启所有flag标志为SVC_RESTARTING的service。
......
}
~~~
这样,zygote又回来了!
';