linux main函数 线程,主线程之main函数 - 分布式缓存系统 Memcached_服务器应用_Linux公社-Linux系统门户网站...

本文详细分析了Memcached服务器中主线程与工作线程的交互,特别是主线程如何初始化和管理监听socket以及接收客户端连接。主线程通过`server_sockets`函数处理多个IP地址,并调用`server_socket`创建和监听socket,每个监听socket对应一个`conn`结构,放入监听队列。当接收到新的连接请求时,创建`conn`结构,注册到事件循环中。此外,`conn_init`预先分配conn指针数组,`conn_new`在需要时分配实际的`conn`结构。主线程通过`event_handler`回调处理客户端事件,核心是`drive_machine`函数处理客户逻辑。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前两节中对工作线程的工作流程做了较为详细的分析,现把其主要流程总结为下图:

35fff726c094e27851eee1c502f9a589.png

接下来本节主要分析主线程相关的函数设计,主函数main的基本流程如下图所示:

0d3361a87e596441bf02774cb831659b.png

对于主线程中的工作线程的初始化到启动所有的工作线程前面已经做了分析,后面的创建监听socket、注册监听socket的libevent事件、启动主线程的libevent事件循环,就是接下来的内容了。

其中主要调用的函数是server_sockets,该函数从配置参数setting.inner字符串中依次提取出一个ip或者一个hostname(一个hostname可能有多个ip),然后传给函数server_socket函数处理之。server_socket函数负责完成创建socket,绑定到端口,监听socket,并将该监听socket对应的conn结构(调用函数conn_new,在该函数中将监听socket注册到主线程libevent main_base上,回调函数为event_handler,其核心部分是drive_machine,这与工作线程是一致的),然后将该conn放入监听队列( conn *listen_conn)中。监听socket上接收到的客户连接的conn将放到连接队列conn **conns中。 最后在main函数中启动libevent事件循环。 还是图来的直观,如下:

e91b564914ee89afe2c6b317ef5ded72.png

static int server_sockets(int port, enum network_transport transport,

FILE *portnumber_file) {  //port是默认的11211或者用户使用-p选项设置的端口号

//settings.inter里面可能有多个IP地址.如果有多个那么将用逗号分隔

char *b;

int ret = 0;

//复制一个字符串,避免下面的strtok_r函数修改(污染)全局变量settings.inter

char *list = strdup(settings.inter);

//这个循环主要是处理多个IP的情况

for (char *p = strtok_r(list, ";,", &b);

p != NULL; //分割出一个个的ip,使用分号;作为分隔符

p = strtok_r(NULL, ";,", &b)) {

int the_port = port;

char *s = strchr(p, ':');//启动的可能使用-l ip:port 参数形式

//ip后面接着端口号,即指定ip的同时也指定了该ip的端口号

//此时采用ip后面的端口号,而不是采用-p指定的端口号

if (s != NULL) {

*s = '\0';//截断后面的端口号,使得p指向的字符串只是一个ip

++s;

if (!safe_strtol(s, &the_port)) {//非法端口号参数值

return 1;

}

}

if (strcmp(p, "*") == 0) {

p = NULL;

}

//处理其中一个IP。有p指定ip(或者hostname)

ret |= server_socket(p, the_port, transport, portnumber_file);

}

free(list);

return ret;

}

static conn *listen_conn = NULL;//监听队列(可能要同时监听多个IP)

//interface是一个ip、hostname或者NULL。这个ip字符串后面没有端口号。端口号由参数port指出

static int server_socket(const char *interface,

int port,

enum network_transport transport,

FILE *portnumber_file) {

int sfd;

struct linger ling = {0, 0};

struct addrinfo *ai;

struct addrinfo *next;

struct addrinfo hints = { .ai_flags = AI_PASSIVE,

.ai_family = AF_UNSPEC };

char port_buf[NI_MAXSERV];

int success = 0;

int flags =1;

hints.ai_socktype = IS_UDP(transport) ? SOCK_DGRAM : SOCK_STREAM;

snprintf(port_buf, sizeof(port_buf), "%d", port);

getaddrinfo(interface, port_buf, &hints, &ai);

//如果interface是一个hostname的话,那么可能就有多个ip

for (next= ai; next; next= next->ai_next) {

conn *listen_conn_add;

//创建一个套接字,然后设置为非阻塞的

sfd = new_socket(next);//调用socket函数

bind(sfd, next->ai_addr, next->ai_addrlen);

success++;

listen(sfd, settings.backlog);

//函数conn_new中将监听套接字fd注册到main_base上,并设定回调函数为event_handler,其中核心为drive_machine函数,这与工作线程是一致的

if (!(listen_conn_add = conn_new(sfd, conn_listening,

EV_READ | EV_PERSIST, 1,

transport, main_base))) {

fprintf(stderr, "failed to create listening connection\n");

exit(EXIT_FAILURE);

}

//将要监听的多个conn放到一个监听队列里面

listen_conn_add->next = listen_conn;

listen_conn = listen_conn_add;

}

freeaddrinfo(ai);

/* Return zero iff we detected no errors in starting up connections */

return success == 0;

}

static int new_socket(struct addrinfo *ai) {

int sfd;

int flags;

sfd = socket(ai->ai_family, ai->ai_socktype, ai->ai_protocol);

flags = fcntl(sfd, F_GETFL, 0);

fcntl(sfd, F_SETFL, flags | O_NONBLOCK);

return sfd;

}

主线程为每一个监听socket 和接收到的每一个客户端连接socket都分配一个conn结构体,用于管理该socket的各种状态信息等。需要注意的是的,memcached并不是对每一个socket分别创建分配一个conn结构,而是在初始化时一次性分配若干(跟审定的允许的同时最大数量的客户端连接数有关)个conn结构的指针(注意不是conn结构体,因为每一个conn结构是比较大的,因此如果直接分配若干个conn结构需要占用较大空间),在都确实需要一个conn结构时,再从预分配的指针数组中取用一个,并实际为该指针分配空间,完成具体的初始化等。 这与前面的CQ_ITEM内存池是一致的——按配置预分配若干,按需取用,循环利用。 避免内存碎片,提高性能。

其中函数conn_init负责预分配设置的若干个conn的指针,由一个conn**指针维护。函数conn_new则在确实需要一个conn时从conn**维护的数组中取得一个conn*,并完成实际的空间分配等。

具体分析如下:

函数conn_init:

conn **conns; //conn数组指针

static void conn_init(void) {

/* We're unlikely to see an FD much higher than maxconns. */

//已经dup返回当前未使用的最小正整数,所以next_fd等于此刻已经消耗了的fd个数

int next_fd = dup(1);//获取当前已经使用的fd的个数

//预留一些文件描述符。也就是多申请一些conn结构体。以免有别的需要把文件描述符

//给占了。导致socket fd的值大于这个数组长度

int headroom = 10;//预留一些文件描述符  /* account for extra unexpected open FDs */

struct rlimit rl;

//settings.maxconns的默认值是1024.

max_fds = settings.maxconns + headroom + next_fd;

/* But if possible, get the actual highest FD we can possibly ever see. */

if (getrlimit(RLIMIT_NOFILE, &rl) == 0) {

max_fds = rl.rlim_max;

} else {

fprintf(stderr, "Failed to query maximum file descriptor; "

"falling back to maxconns\n");

}

close(next_fd);//next_fd只是用来计数的,并没有其他用途

//注意,申请的conn结构体数量是比settings.maxconns这个客户端同时在线数

//还要大的。因为memcached是直接用socket fd的值作为数组下标的。也正是

//这个原因,前面需要使用headroom预留一些空间给突发情况

if ((conns = calloc(max_fds, sizeof(conn *))) == NULL) {//注意是conn指针不是conn结构体

fprintf(stderr, "Failed to allocate connection structures\n");

/* This is unrecoverable so bail out early. */

exit(1);

}

}

函数conn_new:

//为sfd分配一个conn结构体,并且为这个sfd建立一个event,然后注册到event_base上。

conn *conn_new(const int sfd, enum conn_states init_state,//init_state值为conn_listening

const int event_flags,

const int read_buffer_size, enum network_transport transport,

struct event_base *base) {

conn *c;

assert(sfd >= 0 && sfd < max_fds);

c = conns[sfd];//直接使用下标

if (NULL == c) {//之前没有哪个连接用过这个sfd值,需要申请一个conn结构体

if (!(c = (conn *)calloc(1, sizeof(conn)))) {

fprintf(stderr, "Failed to allocate connection object\n");

return NULL;

}

...//初始化一些成员变量

c->sfd = sfd;

conns[sfd] = c; //将这个结构体交由conns数组管理

}

...//初始化另外一些成员变量

c->state = init_state;//值为conn_listening

//等同于event_assign,会自动关联current_base。event的回调函数是event_handler

event_set(&c->event, sfd, event_flags, event_handler, (void *)c);

event_base_set(base, &c->event);

c->ev_flags = event_flags;

if (event_add(&c->event, 0) == -1) {

perror("event_add");

return NULL;

}

return c;

}

从上可以看到,实际上所有的conn从预分配到实际分配,都是有conn**指针维护的。只需要通过判断该数组中的某元素conn指针是否为空:等于NULL即没被实际占用,处于空闲状态,反之,已经被一个实际的socket fd占用。

至此,主线程所有的准备工作已经就绪,接下来就是真正的客户端连接事件的处理了:

回调函数event_handler(工作线程的注册事件的回调函数也是它):

event_handler本身是简单的,其核心是drive_machine函数(一个有限状态机,负责处理所有的客户逻辑)。

void event_handler(const int fd, const short which, void *arg) {

conn *c;

c = (conn *)arg;

assert(c != NULL);

c->which = which;

if (fd != c->sfd) {

conn_close(c);

return;

}

drive_machine(c);

return;

}

其中的drive_machine还是比较复杂的,接下来将分几个小节的内容,对此细细道来。0b1331709591d260c1c78e86d0c51c18.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值