Thursday, January 27, 2011

linux网络协议栈-Linux-2.6.25 TCPIP函数调用大致流程

linux网络协议栈-Linux-2.6.25 TCPIP函数调用大致流程

轉: http://www.dnbcw.com/biancheng/linux/qeyw264104.html
 
 
作者: 和linux相关 2010/12/12
简介:这是linux网络协议栈-Linux-2.6.25 TCPIP函数调用大致流程的详细页面,介绍了和linux,有关的知识、技巧、经验,和一些linux源码等。
linux-2.6.25 tcpip函数调用大致流程
学习目的,随手笔记。函数和文字说明会不断补充更新。

changelog
2008.10.08    最近找工作忙。暂时缓缓 

插口层
系统调用
send
    sys_send
        sys_sendto
sendto
    sys_sendto
        sock_sendmsg
sendmsg
    sys_sendmsg
        sock_sendmsg
write
    sys_write
        vfs_write
            file->f_op->write = do_sync_write
                filp->f_op->aio_write = sock_aio_write
                    do_sock_write
                        __sock_sendmsg
writev
    sys_writev
        vfs_writev
            do_readv_writev
                do_sync_readv_writev
                    sock_aio_write
                        do_sock_write
                            __sock_sendmsg
recv
    sys_recv
        sys_recvfrom
recvfrom
    sys_recvfrom
        sock_recvmsg
recvmsg
    sys_recvmsg
        sock_recvmsg
read
    sys_read
        vfs_read
            file->f_op->read= do_sync_read
                filp->f_op->aio_read= sock_aio_read
                    do_sock_read
                        __sock_recvmsg
readv
    sys_readv
        vfs_readv
            do_readv_readv
                do_sync_readv_readv
                    sock_aio_read
                        do_sock_read
                            __sock_recvmsg
socket
listen
connect
bind
select
close
shutdown
ioctl
getsockname
getpeername
setsockopt
getsockopt

内部实现函数
sock_sendmsg
    __sock_sendmsg

__sock_sendmsg
    sock->ops->sendmsg
对于tcp就是tcp_sendmsg,否则就是inet_sendmsg。后者调用sk->sk_prot->sendmsg,会继续分用为udp_sendmsg或raw_sendmsg函数

sock_recvmsg
    __sock_recvmsg

__sock_recvmsg
    sock->ops->recvmsg = sock_common_recvmsg
    sock_common_recvmsg对于不同协议,是tcp_recvmsg,udp_sendmsg或raw_sendmsg函数。

运输层

tcp
系统调用sys_connect间接调用了tcp_v4_connect
tcp_v4_connect
    ip_route_connect(寻找路由)
    __ip_route_output_key
    ip_route_output_flow★
    tcp_connect(构造一个syn并发送)
        tcp_transmit_skb
        inet_csk_reset_xmit_timer(启动一个超时定时器,等待syn+ack)


tcp的写函数最终都调用了tcp_sendmsg
tcp_sendmsg★
    __tcp_push_appending_frames
        tcp_write_xmit
            tcp_transmit_skb
    tcp_push_one
        tcp_transmit_skb   
    tcp_push
        __tcp_push_pending_frames
       
tcp 发送数据共有三种途径__tcp_push_appending_frames,tcp_push_one,tcp_push,其中tcp_push调用 了__tcp_push_pending_frames。到底调用哪个或哪些函数取决于是否有push标志、nagle是否开启、和一些其他情况。
__tcp_push_appending_frames是试图一次发送完缓存队列中所有的skb。tcp_push_one先计算拥塞窗口,然后只发送窗口大小的数据,如果窗口大小为0,则不发送任何数据。


tcp实际的发送函数,tcp_transmit_skb
/* this routine actually transmits tcp packets queued in by
* tcp_do_sendmsg().  this is used by both the initial
* transmission and possible later retransmissions.
* all skb's seen here are completely headerless.  it is our
* job to build the tcp header, and pass the packet down to
* ip so it can do the same plus pass the packet off to the
* device.
*
* we are working here with either a clone of the original
* skb, or a fresh unique copy made by the retransmit engine.
*/
tcp_transmit_skb
    build包头
    icsk->icsk_af_ops->queue_xmit = ip_queue_xmit★


硬件->ip层->运输层收到数据,添加到对应的socket缓冲区中,回复ack
由ip_rcv间接调用
tcp_v4_rcv
    __inet_lookup(根据一些参数,查找sock结构)
        __inet_lookup_established(在已经建立的连接中找,通过inet_lhashfn在哈希表中查找)
        __inet_lookup_listener(在监听中的socket中找,通过inet_lhashfn在哈希表中查找)
    tcp_v4_do_rcv
        tcp_rcv_established(established)★
        tcp_child_process
            tcp_rcv_state_process
        tcp_rcv_state_process(除established和time_wait之外)★
    tcp_prequeue(见后面详细解释)
        sk->sk_backlog_rcv = tcp_v4_do_rcv(又回到开头)
    sk_add_backlog(见后面详细解释)
    tcp_timewait_state_process(time_wait)
    tcp_v4_timewait_ack(time_wait)
        tcp_v4_send_ack(发送ack)

sock结构被初始化的时候,发送和接收数据的缓冲队列也被初始化完成,接收数据用到以下三个队列:
sk->receive_queue
sk->prequeue
sk->sk_backlog
sk->prequeue:如果sk没有被用户态程序锁定,则先进入prequeue
sk->receive_queue:接收到数据包的sk_buff链表队列,如果数据包过多,造成receive_queue满,或者sock被用户程序锁定,将转入sk_backlog
sk->sk_backlog: 当sock_owned_by_user函数返回真时候,(sk)->sk_lock.owner被锁定,使用sk_add_backlog()函 数(该函数实现非常简单,只是一个为链表添加节点的动作)将skb加入这个后备队列。


tcp_rcv_established
tcp接受里面最主要的就是tcp_rcv_established和tcp_rcv_state_process了
tcp_rcv_established★
    if(fast path)
        检查包头各字段
        tcp_ack(处理ck)
        tcp_data_snd_check(发送ack)
        __skb_pull(腾出空间)
        __skb_queue_tail(把数据追加到接受缓冲区)
    else(slow path)
        tcp_data_queue
            对滑动窗口、序号做出处理
            __skb_pull
            __skb_queue_tail
            tcp_event_data_recv(更新状态)


tcp_rcv_state_process
tcp协议的状态机,状态转移函数。established和time_wait状态之外的其他状态都会调用此函数
tcp_rcv_state_process★
    icsk->icsk_af_ops->conn_request(是tcp_v4_conn_request,listen状态)
        tcp_v4_send_synack(发送syn+ack)
            ip_build_and_send_pkt
                ip_local_out
                    __ip_local_out
                        nf_hook(dst_output)
                    dst_output
    tcp_rcv_synsent_state_process(syn_sent)
    tcp_reset
    tcp_ack(收到ack)
    tcp_set_state(syn_recv->established或者fin_wait1->fin_wait2)
    tcp_time_wait(closing->time_wait)
    tcp_update_metrics(last_ack)
    ...(都是和tcp协议状态转移相关的东西,这里目的是打通上下,以后慢慢分析)


还有两个出镜率较高的函数tcp_v4_send_reset和tcp_v4_send_ack
tcp_v4_send_reset(发送rst)
    ip_send_reply
        ip_route_output_key
        ip_push_pending_frames


tcp_v4_send_ack(发送ack)
    ip_send_reply
        ip_route_output_key
        ip_push_pending_frames


用户子上而下的读函数都间接的调用了tcp_recvmsg
tcp_recvmsg★
skb_copy_datagram_iovec
tcp_recv_urg(接受一个字节的urg数据)

udp
udp的写函数都调用了udp_sendmsg
udp_sendmsg★
    ip_route_output_flow
    ip_append_data
    udp_flush_pending_frames
        ip_flush_pending_frames
    udp_push_pending_frames
        ip_push_pending_frames

硬件->ip层->运输层收到数据,添加到对应的socket缓冲区中
由ip_rcv间接调用
udp_rcv
    __udp4_lib_rcv
        if(是多播或广播)
            __udp4_lib_mcast_deliver
                udp_queue_rcv_skb(对每个需要接受的udp socket缓冲调用)
        __udp4_lib_lookup
        udp_queue_rcv_skb


把数据块sk_buff放到一个sock结构的接受缓存的末尾中
udp_queue_rcv_skb
    sock_queue_rcv_skb
        skb_queue_tail

用户子上而下的读函数都间接的调用了udp_recvmsg
udp_recvmsg★
__skb_recv_datagram
skb_copy_datagram_iovec
skb_copy_and_csum_datagram_iovec

原始套接字
raw socket的写函数都调用了raw_sendmsg
raw_sendmsg★
    ip_route_output_flow
    if(设置了ip_hdrincl选项,即自己构造ip头部)
        raw_send_hdrinc★
    else
        ip_append_data
        ip_flush_pending_frames或
        ip_push_pending_frames


自底向上的收包
raw_rcv
由ip_forward调用ip_call_ra_chain,然后再调用的raw_rcv
raw_rcv
sock_queue_rcv_skb
skb_queue_tail
sk->sk_data_ready = sock_def_readable
waitqueue_active
sk_wake_async


用户子上而下的读函数都间接的调用了raw_recvmsg
raw_recvmsg★
skb_recv_datagram
__skb_recv_datagram
wait_for_packet(如果没有数据,则调用此函数等待数据)


icmp
在任何需要发送icmp报文的时候都会调用此函数
icmp_send
    __ip_route_output_key
        ip_route_output_slow
    ip_route_output_key
        ip_route_output_flow
    icmp_push_reply   
        ip_append_data
        ip_flush_pending_frames或
        ip_push_pending_frames


硬件->ip层->运输层收到icmp数据,作出处理逻辑
由ip_rcv间接调用
icmp_rcv
    完全就是icmp协议的处理逻辑,通过函数指针icmp_pointers[icmph->type].handler调用了一下函数中的某一个
    icmp_discard
    icmp_unreach
    icmp_redirect
    icmp_timestamp
    icmp_address
    icmp_address_reply
    icmp_echo


网络层
ip发送
网络层中主要的发送函数有以下三个:ip_push_pending_frames,ip_queue_xmit,raw_send_hdrinc
ip_push_pending_frames★
将所有pending状态的ip分组组合成一个ip分组,并发送
    ip_local_out


ip_queue_xmit★
    ip_route_output_flow(找路由)
    ip_local_out


raw_send_hdrinc★
    nf_hook(dst_output)


ip_local_out★
    __ip_local_out
        nf_hook(dst_output)
    dst_output

路由选择
ip_route_output_flow★
    __ip_route_output_key
        ip_route_output_slow

路由选择
ip_route_output_slow★
    fib_lookup
    ip_mkroute_output
        __mkroute_output
        rt_hash
        rt_intern_hash
            arp_bind_neighbour
                __neigh_lookup_errno
                    neigh_lookup
                    neigh_create


dst_output★
    dst->output = ip_output
    nf_hook_cond(ip_finish_output)
        dst_output
        ip_fragment
        ip_finish_output2
            neigh_hh_output
                hh->hh_output = dev_queue_xmit★
            dst->neighbour->output = neigh_resolve_output
                neigh->ops->queue_xmit = dev_queue_xmit★

ip接受
接收ipv4包,由netif_rx间接调用
ip_rcv★
    nf_hook
    ip_rcv_finish
        ip_route_input
        dst_input
            dst->input(可能是ip_local_deliver或ip_forward)
            if(是发给本地的包)
                dst->input是ip_local_deliver
                    nf_hook
                    ip_local_deliver_finish
                    ipprot->handler(可能是tcp_v4_rcv,udp_rcv,icmp_rcv,igmp_rcv)
            else
                dst->input是ip_forward

更新路由
ip_route_input★
    ip_route_input_mc(多播)
        rt_hash
        rt_intern_hash
    ip_route_input_slow(其它)
        ip_mkroute_input
            __mkroute_input
            rt_hash
            rt_intern_hash
每收到一个ip报文都会调用此函数更新路由表。ip_route_input函数的上半部分是在hash table寻找路由项,如果找到就返回。找不到才会调用后面的ip_route_input_mc或ip_route_input_slow来更新路由表。


转发
ip_forward★
ip_call_ra_chain
raw_rcv★
    xfrm4_route_forward(处理路由)
        xfrm_route_forward
            __xfrm_route_forward
                xfrm_lookup
                    __xfrm_lookup
                        xfrm_find_bundle
                            afinfo->find_bundle = __xfrm4_find_bundle
                        xfrm_bundle_create
                            xfrm_dst_lookup
                                afinfo->dst_lookup = xfrm4_dst_lookup
                                    __ip_route_output_key
                                        ip_route_output_slow★
    处理各个参数(在一定条件下发送icmp)
    ip_decrease_ttl(减少ttl)
    nf_hook(ip_forward_finish)
        dst_output


链路层
接收帧
由硬件驱动在中断处理程序中直接调用netif_rx
netif_rx★
    if(netpoll_rx函数与把数据拿走)
        return
    __skb_queue_tail(把所有收到的数据保存起来)
    napi_schedule
        __napi_schedule
            __raise_softirq_irqoff(net_rx_softirq);

在net_dev_init函数中初始化了软中断:
open_softirq(net_tx_softirq, net_tx_action, null);
open_softirq(net_rx_softirq, net_rx_action, null);
所 以net_rx_softirq中断的处理函数是net_rx_action,net_tx_softirq中断的处理函数是 net_tx_action。需要让上层接收数据时,只要触发相应的软中断,如 __raise_softirq_irqoff(net_rx_softirq)。内核就会在适当时机执行do_softirq来处理pending的软 中断。


net_rx_action★
    n->poll = process_backlog
        netif_receive_skb
            pt_prev->func = ip_rcv★(在这里完成了交接)
    __raise_softirq_irqoff(net_rx_softirq)


发送帧
dev_queue_xmit★
    rcu_read_lock_bh
    if(设备有发送队列)
        q->enqueue(将数据追加到发送队列,软中断处理函数net_tx_action会执行真正的发送工作)
    else
        dev_hard_start_xmit
            dev->hard_start_xmit = el_start_xmit★
                调用outw汇编指令发送数据,够底层了
    rcu_read_unlock_bh


net_tx_action★
    __kfree_skb(释放已发送的,此时中断由dev_kfree_skb_irq函数发起)
    qdisc_run
        __qdisc_run
qdisc_restart
                dev_hard_start_xmit★
            netif_schedule
    netif_schedule


netif_schedule★
    __netif_schedule
        raise_softirq_irqoff(net_tx_softirq) 

No comments:

Post a Comment