使用epoll進行高性能網絡編程
發表于:2007-07-04來源:作者:點擊數:
標簽:
epoll和其他技術的性能比較. 翻譯:韓紅軍。hanhj@vrlab.buaa.edu.cn ; hongjun_han@163.com 原文出自:https://www.captech.com.cn 英文原文:http://www.xmailserver.org/linux-patches/nio-improve.html 由于水平有限,錯誤在所難免,希望各位指正。 07-01
epoll和其他技術的性能比較.
翻譯:韓紅軍。hanhj@vrlab.buaa.edu.cn ; hongjun_han@163.com
原文出自:https://www.captech.com.cn
英文原文:http://www.xmailserver.org/linux-patches/nio-improve.html
由于水平有限,錯誤在所難免,希望各位指正。
07-01-2001 – 初稿 - Davide Libenzi <davidel@xmailserver.org>
10-30-2002 – epoll補丁成為Linux內核一部分。請參考這個版本的,因為這個版本將會成為標準,并得到廣泛支持Davide Libenzi <davidel@xmailserver.org>
緒論:
眼下的工作是分析不同的方法,這些方法都是用來實現從內核模式高效傳遞網絡事件到用戶模式。我們考察了五種方法:作為一種相對較好的老的方法poll ,標準/dev/poll接口,標準RT信號,RT signals with one-sig-per-fd patch,和使用很特別的通知方法的新式/dev/epoll。工作有如下四部分組成:
1) 新式 /dev/epoll 內核補丁
2) Provos-Lever修改的能夠在內核 2.4.6 工作的/dev/poll 補丁
3) HTTP server
4) 一個能夠產生“dead“連接的deadconn(tm)工具。
Httperf被采用作為度量工具,盡管不完美,但也提供了足夠的網絡負載選項。
新式 /dev/epoll 內核補?。?
這個補丁很簡單,它在struct file的數據結構里面添加了通知回調鏈表項。如下代碼段:
代碼: |
******* include/linux/fs.h struct file { ... /* 文件回調列表 */ rwlock_t f_cblock; struct list_head f_cblist; }; |
代碼: |
****include/linux/fcblist.h /* 文件回調通知事件 */ #define ION_IN 1 #define ION_OUT 2 #define ION_HUP 3 #define ION_ERR 4
#define FCB_LOCAL_SIZE 4
#define fcblist_read_lock(fp, fl) read_lock_irqsave(&(fp)->f_cblock, fl) #define fcblist_read_unlock(fp, fl) read_unlock_irqrestore(&(fp)->f_cblock, fl) #define fcblist_write_lock(fp, fl) write_lock_irqsave(&(fp)->f_cblock, fl) #define fcblist_write_unlock(fp,fl) write_unlock_irqrestore(&(fp)->f_cblock, fl)
struct fcb_struct { struct list_head lnk; void (*cbproc)(struct file *, void *, unsigned long *, long *); void *data; unsigned long local[FCB_LOCAL_SIZE]; };
extern long ion_band_table[]; extern long poll_band_table[];
static inline void file_notify_init(struct file *filep) { rwlock_init(&filep->f_cblock); INIT_LIST_HEAD(&filep->f_cblist); }
void file_notify_event(struct file *filep, long *event);
int file_notify_addcb(struct file *filep, void (*cbproc)(struct file *, void *, unsigned long *, long *), void *data);
int file_notify_delcb(struct file *filep, void (*cbproc)(struct file *, void *, unsigned long *, long *));
void file_notify_cleanup(struct file *filep); |
這些回調方法鏈就是提供一種機制,向文件系統注冊其“興趣”的上層在興趣事件發生時能夠收到底層I/O的通知。初始化和清理代碼已經加在了fs/file_table.c里,回調方法鏈處理代碼在fs/fcblist.c里面,如下所示:
代碼: |
****** fs/file_table.c struct file * get_empty_filp(void) { ... file_notify_init(f); ... }
int init_private_file(struct file *filp, struct dentry *dentry, int mode) { ... file_notify_init(filp); ... }
void fput(struct file * file) { ... file_notify_cleanup(file); ... } ****** fs/fcblist.c void file_notify_event(struct file *filep, long *event) { unsigned long flags; struct list_head *lnk;
fcblist_read_lock(filep, flags); list_for_each(lnk, &filep->f_cblist) { struct fcb_struct *fcbp = list_entry(lnk, struct fcb_struct, lnk);
fcbp->cbproc(filep, fcbp->data, fcbp->local, event); } fcblist_read_unlock(filep, flags); }
int file_notify_addcb(struct file *filep, void (*cbproc)(struct file *, void *, unsigned long *, long *), void *data) { unsigned long flags; struct fcb_struct *fcbp;
if (!(fcbp = (struct fcb_struct *) kmalloc(sizeof(struct fcb_struct), GFP_KERNEL))) return -ENOMEM; memset(fcbp, 0, sizeof(struct fcb_struct)); fcbp->cbproc = cbproc; fcbp->data = data; fcblist_write_lock(filep, flags); list_add_tail(&fcbp->lnk, &filep->f_cblist); fcblist_write_unlock(filep, flags); return 0; }
int file_notify_delcb(struct file *filep, void (*cbproc)(struct file *, void *, unsigned long *, long *)) { unsigned long flags; struct list_head *lnk;
fcblist_write_lock(filep, flags); list_for_each(lnk, &filep->f_cblist) { struct fcb_struct *fcbp = list_entry(lnk, struct fcb_struct, lnk);
if (fcbp->cbproc == cbproc) { list_del(lnk); fcblist_write_unlock(filep, flags); kfree(fcbp); return 0; } } fcblist_write_unlock(filep, flags); return -ENOENT; }
void file_notify_cleanup(struct file *filep) { unsigned long flags; struct list_head *lnk;
fcblist_write_lock(filep, flags); while ((lnk = list_first(&filep->f_cblist))) { struct fcb_struct *fcbp = list_entry(lnk, struct fcb_struct, lnk);
list_del(lnk); fcblist_write_unlock(filep, flags); kfree(fcbp); fcblist_write_lock(filep, flags); } fcblist_write_unlock(filep, flags); } |
這些回調函數會收到一個long *參數,其第一個元素是ION_*事件中的一種,下一個可以存儲額外的參數,這些額外參數的意義隨這第一個元素即事件種類的不同而不同。
這個接口只是一個草案,我使用它只是驗證傳輸方法是不是足夠高效。目前通知只在socket文件出現,如下:
代碼: |
****** include/net/sock.h static inline void sk_wake_async(struct sock *sk, int how, int band) { if (sk->socket) { if (sk->socket->file) { long event[] = { ion_band_table[band - POLL_IN], poll_band_table[band - POLL_IN], -1 };
file_notify_event(sk->socket->file, event); } if (sk->socket->fasync_list) sock_wake_async(sk->socket, how, band); } } |
文件fs/pipe.c和include/linux/pipe_fs_i.h也都被修改以擴展/dev/epoll的功能至管道(pipes pipe() )
兩個新的文件driver/char/eventpoll.c和include/linux/eventpoll.h實現了/dev/epoll。
新的/dev/epoll接口和以前的有很大的不同,因為他只是通過設備文件描述符映射,而基于效率考慮放棄了拷貝數據到用戶空間(copy-data-to-user-space),通過共享內存頁來避免不必要的拷貝數據/dev/epoll可以高效運作,理由有1)更少的CPU周期,因為不必拷貝數據,2)在現代的緩存的存儲體系架構下,有更少的內存占用(memory footprint)。
/dev/epoll實現利用新的文件回調通知機制來注冊回調方法,這些回調方法將事件存儲事件緩沖區里,初始化順序如下:
代碼: |
if ((kdpfd = open("/dev/epoll", O_RDWR)) == -1) {
} if (ioctl(kdpfd, EP_ALLOC, maxfds)) {
} if ((map = (char *) mmap(NULL, EP_MAP_SIZE(maxfds), PROT_READ, MAP_PRIVATE, kdpfd, 0)) == (char *) -1) {
} |
maxfds 能夠存儲在輪詢設備里面的最多的文件描述符數目,文件通過下面代碼注冊進興趣集里面:
代碼: |
struct pollfd pfd; pfd.fd = fd; pfd.events = POLLIN | POLLOUT | POLLERR | POLLHUP; pfd.revents = 0; if (write(kdpfd, &pfd, sizeof(pfd)) != sizeof(pfd)) { ... } |
下面代碼刪除指定的文件描述符:
代碼: |
struct pollfd pfd; pfd.fd = fd; pfd.events = POLLREMOVE; pfd.revents = 0; if (write(kdpfd, &pfd, sizeof(pfd)) != sizeof(pfd)) { ... } |
核心分派(dispatch)代碼類似下面:
代碼: |
struct pollfd *pfds; struct evpoll evp;
for (;;) { evp.ep_timeout = STD_SCHED_TIMEOUT; evp.ep_resoff = 0;
nfds = ioctl(kdpfd, EP_POLL, &evp); pfds = (struct pollfd *) (map + evp.ep_resoff); for (ii = 0; ii < nfds; ii++, pfds++) { ... } } |
驅動程序分配兩個頁面集來作為雙緩沖機制,存儲文件事件??梢詮膃p_resoff字段得知結果集在map里面的哪一塊。在使用其中一個頁面集的同時,內核可以使用另外一個存儲進來的事件們。沒有拷貝到用戶空間的麻煩,來自同一個文件的事件將被放在一個槽(slot)里面,EP_POLL函數決不會線性查找興趣集來執行file->f_ops->poll()。為了使用/dev/epoll接口,你必須使用mknod創建該文件,并且major=10 and minor=124。命令如下:
# mknod /dev/epoll c 10 124
下載補丁在下面的鏈接
epoll-lt-2.4.24-0.20.diff
Provos-Lever的/dev/poll補?。?
這個值得說的不多,修改virt_to_page()這個漏洞就可以使補丁正常工作,我修改了另外一個bug,程序為了調節哈希表大小,而試圖使用kmalloc()分配大塊內存卻不能滿足,現在使用vmalloc()來為哈希表分配內存。我修改了在CITI網站上發現的2.4.3的補丁,這個補丁應該是Provos-Lever用來使(2.2.x)升級到2.4.x的那個。你可以在如下地址下載到:
http://www.xmailserver.org/linux-patches/olddp_last.diff.gz
實時信號一個文件描述符一個信號(one-sig-per-fd)補?。?
Vitaly Luban貢獻的這個補丁實現了實時信號量,當實時信號量隊列滿了的時候,盡量避免SIGIO傳輸信息,你可以下載這個補丁如下網址:
http://www.luban.org/GPL/gpl.html
HTTP服務器:
http服務器很簡單,它使用的是事件輪詢和同步程序庫(coroutines),服務器內部的coroutine庫的實現來自如下網址:
http://www.goron.de/~froese/coro/
它很小,簡單且高效。服務器使用的默認堆棧大小為8192,當試圖有許多連接時,將造成內存浪費和虛存顛簸(vm trashing),其實4096的堆棧大小就足夠了。另外一個問題是coro庫使用mmap()方法來為堆棧分配空間,這樣當aclearcase/" target="_blank" >ccept()/close()比率較高時會損失性能,我改了這個庫(只有一個文件coro.c)讓其使用malloc()/free()而不是mmap()/munmap().每次的Http應答都一樣,應答的報文大小可以通過命令行參數設置,另外還有兩個命令行參數可以設置監聽端口和fd集的大小。你可以在如下地址下載到服務器:
ephttpd-0.2.tar.gz
老版本:
http://www.xmailserver.org/linux-patches/dphttpd_last.tar.gz
死連接工具:
如果說上面的服務器簡單,這個就更簡單了,它的目的就是給服務器制造死連接來模擬真實的負栽,這些連接都是一批的低速連接。你可以下載到:
http://www.xmailserver.org/linux-patches/deadconn_last.c
測試:
測試環境:PIII 600MHz, 128 Mb RAM, eepro100網卡連接到100Mbps快速以太網交換機上。RH 6.2,使用的內核是2.4.6, coroutine 庫的版本是1.1.0-pre2
我使用雙PIII 1GHz, 256 Mb RAM 和雙eepro100作為httperf機器,雙PIII 900 MHz, 256 Mb RAM 和雙 eepro100作為deadconn(tm)機器,因為httperf當使用較高的num-conns時占用fds空間(改為8000了)很快消失,我采用了下面的命令行:
--think-timeout 5 --timeout 5 --num-calls 2500 --num-conns 100 --hog --rate 100
這個將分配100個連接,使服務器負栽不同的死連接。我改變的另一個參數是應答報文大小有128,512和1024。另外一個更加忠實于互聯網會話就是使用一些突發連接發出HTTP請求,然后關閉,測試使用httperf,并有如下命令:
--think-timeout 5 --timeout 5 --num-calls 2 --num-conns 27000 --hog --rate 5000
每個數字都是求得三次的平均值,如下地址下載httperf:
http://www.hpl.hp.com/personal/David_Mosberger/httperf.html
javascript:window.open(this.src);" style="CURSOR: pointer" onload="return imgzoom(this,550)">
測試顯示/dev/epoll約比RT signals one-sig實現快10-12%,/dev/epoll和RT signals都保持平坦在不同的死連接負栽下。
RT-one-sig實現比簡單 實時信號實現要快一點, 但是本測試只有很少的 SIGIO.
512和1024 Content-Length 的應答報文測試表明 /dev/epoll, RT signals和RT one-sig 表現基本一致,圖中重疊在一塊了, 這是因為在本測試中以太網達到了飽和態( 100Mbps )。
這個測試表明/dev/epoll, RT signals 和RT one-sig實現在不同死連接情況下的每秒的Http應答報文一直平坦, 并且/dev/epoll大約15% 快于RT one-sig ,而RT one-sig 大約10-15% 快于簡單 RT signals.
系統調用接口( aka sys_epoll ):
事件查詢設備對于系統調用接口的需要促成了sys_epoll系統調用的實現,這個簡單接口為開發人員實現了同樣的可擴展性。新的系統調用引入了三個新的映射到用戶空間的調用:
int epoll_create(int maxfds);
int epoll_ctl(int epfd, int op, int fd, unsigned int events);
int epoll_wait(int epfd, struct pollfd *events, int maxevents, int timeout);
這些函數在他們的手冊頁面里面描述:
epoll : PSTXTMAN
epoll_create : PS TXTMAN
epoll_ctl : PSTXT MAN
epoll_wait : PSTXT MAN
實現這些系統調用的補丁在這兒. 一個新的訪問epoll ( 2.5.45 )的庫在這個可得到: epoll-lib-0.11.tar.gz
一個簡單基于管道的epoll性能測試:
pipetest
用戶空間支持epoll的庫 :
libevent
ivykis
在測試epoll過程中,做的一個 thttpd 的補丁:
thttpd.epoll.diff
結論:
這些數據顯示/dev/epoll ( and sys_epoll )提高了服務器的效率(從應答報文速率和CPU利用率角度看)。/dev/epoll的應答速率完全獨立于死連接的數目,而標準poll()和舊的/dev/poll似乎不可避免的受到影響。和標準poll()以及舊的/dev/poll相比/dev/epoll的方差也明顯小的多,這不盡使我覺得(1) 將有跟多的處理能力(2)在高負栽下有可以預見的應答速率。RT signals和RT one-sig 是現在死連接變化時也基本保持不變,并且one-sig大約比簡單RT signals快10-12% 。RT singnals實現 (即使 one-sig 較少)似乎不能適用于大量突發請求模擬真實因特網的情況,在這種情況下有大量連接處于active狀態。這是因為RT signals隊列的限制,即使打了one-sig的補丁, 也很容易填滿隊列。
鏈接:
[1] The epoll scalability page at lse.
[2] David Weekly - /dev/epoll Page
References:
[1] W. Richard Stevens - "UNIX Network Programming, Volume I: Networking APIs: Sockets and XTI, 2nd edition"
Prentice Hall, 1998.
[2] W. Richard Stevens - "TCP/IP Illustrated, Volume 1: The Protocols"
Addison Wesley professional computing series, 1994.
[3] G. Banga and J. C. Mogul - "Scalable Kernel Performance for Internet Servers Under Realistic Load"
Proceedings of the USENIX Annual Technical Conference, June 1998.
[4] G. Banga. P. Druschel. J. C. Mogul - "Better Operating System Features for Faster Network Servers"
SIGMETRICS Workshop on Internet Server Performance, June 1998.
[5] G. Banga and P. Druschel - "Measuring the Capacity of a Web Server"
Proceedings of the USENIX Symposium on Internet Technologies and Systems, December 1997.
[6] Niels Provos and Charles Lever - "Scalable Network I/O in Linux"
http://www.citi.umich.edu/techreports/reports/citi-tr-00-4.pdf
[7] Dan Kegel - "The C10K problem"
http://www.kegel.com/c10k.html
[8] Richard Gooch - "IO Event Handling Under Linux"
http://www.atnf.csiro.au/~rgooch/linux/docs/io-events.html
[9] Abhishek Chandra and David Mosberger - "Scalability of Linux Event-Dispatch Mechanisms"
http://www.hpl.hp.com/techreports/2000/HPL-2000-174.html
[10] Niels Provos and Charles Lever - "Analyzing the Overload Behaviour of a Simple Web Server"
http://www.citi.umich.edu/techreports/reports/citi-tr-00-7.ps.gz
[11] D. Mosberger and T. Jin - "httperf -- A Tool for Measuring Web Server Performance"
SIGMETRICS Workshop on Internet Server Performance, June 1998.
原文轉自:http://www.kjueaiud.com