三.編寫Linux網絡驅動程序中需要注意的問題3.1 中斷共享 Linux系統運行幾個設備共享同一個中斷。需要共享的話,在申請的時候指明共享方式。系統提供的request_irq()調用的定義:
int request_irq(unsigned int irq,
void (*handler)(int irq, void *dev_id, strUCt pt_regs *regs),
unsigned long irqflags,
const char * devname,
void *dev_id);
如果共享中斷,irqflags設置SA_SHIRQ屬性,這樣就允許別的設備申請同一個中斷。需要注意所有用到這個中斷的設備在調用request_irq()都必須設置這個屬性。系統在回調每個中斷處理程序時,可以用dev_id這個參數找到相應的設備。系統在回調每個中斷處理程序時,可以用dev_id這個參數找到相應的設備。一般dev_id就設為device結構本身。系統處理共享中斷是用各自的dev_id參數依次調用每一個中斷處理程序。
3.2 硬件發送忙時的處理 主CPU的處理能力一般比網絡發送要快,所以經常會遇到系統有數據要發,但上一包數據網絡設備還沒發送完。因為在Linux裡網絡設備驅動程序一般不做數據緩存,不能發送的數據都是通知系統發送不成功,所以必須要有一個機制在硬件不忙時及時通知系統接著發送下面的數據。
一般對發送忙的處理在前面設備的發送方法(hard_start_xmit)裡已經描述過,即如果發送忙,置tbusy為1。處理完發送數據後,在發送結束中斷裡清tbusy,同時用mark_bh()調用通知系統繼續發送。
但在具體實現我的驅動程序時發現,這樣的處理系統好象並不能及時地知道硬件已經空閒了,即在mark_bh()以後,系統要等一段時間才會接著發送。造成發送效率很低。2M線路只有10%不到的使用率。內核版本為2.0.35。
我最後的實現是不把tbusy置1,讓系統始終認為硬件空閒,但是報告發送不成功。系統會一直嘗試重發。這樣處理就運行正常了。但是遍循內核源碼中的網絡驅動程序,似乎沒有這樣處理的。不知道症結在哪裡。
3.3 流量控制(flow control) 網絡數據的發送和接收都需要流量控制。這些控制是在系統裡實現的,不需要驅動程序做工作。每個設備數據結構裡都有一個參數dev->tx_queue_len,這個參數標明發送時最多緩存的數據包。在Linux系統裡以太網設備(10/100Mbps)標明發送時最多緩存的數據包。在Linux系統裡以太網設備(10/100Mbps)tx_queue_len一般設置為100,串行線路(異步串口)為10。實際上如果看源碼可以知道,設置了dev->tx_queue_len並不是為緩存這些數據申請了空間。這個參數只是在收到協議層的數據包時判斷發送隊列裡的數據是不是到了tx_queue_len的限度,以決定這一包數據加不加進發送隊列。發送時另一個方面的流控是更高層協議的發送窗口(TCP協議裡就有發送窗口)。達到了窗口大小,高層協議就不會再發送數據。
接收流控也分兩個層次。netif_rx()緩存的數據包有限制。另外高層協議也會有一個最大的等待處理的數據量。
發送和接收流控處理在net/core/dev.c的do_dev_queue_xmit()和netif_rx()中。 更多內容請看Java依然精彩 Linux安全應用寶典 Linux防火牆專題,或