新聞中心

EEPW首頁 > 嵌入式系統(tǒng) > 設計應用 > ucos+lwip應用心得[社區(qū)]

ucos+lwip應用心得[社區(qū)]

作者: 時間:2004-12-11 來源:網(wǎng)絡 收藏
經(jīng)過幾天調(diào)試除掉幾個bug以后,+在我的44b0+8019開發(fā)板上終于跑得比較穩(wěn)定了.一只覺得是一個不錯的開放源碼的tcp/ip 協(xié)議棧,想把自己對的移植和理解寫出來.但是由于最近比較忙,lwip的移植也是利用業(yè)余時間做的,今天寫好了第一部分(lwip的 process model)先貼上來,如果大家有興趣我再接著往下寫.另外我的移植參看了skyeye揚曄大俠的代碼,大家可以去看看揚曄大俠的lwip在上移植的文章和代碼.

lwip
lwIP是瑞士計算機科學院(Swedish Institute of Computer Science)的Adam Dunkels等開發(fā)的一套用于嵌入式系統(tǒng)的開放源代碼TCP/IP協(xié)議棧。Lwip既可以移植到操作系統(tǒng)上,又可以
在無操作系統(tǒng)的情況下獨立運行.

LwIP的特性如下:
(1)支持多網(wǎng)絡接口下的IP轉(zhuǎn)發(fā)
(2)支持ICMP協(xié)議
(3)包括實驗性擴展的的UDP(用戶數(shù)據(jù)報協(xié)議)
(4)包括阻塞控制,RTT估算和快速恢復和快速轉(zhuǎn)發(fā)的TCP(傳輸控制協(xié)議)
(5)提供專門的內(nèi)部回調(diào)接口(Raw API)用于提高程序性能
(6)可選擇的Berkeley接口API(多線程情況下)
(7)在最新的版本中支持ppp
(8)新版本中增加了的IP fragment的支持.
(9)支持DHCP協(xié)議,動態(tài)分配ip地址.

現(xiàn)在網(wǎng)上最新的版本是V0.6.4
1.lwip的進程模型(process model)

tcp/ip協(xié)議棧的process model一般有幾種方式.

1.tcp/ip協(xié)議的每一層是一個單獨進程.鏈路層是一個進程,ip層是一個進科匯程,tcp層是一個進程.這樣的好處是網(wǎng)絡協(xié)
議的每一層都非常清晰,代碼的調(diào)試和理解都非常容易.但是最大的壞處數(shù)據(jù)跨層傳遞時會引起上下文切換(context switch).
對于接收一個TCP segment要引起3次context switch(從網(wǎng)卡驅(qū)動程序到鏈路層進程,從鏈路層進程到ip層進程,從ip層進程
到TCP進程).通常對于操作系統(tǒng)來說,任務切換是要浪費時間的.過頻的context swich是不可取的.

2.另外一種方式是TCP/IP協(xié)議棧在操作系統(tǒng)內(nèi)核當中.程序通過操作系統(tǒng)的系統(tǒng)調(diào)用(system call)和協(xié)議棧來進行通訊.
這樣TCP/IP的協(xié)議棧就限定于特定的操作系統(tǒng)內(nèi)核了.如windows就是這種方式.
3.lwip的process model:所有tcp/ip協(xié)議棧都在一個進程當中,這樣tcp/ip協(xié)議棧就和操作系統(tǒng)內(nèi)核分開了.而應用層程序既可以
是單獨的進程也可以駐留在tcp/ip進程中.如果應用程序是單獨的進程可以通過操作系統(tǒng)的郵箱,消息隊列等和tcp/ip進程進行通訊.

如果應用層程序駐留tcp/ip進程中,那應用層程序就利用內(nèi)部回調(diào)函數(shù)口(Raw API)和tcp/ip協(xié)議棧通訊.對于來說進程就是一個系統(tǒng)任務.lwip的process model請參看下圖.在圖中可以看到整個tcp/ip協(xié)議棧都在同一個任務(tcpip_thread)中.應用層程序既可以是獨立的任務(如圖中的tftp_thread,tcpecho_thread),也可以在tcpip_thread中(如圖左上角)中利用內(nèi)部回調(diào)函數(shù)口(Raw API)和tcp/ip協(xié)議棧通訊

2 Port Lwip to uCos

在這個項目中我用的硬件平臺是s3c44b0x+rtl8019.ucos在44b0上的移植在網(wǎng)上有很多大俠非常詳盡的講解和移植代碼.我就不敢羅嗦了.需要說明的一點是lwip會為每個網(wǎng)絡連接動態(tài)分配一些信號量(semaphone)和消息隊列(Message Queue),當連接斷開時會刪掉這些semaphone和Queue.而Ucos-2.0不支持semaphone和Queue的刪除,所以要選擇一些較高版本的ucos.我用的是ucos-2.51.


2.1 Lwip的操作系統(tǒng)封裝層(operating system.emulation layer)

Lwip為了適應不同的操作系統(tǒng),在代碼中沒有使用和某一個操作系統(tǒng)相關的系統(tǒng)調(diào)用和數(shù)據(jù)結(jié)構(gòu).而是在lwip和操作系統(tǒng)之間增加了一個操作系統(tǒng)封裝層.操作系統(tǒng)封裝層為操作系統(tǒng)服務(定時,進程同步,消息傳遞)提供了一個統(tǒng)一的接口.在lwip中進程同步使用semaphone和消息傳遞采用”mbox”(其實在ucos的實現(xiàn)中我們使用的是Message Queue來實現(xiàn)lwip中的”mbox”,下面大家可以看到這一點)

Operating system emulation layer的原代碼在…/lwip/src/core/sys.c中.而和具體的操作系統(tǒng)相關的代碼在../lwip/src/arch/sys_arch.c中.
操作系統(tǒng)封裝層的主要函數(shù)如下:
void sys_init(void)//系統(tǒng)初始化
sys_thread_t sys_thread_new(void (* function)(void *arg), void *arg,int prio)//創(chuàng)建一個新進程
sys_mbox_t sys_mbox_new(void)//創(chuàng)建一個郵箱
voidsys_mbox_free(sys_mbox_t mbox)//釋放并刪除一個郵箱
voidsys_mbox_post(sys_mbox_t mbox, void *data) //發(fā)送一個消息到郵箱
void sys_mbox_fetch(sys_mbox_t mbox, void **msg)//等待郵箱中的消息
sys_sem_t sys_sem_new(u8_t count)//創(chuàng)建一個信號量
void sys_sem_free(sys_sem_t sem)//釋放并刪除一個信號量
void sys_sem_signal(sys_sem_t sem)//發(fā)送一個信號量
void sys_sem_wait(sys_sem_t sem)//等待一個信號量
void sys_timeout(u32_t msecs, sys_timeout_handler h, void *arg)//設置一個超時事件
void sys_untimeout(sys_timeout_handler h, void *arg)//刪除一個超時事件

關于操作系統(tǒng)封裝層的信息可以閱讀lwip的doc目錄下面的sys_arch.txt.文件.

2.2 Lwip在ucos上的移植.

2.2.1 系統(tǒng)初始化

sys_int必須在tcpip協(xié)議棧任務tcpip_thread創(chuàng)建前被調(diào)用.
#define MAX_QUEUES20
#define MAX_QUEUE_ENTRIES20
typedef struct {
OS_EVENT*pQ;//ucos中指向事件控制塊的指針
void*pvQEntries[MAX_QUEUE_ENTRIES];//消息隊列
//MAX_QUEUE_ENTRIES消息隊列中最多消息數(shù)
} TQ_DESCR, *PQ_DESCR;
typedef PQ_DESCRsys_mbox_t;//可見lwip中的mbox其實是ucos的消息隊列
static char pcQueueMemoryPool[MAX_QUEUES * sizeof(TQ_DESCR) ];
void sys_init(void)
{
u8_t i;
s8_tucErr;
pQueueMem = OSMemCreate( (void*)pcQueueMemoryPool, MAX_QUEUES, sizeof(TQ_DESCR), ucErr );//為消息隊列創(chuàng)建內(nèi)存分區(qū)
//init lwip task prio offset
curr_prio_offset = 0;
//init lwip_timeouts for every lwip task
//初始化lwip定時事件表,具體實現(xiàn)參考下面章節(jié)
for(i=0;iLWIP_TASK_MAX;i++){
lwip_timeouts[i].next = NULL;
}
}
2.2.2 創(chuàng)建一個和tcp/ip相關新進程:
lwip中的進程就是ucos中的任務,創(chuàng)建一個新進程的代碼如下:
#define LWIP_STK_SIZE10*1024//和tcp/ip相關任務的堆棧大小.可以根據(jù)情況自
//己設置,44b0開發(fā)板上有8M的sdram,所以設大
//一點也沒有關系:)
//max number of lwip tasks
#define LWIP_TASK_MAX5 //和tcp/ip相關的任務最多數(shù)目
//first prio of lwip tasks
#define LWIP_START_PRIO5 //和tcp/ip相關任務的起始優(yōu)先級,在本例中優(yōu)先級可
//以從(5-9).注意tcpip_thread在所有tcp/ip相關進程中//應該是優(yōu)先級最高的.在本例中就是優(yōu)先級5
//如果用戶需要創(chuàng)建和tcp/ip無關任務,如uart任務等,
//不要使用5-9的優(yōu)先級
OS_STK LWIP_TASK_STK[LWIP_TASK_MAX][LWIP_STK_SIZE];//和tcp/ip相關進程
//的堆棧區(qū)
u8_t curr_prio_offset ;
sys_thread_t sys_thread_new(void (* function)(void *arg), void *arg,int prio)
{
if(curr_prio_offset LWIP_TASK_MAX){
OSTaskCreate(function,(void*)0x1111, LWIP_TASK_STK[curr_prio_offset][LWIP_STK_SIZE-1],
LWIP_START_PRIO+curr_prio_offset );
curr_prio_offset++;
return 1;
} else {
// PRINT(" lwip task prio out of range ! error! ");
}
}
從代碼中可以看出tcpip_thread應該是最先創(chuàng)建的.

2.2.3 Lwip中的定時事件

在tcp/ip協(xié)議中很多時候都要用到定時,定時的實現(xiàn)也是tcp/ip協(xié)議棧中一個重要的部分.lwip中定時事件的數(shù)據(jù)結(jié)構(gòu)如下.
struct sys_timeout {
struct sys_timeout *next;//指向下一個定時結(jié)構(gòu)
u32_t time;//定時時間
sys_timeout_handler h;//定時時間到后執(zhí)行的函數(shù)
void *arg;//定時時間到后執(zhí)行函數(shù)的參數(shù).
};
struct sys_timeouts {
struct sys_timeout *next;
};
struct sys_timeouts lwip_timeouts[LWIP_TASK_MAX];
Lwip中的定時事件表的結(jié)構(gòu)如下圖,每個和tcp/ip相關的任務的一系列定時事件組成一個單向鏈表.每個鏈表的起始指針存在lwip_timeouts的對應表項中.

函數(shù)sys_arch_timeouts返回對應于當前任務的指向定時事件鏈表的起始指針.該指針存在lwip_timeouts[MAX_LWIP_TASKS]中.
struct sys_timeouts null_timeouts;
struct sys_timeouts * sys_arch_timeouts(void)
{
u8_t curr_prio;
s16_t err,offset;
OS_TCB curr_task_pcb;
null_timeouts.next = NULL;
//獲取當前任務的優(yōu)先級
err = OSTaskQuery(OS_PRIO_SELF,curr_task_pcb);
curr_prio = curr_task_pcb.OSTCBPrio;
offset = curr_prio - LWIP_START_PRIO;
//判斷當前任務優(yōu)先級是不是tcp/ip相關任務,優(yōu)先級5-9
if(offset 0 || offset >= LWIP_TASK_MAX)
{
return null_timeouts;
}
return lwip_timeouts[offset];
}

注意:楊曄大俠移植的代碼在本函數(shù)有一個bug.楊曄大俠的移植把上面函數(shù)中的OS_TCB curr_task_tcb定義成了全局變量,使本函數(shù)成為了一個不可重入函數(shù).我也是在進行如下測試時發(fā)現(xiàn)了這個bug.我的開發(fā)板上設置的ip地址是192.168.1.95.我在windows的dos窗口內(nèi)運行

ping 192.168.1.95 Cl 2000 Ct,不間斷用長度為2000的數(shù)據(jù)報進行ping測試,同時使用tftp客戶端軟件給192.168.1.95下載一個十幾兆程序,同時再使用telnet連接192.168.1.95端口7(echo端口),往該端口寫數(shù)測試echo功能.

在運行一段時間以后,開發(fā)板進入不再響應.我當時也是經(jīng)過長時間的分析才發(fā)現(xiàn)是因為在低優(yōu)先級任務運行ys_arch_timeouts()時被高優(yōu)先級任務打斷改寫了curr_task_tcb的值,從而使sys_arch_timeouts返回的指針錯誤,進而導致系統(tǒng)死鎖.函數(shù)sys_timeout給當前任務增加一個定時事件:
void sys_timeout(u32_t msecs, sys_timeout_handler h, void *arg)
{
struct sys_timeouts *timeouts;
struct sys_timeout *timeout, *t;
timeout = memp_malloc(MEMP_SYS_TIMEOUT);//為定時事件分配內(nèi)存
if (timeout == NULL) {
return;
}
timeout->next = NULL;
timeout->h = h;
timeout->arg = arg;
timeout->time = msecs;
timeouts = sys_arch_timeouts();//返回當前任務定時事件鏈表起始指針
if (timeouts->next == NULL) {//如果鏈表為空直接增加該定時事件
timeouts->next = timeout;
return;
}
//如果鏈表不為空,對定時事件進行排序.注意定時事件中的time存儲的是本事件
//時間相對于前一事件的時間的差值
if (timeouts->next->time > msecs) {
timeouts->next->time -= msecs;
timeout->next = timeouts->next;
timeouts->next = timeout;
} else {
for(t = timeouts->next; t != NULL; t = t->next) {
timeout->time -= t->time;
if (t->next == NULL ||
t->next->time > timeout->time) {
if (t->next != NULL) {
t->next->time -= timeout->time;
}
timeout->next = t->next;
t->next = timeout;
break;
}
}
}
}
函數(shù)sys_untimeout從當前任務定時事件鏈表中刪除一個定時事件
void sys_untimeout(sys_timeout_handler h, void *arg)
{
struct sys_timeouts *timeouts;
struct sys_timeout *prev_t, *t;
timeouts = sys_arch_timeouts();//返回當前任務定時事件鏈表起始指針
if (timeouts->next == NULL)//如果鏈表為空直接返回
{
return;
}
//查找對應定時事件并從鏈表中刪除.
for (t = timeouts->next, prev_t = NULL; t != NULL; prev_t = t, t = t->next)
{
if ((t->h == h) (t->arg == arg))
{
/* We have a match */
/* Unlink from previous in list */
if (prev_t == NULL)
timeouts->next = t->next;
else
prev_t->next = t->next;
/* If not the last one, add time of this one back to next */
if (t->next != NULL)
t->next->time += t->time;
memp_free(MEMP_SYS_TIMEOUT, t);
return;
}
}
return;
}
2.2.3“mbox”的實現(xiàn):

(1)mbox的創(chuàng)建
sys_mbox_t sys_mbox_new(void)
{
u8_tucErr;
PQ_DESCRpQDesc;
//從消息隊列內(nèi)存分區(qū)中得到一個內(nèi)存塊
pQDesc = OSMemGet( pQueueMem, ucErr );
if( ucErr == OS_NO_ERR ) {
//創(chuàng)建一個消息隊列
pQDesc->pQ=OSQCreate((pQDesc->pvQEntries[0]), MAX_QUEUE_ENTRIES );
if( pQDesc->pQ != NULL ) {
return pQDesc;
}
}
return SYS_MBOX_NULL;
}

(2)發(fā)一條消息給”mbox”
const void * const pvNullPointer = 0xffffffff;
void sys_mbox_post(sys_mbox_t mbox, void *data)
{
INT8U err;
if( !data )
data = (void*)pvNullPointer;
err= OSQPost( mbox->pQ, data);
}
在ucos中,如果OSQPost (OS_EVENT *pevent, void *msg)中的msg==NULL 會返回一條OS_ERR_POST_NULL_PTR錯誤.而在lwip中會調(diào)用sys_mbox_post(mbox,NULL)發(fā)送一條空消息,我們在本函數(shù)中把NULL變成一個常量指針0xffffffff.

(3)從”mbox”中讀取一條消息
#define SYS_ARCH_TIMEOUT 0xffffffff
void sys_mbox_fetch(sys_mbox_t mbox, void **msg)
{
u32_t time;
struct sys_timeouts *timeouts;
struct sys_timeout *tmptimeout;
sys_timeout_handler h;
void *arg;
again:
timeouts = sys_arch_timeouts();////返回當前任務定時事件鏈表起始指針
if (!timeouts || !timeouts->next) {//如果定時事件鏈表為空
sys_arch_mbox_fetch(mbox, msg, 0);//無超時等待消息
} else {
if (timeouts->next->time > 0) {
//如果超時事件鏈表不為空,而且第一個超時事件的time !=0
//帶超時等待消息隊列,超時時間等于超時事件鏈表中第一個超時事件的time,
time = sys_arch_mbox_fetch(mbox, msg, timeouts->next->time);
//在后面分析中可以看到sys_arch_mbox_fetch調(diào)用了ucos中的OSQPend系統(tǒng)調(diào)
//用從消息隊列中讀取消息.
//如果”mbox”消息隊列不為空,任務立刻返回,否則任務進入阻塞態(tài).
//需要重點說明的是sys_arch_mbox_fetch的返回值time:如果sys_arch_mbox_fetch
//因為超時返回,time=SYS_ARCH_TIMEOUT,
//如果sys_arch_mbox_fetch因為收到消息而返回,
//time = 收到消息時刻的時間-執(zhí)行sys_arch_mbox_fetch時刻的時間,單位是毫秒
//由于在ucos中任務調(diào)用OSQPend系統(tǒng)調(diào)用進入阻塞態(tài),到收到消息重新開始執(zhí)行
//這段時間沒有記錄下來,所以我們要簡單修改ucos的源代碼.(后面我們會看到).
} else {
//如果定時事件鏈表不為空,而且第一個定時事件的time ==0,表示該事件的定時
//時間到
time = SYS_ARCH_TIMEOUT;
}
if (time == SYS_ARCH_TIMEOUT) {
//一個定時事件的定時時間到
tmptimeout = timeouts->next;
timeouts->next = tmptimeout->next;
h = tmptimeout->h;
arg = tmptimeout->arg;
memp_free(MEMP_SYS_TIMEOUT, tmptimeout);
//從內(nèi)存中釋放該定時事件,并執(zhí)行該定時事件中的函數(shù)
if (h != NULL) {
h(arg);
}
//因為定時事件中的定時時間到或者是因為sys_arch_mbo_fetch超時到而執(zhí)行到
//這里,返回本函數(shù)開頭重新等待mbox的消息
goto again;
} else {
//如果sys_arch_mbox_fetch無超時收到消息返回
//則刷新定時事件鏈表中定時事件的time值.
if (time = timeouts->next->time) {
timeouts->next->time -= time;
} else {
timeouts->next->time = 0;
}
}

}
}

u32_tsys_arch_mbox_fetch(sys_mbox_t mbox, void **data, u32_t timeout)
{
u32_tucErr;
u16_t ucos_timeout;
//在 lwip中 ,timeout的單位是ms
// 在ucosII ,timeout 的單位是timer tick
ucos_timeout = 0;
if(timeout != 0){
ucos_timeout = (timeout )*( OS_TICKS_PER_SEC/1000);
if(ucos_timeout 1)
ucos_timeout = 1;
else if(ucos_timeout > 65535)
ucos_timeout = 65535;
}
//如果data!=NULL就返回消息指針,
if(data != NULL){
*data = OSQPend( mbox->pQ, (u16_t)ucos_timeout, ucErr );
}else{
OSQPend(mbox->pQ,(u16_t)ucos_timeout,ucErr);
}
//這里修改了ucos中的OSQPend系統(tǒng)調(diào)用,
//原來的void*OSQPend (OS_EVENT *pevent, INT16U timeout, INT8U *err)
// err的返回值只有兩種:收到消息就返回OS_NO_ERR,超時則返回OS_TIMEOUT
//這里先將err從8位數(shù)據(jù)改變成了16位數(shù)據(jù) OSQPend(*pevent,timeout, INT16U *err)
//重新定義了OS_TIMEOUT
//在ucos中原有#define OS_TIMEOUT 20
//改為 #defineOS_TIMEOUT-1
//err返回值的意義也改變了,如果超時返回OS_TIMEOUT
// 如果收到消息,則返回OSTCBCur->OSTCBDly修改部分代碼如下
//if (msg != (void *)0) { /* Did we get a message?*/
// OSTCBCur->OSTCBMsg = (void *)0;
// OSTCBCur->OSTCBStat= OS_STAT_RDY;
// OSTCBCur->OSTCBEventPtr = (OS_EVENT *)0;
// *err = OSTCBCur->OSTCBDly;// zhangzs @2003.12.12
//OS_EXIT_CRITICAL();
// return (msg);/* Return message received */
//}
//關于ucos的OSTBCur->OSTCBDly的含義請查閱ucos的書籍
if( ucErr == OS_TIMEOUT ) {
timeout = SYS_ARCH_TIMEOUT;
} else {
if(*data == (void*)pvNullPointer )
*data = NULL;
//單位轉(zhuǎn)換,從ucos tick->ms
timeout = (ucos_timeout -ucErr)*(1000/ OS_TICKS_PER_SEC);
}
return timeout;
}
semaphone的實現(xiàn)和mbox類似,這里就不再重復了.

---

tcp/ip相關文章:tcp/ip是什么




評論


相關推薦

技術(shù)專區(qū)

關閉