www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁(yè) > 模擬 > 模擬
[導(dǎo)讀]在深入研究主動(dòng)形狀模型(Active Shape Model,ASM)的基礎(chǔ)上,提出了一種在ASM中結(jié)合特征點(diǎn)的鄰域Gabor信息進(jìn)行局部紋理建模的方法,并改進(jìn)了搜索策略。實(shí)驗(yàn)結(jié)果表明,該方法與傳統(tǒng)ASM定位方法相比提高了特征定位的精度。

臉部特征定位,即在圖像或圖像序列的給定區(qū)域內(nèi)搜索部分或所有人臉特征(如眼、鼻、嘴、耳等)的位置、關(guān)鍵點(diǎn)或輪廓線。其中包括眼睛、鼻子、嘴巴、下頜、耳朵以及人臉外輪廓等所有需要提取特征點(diǎn)的位置。臉部特征定位可以為人臉識(shí)別、姿態(tài)表情分析、人臉跟蹤等研究工作提供重要的幾何信息,特征定位的準(zhǔn)確與否直接關(guān)系到后續(xù)應(yīng)用的可靠性因而具有舉足輕重的地位。
    ASM(Active Shape Models)是基于幾何形狀信息的方法之一,由Cootes等于1992年提出。它采用點(diǎn)分布模型(Point Distribution Model,PDM)描述形狀變化,另一方面計(jì)算各特征點(diǎn)法線方向上灰度值的一階偏導(dǎo),并建立局部紋理模型。在搜索時(shí)通過(guò)紋理模型得到當(dāng)前點(diǎn)的最佳匹配位置,然后調(diào)節(jié)形狀模型,最終達(dá)到對(duì)特征的精確定位。由于匹配準(zhǔn)則的問(wèn)題ASM容易陷入局部極小點(diǎn),對(duì)于初始位置要求比較高。
    Wiskott等將Gabor小波用于人臉識(shí)別領(lǐng)域,提出了彈性圖的概念并用于臉部特征的定位。該方法可以適用于一定程度的姿態(tài)及表情變化,實(shí)踐證明是有效的。由于該方法在搜索時(shí)需要在整幅圖上尋找特征點(diǎn)的最佳匹配位置,這一過(guò)程十分費(fèi)時(shí),計(jì)算量也很大。Jiao等使用Gabor小波提取局部紋理特征,Gabor特征的幅值與相位包含了豐富的人臉局部紋理信息,在搜索時(shí)可以提供指導(dǎo)。由進(jìn)一步的研究分析可知,不僅特征點(diǎn)的Gabor系數(shù)特征包含局部紋理的有用信息,特征點(diǎn)周?chē)徲蛑懈鼽c(diǎn)的Gabor系數(shù)特征也是很有用的?;诖?,提出了一種基于局部信息的臉部特征定位方法RGASM(Region GaborASM)。

1 標(biāo)準(zhǔn)ASM介紹
1.1 形狀建模

    如圖1所示,在ASM中目標(biāo)形狀用分布在臉輪廓、眼睛及嘴等位置處的一組點(diǎn)的坐標(biāo)來(lái)表示,同類(lèi)目標(biāo)形狀構(gòu)成一個(gè)訓(xùn)練集。為了描述訓(xùn)練集中各形狀相對(duì)于平均形狀的變化,需要建立一個(gè)點(diǎn)分布模型(PDM)。該模型給出訓(xùn)練集中各形狀的平均形狀,同時(shí)提供一些參數(shù),通過(guò)調(diào)整這些參數(shù)可以控制形狀的變化。

    訓(xùn)練集中的形狀矢量數(shù)學(xué)的表示為X=[x1,x2,…,xn,yl,y2,…,yn]T,通過(guò)Procrustes方法將訓(xùn)練集中所有形狀進(jìn)行對(duì)齊,然后對(duì)形狀矢量進(jìn)行主成分分析,得到
    X=X+Pb (1)
    其中,X是平均形狀,P是特征向量矩陣,b是形狀參數(shù)。
    矢量b定義了一組形狀參數(shù),可以通過(guò)改變b中的元素值使式(1)中的形狀變化。為了使變化后的形狀近似于訓(xùn)練集中的形狀,應(yīng)該將b中元素值的變化范圍加以限制。
1.2 局部紋理模型
   
局部紋理模型用來(lái)描述每個(gè)特征點(diǎn)周?chē)鷧^(qū)域的紋理特征,ASM的紋理模型是通過(guò)統(tǒng)計(jì)在特征點(diǎn)所在位置處法線方向采樣所得的灰度剖面的一階差分的變化得到的。
    對(duì)于第i幅圖像的第j個(gè)特征點(diǎn),在其法線方向采樣得到灰度剖面gij,計(jì)算得到訓(xùn)練集中所有圖像對(duì)于第j個(gè)特征點(diǎn)的灰度剖面gij(i=l,2,…,N),將它們歸一化并求得平均值gi以及方差矩陣Si,從而建立局部紋理模型。
1.3 搜索過(guò)程
   
采用1.1節(jié)和1.2節(jié)中方法,可以訓(xùn)練出一個(gè)靈活的形狀模型及局部紋理模型。利用它們可以對(duì)新的人臉圖像進(jìn)行特征點(diǎn)搜索,搜索過(guò)程的示意圖,如圖2所示。

    其中關(guān)鍵是求解達(dá)到最佳位置的偏移量。搜索時(shí),同樣沿法線方向采樣得到比建模時(shí)長(zhǎng)的搜索剖面,在其中尋找與該點(diǎn)對(duì)應(yīng)的灰度模型的均值矢量最匹配的子特征矢量,并將該子特征矢量中心位置作為當(dāng)前點(diǎn)的最佳匹配位置。目標(biāo)函數(shù)為子特征矢量gs與該點(diǎn)對(duì)應(yīng)模型的均值矢量gj的Mahalanobis距離

   
    分析可知,在當(dāng)前位置處搜索當(dāng)前點(diǎn)的最佳匹配位置就需要使得fj(gs)取得最小值。
    根據(jù)以上所述,在搜索時(shí)通過(guò)紋理模型得到當(dāng)前點(diǎn)的最佳匹配位置,然后調(diào)節(jié)紋理模型,通過(guò)不斷的迭代直到形狀的改變量可以忽略不計(jì)為止。

2 基于Gabor小波變換的臉部特征定位方法
2.1 利用Gabor小波變換提取局部紋理特征

    1964,年,Gabor提出了著名的以自己名字命名的Gabor函數(shù),它是高斯函數(shù)在頻域中的平移,能夠同時(shí)在時(shí)域和頻域中很好的兼顧對(duì)信號(hào)分析的分辨率要求。二維Gabor函數(shù)較好的描述了哺乳動(dòng)物初級(jí)視覺(jué)系統(tǒng)對(duì)簡(jiǎn)單視覺(jué)神經(jīng)元的感受特性。Daugman于上世紀(jì)80年代首次將其應(yīng)用在計(jì)算機(jī)視覺(jué)領(lǐng)域。
    二維Gabor函數(shù)表達(dá)形式為


    選擇5個(gè)不同頻率,v=O,…,4及8個(gè)方向μ=0,…,7,從而得到40個(gè)不同的Gabor濾波器j=μ+8v。式(7)括號(hào)中的第二項(xiàng)可以使該小波核與直流分量無(wú)關(guān),即可以消除積分項(xiàng)這使得濾波器對(duì)圖像光照不均的魯棒性較好。
    對(duì)圖像I(x)中的一點(diǎn)x=(x,y),定義該點(diǎn)灰度值與Gabor。函數(shù)的卷積為

    
    依次用不同頻率與方向組合成的40個(gè)Gabor函數(shù)進(jìn)行卷積得到40個(gè)復(fù)系數(shù),稱(chēng)它們?yōu)橐粋€(gè)Jet,記作Jj=ajexp(iφj),用它來(lái)表示局部紋理特征。其中幅值aj(x)部分隨著x的變化緩慢變化,相位部分φj(x)以與Gabor核頻率相近的速度旋轉(zhuǎn)。

2.2 紋理建模
   
對(duì)于訓(xùn)練集中每幅人臉圖像,筆者定義了一組特征點(diǎn),Pi(i=1,2,…,n),n是特征點(diǎn)的個(gè)數(shù)(選取了58個(gè))。對(duì)于每個(gè)點(diǎn),Gabor特征計(jì)算方法如下
    以第i幅圖第j個(gè)特征點(diǎn)為中心在其周?chē)x取一個(gè)半徑為4的圓形鄰域Rij,這里i=1,2,…,N,N為訓(xùn)練集中圖像的個(gè)數(shù),j=1,2,…,n,n是特征點(diǎn)的個(gè)數(shù),計(jì)算該區(qū)域內(nèi)每個(gè)點(diǎn)對(duì)應(yīng)的Gabor Jet,將這些Jet連接合成一個(gè)新的復(fù)矢量JetL,J’ij作為該點(diǎn)的局部特征。假設(shè)第j個(gè)點(diǎn)對(duì)應(yīng)的J’ij(i=1,…,N)服從多變量高斯分布,求其均值為

   
    從而用每個(gè)均值來(lái)代替表示所有的J’ij。
2.3 搜索過(guò)程
   
搜索與標(biāo)準(zhǔn)ASM的搜索過(guò)程類(lèi)似,只是在估計(jì)當(dāng)前點(diǎn)的偏移量時(shí)有所不同。當(dāng)前點(diǎn)偏移量的估計(jì)采取在特征點(diǎn)當(dāng)前位置周?chē)K進(jìn)行全搜索的方法,具體做法如下:以當(dāng)前Pi點(diǎn)為中心在其周?chē)∫粋€(gè)大小為16×16的方形鄰域Rei,采用與建模時(shí)相同方法計(jì)算鄰域中每個(gè)點(diǎn)處的特征復(fù)矢量Jjs(s=1,…,256)。在Jjs中搜索與該點(diǎn)模型相似度最大的,并將對(duì)應(yīng)點(diǎn)的位置作為當(dāng)前點(diǎn)的新位置。選取的判定準(zhǔn)則為

   
    可知,只需使上式中f(s)取得最小值便可以獲得當(dāng)前點(diǎn)Pj的偏移量dxj。相同的方法計(jì)算得到各點(diǎn)的偏移量,從而得到形狀的改變量dx。


3 實(shí)驗(yàn)結(jié)果及分析
   
為了測(cè)試文中提出的方法RGASM的有效性,將它與ASM方法進(jìn)行比較。這里所用的人臉庫(kù)是IMM庫(kù),從庫(kù)中挑選了每人兩幅共80幅人臉圖像作為訓(xùn)練集。圖像的大小為640×480,每幅圖已經(jīng)進(jìn)行了特征點(diǎn)的人工標(biāo)定。特征點(diǎn)個(gè)數(shù)為58個(gè),分布在眉毛、眼睛、鼻子、嘴以及外輪廓部位。
    這里分別做兩種誤差估計(jì),一種是針對(duì)單幅圖像的偏差估計(jì),計(jì)算給定圖像中搜索得到的特征點(diǎn)位置與對(duì)應(yīng)的人工標(biāo)定位置的偏移量。如圖4所示,x坐標(biāo)為特征點(diǎn)搜索所得位置與目標(biāo)位置的平均偏移量(以像素為單位),y坐標(biāo)為偏移量為對(duì)應(yīng)值的特征點(diǎn)個(gè)數(shù)占圖像中特征點(diǎn)總數(shù)的百分比。

    從圖4可以看出,通過(guò)RGASM方法得到的定位結(jié)果在平均誤差上小于ASM的平均定位誤差,方差也較小,算法對(duì)各特征點(diǎn)定位效果均衡。因此,與ASM方法相比,采用RGASM方法進(jìn)行特征定位可以在單幅圖像的特征點(diǎn)意義上取得好的定位效果。
    另一種是針對(duì)整個(gè)測(cè)試集的平均偏差估計(jì),度量準(zhǔn)則為歐式距離

   
    其中N為測(cè)試圖像的個(gè)數(shù),n為標(biāo)定特征點(diǎn)的個(gè)數(shù),這里N取值為30,為58。(xij,yij)表示在第i幅測(cè)試圖像中的j個(gè)標(biāo)定點(diǎn)人工標(biāo)定的位置,而(x’ij,y’ij)為搜索得到的位置坐標(biāo)。

    表l給出了RGASM方法與ASM方法在特征定位上的效果比較情況。該測(cè)試說(shuō)明在訓(xùn)練集較小時(shí)RGASM方法在定位精度上與ASM相比具有一定的優(yōu)勢(shì)。
    測(cè)試是在CPU為Pentium(R)43.0 GHz的計(jì)算機(jī)上完成的,采用標(biāo)準(zhǔn)ASM方法處理一幅圖像的平均時(shí)間為0.2~0.4 s,文中的RGASM方法的平均時(shí)間為0.6~0.9 s??梢钥闯?,文中提出的方法是有效、可行的。

4 結(jié)束語(yǔ)
    文中提出了一種基于局部紋理信息的臉部特征定位方法,在紋理建模時(shí)對(duì)特征點(diǎn)及其給定鄰域各點(diǎn)均做Gabor變換以作為該特征點(diǎn)的局部紋理特征,然后采用統(tǒng)計(jì)方法進(jìn)行局部紋理建模,搜索時(shí)采用在當(dāng)前位置周?chē)K進(jìn)行全搜索的方法進(jìn)行特征的搜索定位。實(shí)驗(yàn)結(jié)果表明,該方法是一種有效的臉部特征定位方法。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專(zhuān)欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

成都2022年10月19日 /美通社/ -- 近期,平安養(yǎng)老險(xiǎn)積極籌備個(gè)人養(yǎng)老金的產(chǎn)品設(shè)計(jì)和系統(tǒng)開(kāi)發(fā)工作,發(fā)展多樣化的養(yǎng)老金融產(chǎn)品,推動(dòng)商業(yè)養(yǎng)老保險(xiǎn)、個(gè)人養(yǎng)老金、專(zhuān)屬商業(yè)養(yǎng)老保險(xiǎn)等產(chǎn)品供給。 搭養(yǎng)老政策東風(fēng) ...

關(guān)鍵字: 溫度 BSP 東風(fēng) 大眾

廣東佛山2022年10月19日 /美通社/ -- 空間是人居生活的基礎(chǔ)單元,承載著生存與活動(dòng)的最基本功能。而對(duì)于理想空間的解構(gòu)意義卻在物理性容器之外,體現(xiàn)出人們對(duì)于空間和生活深層關(guān)系的思考,同時(shí)也塑造著人與空間的新型連接...

關(guān)鍵字: 溫度 BSP 智能化 進(jìn)程

上海2022年10月19日 /美通社/ -- 10月17日晚間,安集科技披露業(yè)績(jī)預(yù)告。今年前三季度,公司預(yù)計(jì)實(shí)現(xiàn)營(yíng)業(yè)收入7.54億元至8.33億元,同比增長(zhǎng)60.24%至77.03%;歸母凈利潤(rùn)預(yù)計(jì)為1.73億...

關(guān)鍵字: 電子 安集科技 BSP EPS

北京2022年10月19日 /美通社/ -- 10月18日,北京市經(jīng)濟(jì)和信息化局發(fā)布2022年度第一批北京市市級(jí)企業(yè)技術(shù)中心創(chuàng)建名單的通知,諾誠(chéng)健華正式獲得"北京市企業(yè)技術(shù)中心"認(rèn)定。 北京市企業(yè)技...

關(guān)鍵字: BSP ARMA COM 代碼

北京2022年10月18日 /美通社/ -- 10月14日,國(guó)際數(shù)據(jù)公司(IDC)發(fā)布《2022Q2中國(guó)軟件定義存儲(chǔ)及超融合市場(chǎng)研究報(bào)告》,報(bào)告顯示:2022年上半年浪潮超融合銷(xiāo)售額同比增長(zhǎng)59.4%,近5倍于...

關(guān)鍵字: IDC BSP 數(shù)字化 數(shù)據(jù)中心

上海2022年10月18日 /美通社/ -- 2022年9月5日,是首都銀行集團(tuán)成立60周年的紀(jì)念日。趁著首都銀行集團(tuán)成立60周年與首都銀行(中國(guó))在華深耕經(jīng)營(yíng)12年的“大日子”,圍繞作為外資金融機(jī)構(gòu)對(duì)在華戰(zhàn)略的構(gòu)想和業(yè)...

關(guān)鍵字: 數(shù)字化 BSP 供應(yīng)鏈 控制

東京2022年10月18日  /美通社/ -- NIPPON EXPRESS HOLDINGS株式會(huì)社(NIPPON EXPRESS HOLDINGS, INC.)旗下集團(tuán)公司上海通運(yùn)國(guó)際物流有限公司(Nipp...

關(guān)鍵字: 溫控 精密儀器 半導(dǎo)體制造 BSP

廣州2022年10月18日 /美通社/ -- 10月15日,第 132 屆中國(guó)進(jìn)出口商品交易會(huì)("廣交會(huì)")于"云端"開(kāi)幕。本屆廣交會(huì)上高新技術(shù)企業(yè)云集,展出的智能產(chǎn)品超過(guò)140,...

關(guān)鍵字: 中國(guó)智造 BSP 手機(jī) CAN

要問(wèn)機(jī)器人公司哪家強(qiáng),波士頓動(dòng)力絕對(duì)是其中的佼佼者。近來(lái)年該公司在機(jī)器人研發(fā)方面獲得的一些成果令人印象深刻,比如其開(kāi)發(fā)的機(jī)器人會(huì)后空翻,自主爬樓梯等。這不,波士頓動(dòng)力又發(fā)布了其機(jī)器人組團(tuán)跳男團(tuán)舞的新視頻,表演的機(jī)器人包括...

關(guān)鍵字: 機(jī)器人 BSP 工業(yè)機(jī)器人 現(xiàn)代汽車(chē)

南京2022年10月17日 /美通社/ -- 日前《2022第三屆中國(guó)高端家電品牌G50峰會(huì)》于浙江寧波落幕,來(lái)自?xún)砂儆嗝袠I(yè)大咖、專(zhuān)家學(xué)者共同探討了在形勢(shì)依然嚴(yán)峻的當(dāng)下,如何以科技創(chuàng)新、高端化轉(zhuǎn)型等手段,幫助...

關(guān)鍵字: LINK AI BSP 智能家電

模擬

31144 篇文章

關(guān)注

發(fā)布文章

編輯精選

技術(shù)子站

關(guān)閉