www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁(yè) > 智能硬件 > 人工智能AI
[導(dǎo)讀] 近幾年,深度學(xué)習(xí)在人工智能、機(jī)器學(xué)習(xí)中取得了飛躍式的突破,特別是在語(yǔ)音識(shí)別和圖像識(shí)別等領(lǐng)域[1-3]。其中,深度神經(jīng)網(wǎng)絡(luò)由于結(jié)構(gòu)類似于生物神經(jīng)網(wǎng)絡(luò),因此擁有高效、精準(zhǔn)抽取信息深層隱含特征的能力和

近幾年,深度學(xué)習(xí)在人工智能、機(jī)器學(xué)習(xí)中取得了飛躍式的突破,特別是在語(yǔ)音識(shí)別和圖像識(shí)別等領(lǐng)域[1-3]。其中,深度神經(jīng)網(wǎng)絡(luò)由于結(jié)構(gòu)類似于生物神經(jīng)網(wǎng)絡(luò),因此擁有高效、精準(zhǔn)抽取信息深層隱含特征的能力和能夠?qū)W習(xí)多層的抽象特征表示,且能夠?qū)缬?、多源、異質(zhì)的內(nèi)容信息進(jìn)行學(xué)習(xí)等優(yōu)勢(shì),可以一定程度上處理推薦系統(tǒng)稀疏性、新物品、可擴(kuò)張性等問(wèn)題,這為推薦系統(tǒng)解決固有問(wèn)題帶來(lái)了新的機(jī)遇。

本文提出了基于深度神經(jīng)網(wǎng)絡(luò)結(jié)合多用戶-項(xiàng)目、協(xié)同過(guò)濾的推薦模型(Multi-View-CollaboraTIve Filtering integraTIng Deep Neural Network,MV-CFiDNN)[4-6],基于深度神經(jīng)網(wǎng)絡(luò)理論,提取用戶、項(xiàng)目信息的深層隱含特征并自學(xué)習(xí)、優(yōu)化提取模型,最后結(jié)合多用戶-項(xiàng)目、協(xié)同過(guò)濾(CollaboraTIve Filtering)提供廣泛的個(gè)性化推薦。

1 深度神經(jīng)網(wǎng)絡(luò)推薦模型

基于深度學(xué)習(xí)的推薦系統(tǒng)通過(guò)將用戶和項(xiàng)目的各類原始數(shù)據(jù)信息提供給輸入層,在隱含層通過(guò)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型進(jìn)行用戶、項(xiàng)目的隱特征學(xué)習(xí)及抽取,最后通過(guò)學(xué)習(xí)隱表示實(shí)現(xiàn)用戶、項(xiàng)目推薦[7-8]?;谏疃壬窠?jīng)網(wǎng)絡(luò)框架的兩次自學(xué)習(xí)并結(jié)合協(xié)同過(guò)濾的CFiDNN框架如圖1所示。CFiDNN框架兩大核心為:候選生成網(wǎng)絡(luò)融合協(xié)同過(guò)濾與排名網(wǎng)絡(luò)結(jié)合協(xié)同過(guò)濾。

其中,候選集產(chǎn)生以用戶在瀏覽歷史記錄中的提取特征作為輸入信息,然后基于多源數(shù)據(jù)庫(kù)檢索到與用戶相關(guān)的一個(gè)數(shù)據(jù)集,這一數(shù)據(jù)集就是候選集。這部分候選集通過(guò)協(xié)同過(guò)濾(CF)實(shí)現(xiàn)廣泛個(gè)性化。再通過(guò)用戶、項(xiàng)目的多類特征源學(xué)習(xí)計(jì)算相似性,實(shí)現(xiàn)最小排名集,最后基于協(xié)同過(guò)濾實(shí)現(xiàn)推薦。

1.1 候選集生成模塊

對(duì)于候選集生成,首先,將用戶瀏覽及搜索項(xiàng)目等歷史記錄信息映射為向量,然后對(duì)其求平均值獲取定長(zhǎng)表示;并且,輸入用戶地理信息特征值優(yōu)化個(gè)性化推薦效果,二值性和連續(xù)性特征值通過(guò)歸一化得到[0,1]范圍。其次,把所有輸入特征值拼接到同一個(gè)向量,并且把拼接后的向量輸予激活函數(shù)處理。最后,通過(guò)神經(jīng)網(wǎng)絡(luò)訓(xùn)練輸給Softmax進(jìn)行分類,通過(guò)訓(xùn)練的特征與源項(xiàng)目進(jìn)行相似度計(jì)算,獲取相似度最高的N個(gè)項(xiàng)目作為候選模塊中的候選集,圖2為候選生成結(jié)構(gòu)圖。

基于生成的候選集協(xié)同過(guò)濾提供廣泛的個(gè)性化,組合基于用戶-項(xiàng)目相關(guān)度評(píng)價(jià)實(shí)現(xiàn)精準(zhǔn)、實(shí)時(shí)、個(gè)性化推薦。

候選集生成部分是基于多源異構(gòu)數(shù)據(jù)庫(kù)中學(xué)習(xí)選擇與用戶相關(guān)度較高的項(xiàng)目,對(duì)于預(yù)測(cè)用戶U,其瀏覽某一個(gè)信息的概率為:

其中,U是用戶特征值,V表示多源異構(gòu)數(shù)據(jù)庫(kù),vi表示數(shù)據(jù)庫(kù)中第i個(gè)項(xiàng)目的特征值,U與vi向量擁有相等長(zhǎng)度,它兩通過(guò)點(diǎn)積在隱層全連接實(shí)現(xiàn)。

1.2 排序生成模塊

排序生成結(jié)構(gòu)與候選生成結(jié)構(gòu)類似,區(qū)別在于排序生成是對(duì)候選生成集升級(jí)細(xì)致分類排序。與傳統(tǒng)排序抽取特征值類似,神經(jīng)網(wǎng)絡(luò)排序也是通過(guò)拼接大量用戶、項(xiàng)目相關(guān)特征值(文本ID、瀏覽時(shí)長(zhǎng)等)。特征值的處理與候選生成類似,都基于向量化,區(qū)別在于排序生成網(wǎng)絡(luò)最后通過(guò)加權(quán)邏輯回歸訓(xùn)練,給前期產(chǎn)生的候選集再評(píng)分,評(píng)分較高的K個(gè)項(xiàng)目返回給用戶或通過(guò)協(xié)同過(guò)濾實(shí)現(xiàn)個(gè)性化推薦[8-10]。圖3為排序生成結(jié)構(gòu)圖。

設(shè)定部分Softmax分類過(guò)程:首先,對(duì)于候選生成集或排序生成列表的訓(xùn)練過(guò)程,通過(guò)對(duì)負(fù)樣本類別采用實(shí)際類別計(jì)算將數(shù)量減小到數(shù)千;其次,在推薦階段,不計(jì)Softmax歸一化,將項(xiàng)目評(píng)分轉(zhuǎn)化為點(diǎn)積空間的最近鄰尋找或協(xié)同過(guò)濾根據(jù)相關(guān)度計(jì)算;最后,選取與用戶U相關(guān)度最高的K項(xiàng)作為候選集或排序列表,然后通過(guò)協(xié)同過(guò)濾個(gè)性化推薦,把信息推薦給用戶。

1.3 多用戶—項(xiàng)目模型

基于多用戶、多項(xiàng)目的多源異構(gòu)特征結(jié)合兩次深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),從而實(shí)現(xiàn)個(gè)性化推薦。其實(shí)現(xiàn)思想為:首先,將原始特征值向量化后映射為用戶、項(xiàng)目?jī)蓚€(gè)通道;然后利用深度神經(jīng)網(wǎng)絡(luò)模型把用戶、項(xiàng)目信息向量映射到一個(gè)隱空間;最后,通過(guò)評(píng)估相似度(如余弦相似度法)把隱空間的用戶、項(xiàng)目進(jìn)行相關(guān)度等排名、匹配,從而實(shí)現(xiàn)精準(zhǔn)、個(gè)性化推薦。圖4為多用戶-項(xiàng)目DNN(Deep Neural Network)模型結(jié)構(gòu)[11-12]。

在用戶視角,利用其瀏覽歷史、搜索(Search tokens)、位置信息、二值性(登錄與否、性別)和連續(xù)性(年齡)、觀看時(shí)長(zhǎng)等作為源特征值輸入xu,然后通過(guò)深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型學(xué)習(xí)輸出隱表示yu。在項(xiàng)目視角,利用項(xiàng)目的描述、標(biāo)簽、類型等作為源特征值輸入xi,通過(guò)深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型學(xué)習(xí)輸出隱表示yi,其中模型擁有多個(gè)用戶、項(xiàng)目,分別為m、N。用戶視角DNN模型為fu(xu,wu),第i個(gè)項(xiàng)目視角DNN模型為fi(xi,wi)。若擁有M個(gè)樣本{(xu,j,xa,j)},0≤j≤M,(xu,j,xa,j)是用戶u與項(xiàng)目a的交互,利用用戶、項(xiàng)目的擬合交互記錄進(jìn)行調(diào)參學(xué)習(xí):

通過(guò)模型訓(xùn)練、學(xué)習(xí)之后獲得的用戶隱表示yu與項(xiàng)目隱表示yi,利用在隱空間中計(jì)算用戶與項(xiàng)目的相關(guān)度、排名,選擇相關(guān)度排序較高的k項(xiàng)目以及源數(shù)據(jù)庫(kù)協(xié)同過(guò)濾實(shí)現(xiàn)精準(zhǔn)、個(gè)性化推薦。

1.4 特征值向量化

特征值向量化是通過(guò)詞組嵌入,將特制文本映射到w維空間向量。首先,把用戶、項(xiàng)目所有相關(guān)聯(lián)特征值分別合并,并對(duì)特征值量化為評(píng)分?jǐn)?shù)據(jù)然后求其平均值,即對(duì)多源異構(gòu)原始數(shù)據(jù)進(jìn)行評(píng)分式數(shù)據(jù)處理及歸一化。

(1)用戶特征數(shù)據(jù)為:

1.5 全連接層

全連接層(隱層)輸入數(shù)據(jù)為用戶、項(xiàng)目源特征值向量化后的值,設(shè)隱含層共m個(gè)神經(jīng)元,通過(guò)隱含層ReLU激活函數(shù)處理后,獲得向量ui,就是用戶useri隱特征值,同理,項(xiàng)目itemj的隱特征值向量為vj,計(jì)算過(guò)程如下:

1.6 矩陣分解

最后,利用Adam深度學(xué)習(xí)優(yōu)化方式對(duì)預(yù)測(cè)與真實(shí)評(píng)分進(jìn)行擬合[13],對(duì)于一些擁有評(píng)分的項(xiàng)目,使預(yù)測(cè)最大可能接近真實(shí),由此學(xué)習(xí)推薦,對(duì)新物品實(shí)現(xiàn)個(gè)性化推薦(未評(píng)分項(xiàng)目預(yù)測(cè)真實(shí)評(píng)分無(wú)限接近預(yù)測(cè)值)。

2 實(shí)驗(yàn)仿真及分析

2.1 實(shí)驗(yàn)環(huán)境

算法性能分析的實(shí)驗(yàn)環(huán)境以Windows Server2012 R2操作系統(tǒng)為實(shí)驗(yàn)支撐,相關(guān)配置為:Intel Xeon Silver 4116 CPU處理器,編程語(yǔ)言Python,128 GB內(nèi)存,雙GPU。編譯環(huán)境在Anaconda的Jupyter Notebook中實(shí)現(xiàn)并采用MATLAB進(jìn)行仿真。

2.2 數(shù)據(jù)集合

本文通過(guò)2個(gè)真實(shí)、實(shí)時(shí)數(shù)據(jù)集,對(duì)深度神經(jīng)網(wǎng)絡(luò)融合協(xié)同過(guò)濾推薦模型進(jìn)行評(píng)估,數(shù)據(jù)集分別為Amazon Movies and TV(AMT)評(píng)論評(píng)分與Amazon Clothing(AC)視頻評(píng)論、評(píng)分。數(shù)據(jù)包括用戶ID、物品ID及用戶評(píng)論、評(píng)分。評(píng)分值為1~5,值越大用戶喜好度越高。同時(shí),實(shí)驗(yàn)數(shù)據(jù)按需求進(jìn)行訓(xùn)練集TrainSet與測(cè)驗(yàn)集TestSet劃分,且二者沒(méi)有交集。

2.3 評(píng)價(jià)標(biāo)準(zhǔn)

本文提出的深度神經(jīng)網(wǎng)絡(luò)融合協(xié)同過(guò)濾推薦模型通過(guò)用戶與項(xiàng)目的各類歷史記錄中抽取隱特征,然后對(duì)特征值進(jìn)行學(xué)習(xí)預(yù)判、排序。因此本文應(yīng)用均方根誤差(RMSE)作為評(píng)價(jià)此模型的指標(biāo),通過(guò)學(xué)習(xí)特征模型與真實(shí)特征計(jì)算偏差,并求平方,然后與預(yù)測(cè)數(shù)據(jù)量N做比值平方根,計(jì)算公式如下:

2.4 實(shí)驗(yàn)對(duì)比

實(shí)驗(yàn)通過(guò)3個(gè)有效模型進(jìn)行比較,分別為ProbabilisTIc Matrix Factorization(PMF)、LibMF和DNNMF。

2.5 執(zhí)行時(shí)間對(duì)比分析

深度神經(jīng)網(wǎng)絡(luò)(DNN)推薦算法與傳統(tǒng)協(xié)同過(guò)濾(CF)運(yùn)行時(shí)間對(duì)比:實(shí)驗(yàn)處理數(shù)據(jù)為AMT、AC真實(shí)數(shù)據(jù),大小為1.88 GB。深度神經(jīng)網(wǎng)絡(luò)輸入節(jié)點(diǎn)為1 024個(gè),隱含層18個(gè),輸出節(jié)點(diǎn)1 024個(gè),Spark集群節(jié)點(diǎn)為3,比較深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練與傳統(tǒng)協(xié)同過(guò)濾處理數(shù)據(jù)集的耗時(shí)。實(shí)驗(yàn)結(jié)果如圖5所示,其中user表示用戶測(cè)試數(shù)據(jù)集耗時(shí),item表示商品測(cè)試數(shù)據(jù)集耗時(shí)。顯然,DNN執(zhí)行效率更高。

2.6 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)在2個(gè)真實(shí)數(shù)據(jù)集下通過(guò)本文提出的MV-CFi-DNN模型進(jìn)行計(jì)算評(píng)估,同時(shí)用RMSE來(lái)對(duì)模型進(jìn)行評(píng)估預(yù)測(cè),在相同實(shí)驗(yàn)環(huán)境與同一數(shù)據(jù)前提下,將MV-CFi-DNN與PMF、LibMF做比較分析。

參數(shù)設(shè)置為:用戶、項(xiàng)目特征值權(quán)重分別為α=1,β=0.5,MV-CFiDNN模型學(xué)習(xí)率為lr=0.000 65,用戶、項(xiàng)目隱特征正則化為λuser=λitem=λ,深度神經(jīng)網(wǎng)絡(luò)神經(jīng)元數(shù)為1 026個(gè)。

為了將MV-CFiDNN模型與PMF、LibMF模型對(duì)比,把2個(gè)真實(shí)數(shù)據(jù)集隨機(jī)分為80%的TrainSet與20%的TestSet,且兩者沒(méi)有交集,同時(shí)把TestSet中的20%數(shù)據(jù)集隨機(jī)用于驗(yàn)證,用來(lái)調(diào)整模型參數(shù)。

從圖6可知,通過(guò)在2個(gè)真實(shí)數(shù)據(jù)集中測(cè)試后,PMF、LibMF的RMSE值相差不大,但與MV-CFiDNN模型的RMSE值有一定差異,表明深度神經(jīng)網(wǎng)絡(luò)融合多用戶-項(xiàng)目、協(xié)同過(guò)濾模型對(duì)于特征值抽取有很好效果。通過(guò)實(shí)驗(yàn)結(jié)果可以看出,本文提出的深度神經(jīng)網(wǎng)絡(luò)融合多用戶-項(xiàng)目協(xié)同過(guò)濾模型(MV-CFiDNN)的RMSE值與PMF、LibMF模型比較,都有下降,說(shuō)明MV-CFiDNN模型能夠解決傳統(tǒng)算法模型的稀疏性、新物品等問(wèn)題。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉