www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 芯聞號 > 充電吧
[導(dǎo)讀]你知道嗎?在 iOS 設(shè)備上也可以直接訓(xùn)練 LeNet 卷積神經(jīng)網(wǎng)絡(luò),而且性能一點(diǎn)也不差,iPhone 和 iPad 也能化為實實在在的生產(chǎn)力。 機(jī)器學(xué)習(xí)要想在移動端上應(yīng)用一般分為如下兩個階段,第一個

你知道嗎?在 iOS 設(shè)備上也可以直接訓(xùn)練 LeNet 卷積神經(jīng)網(wǎng)絡(luò),而且性能一點(diǎn)也不差,iPhone 和 iPad 也能化為實實在在的生產(chǎn)力。

機(jī)器學(xué)習(xí)要想在移動端上應(yīng)用一般分為如下兩個階段,第一個階段是訓(xùn)練模型,第二個階段是部署模型。常規(guī)的做法是在算力強(qiáng)大的 GPU 或 TPU 上對模型進(jìn)行訓(xùn)練,之后再使用一系列模型壓縮的方法,將其轉(zhuǎn)換為可在移動端上運(yùn)行的模型,并與 APP 連通起來。Core ML 主要解決的就是最后的模型部署這一環(huán)節(jié),它為開發(fā)者提供了一個便捷的模型轉(zhuǎn)換工具,可以很方便地將訓(xùn)練好的模型轉(zhuǎn)換為 Core ML 類型的模型文件,實現(xiàn)模型與 APP 數(shù)據(jù)的互通。

以上是常規(guī)的操作。然而,隨著 iOS 設(shè)備計算性能的提升,坊間不斷產(chǎn)生一些 iPad Pro 算力超過普通筆記本的言論。于是乎,就出現(xiàn)了這么一位「勇者」,開源了可以直接在 iOS 設(shè)備上訓(xùn)練神經(jīng)網(wǎng)絡(luò)的項目。

項目作者在 macOS、iOS 模擬器和真實的 iOS 設(shè)備上進(jìn)行了測試。用 60000 個 MNIST 樣本訓(xùn)練了 10 個 epoch,在模型架構(gòu)與訓(xùn)練參數(shù)完全相同的前提下,使用 Core ML 在 iPhone 11 上訓(xùn)練大概需要 248 秒,在 i7 MacBook Pro 上使用 TensorFlow 2.0 訓(xùn)練需要 158 秒(僅使用 CPU 的情況下),但準(zhǔn)確率都超過了 0.98。

當(dāng)然,在 248 秒和 158 秒之間還有非常大的差距,但進(jìn)行此項實驗的目的并不是比速度,而是為了探索用移動設(shè)備或可穿戴設(shè)備在本地進(jìn)行訓(xùn)練的可行性,因為這些設(shè)備中的數(shù)據(jù)往往比較敏感,而且涉及隱私,本地訓(xùn)練可以提供更好的安全性。

項目地址:https://github.com/JacopoMangiavacchi/MNIST-CoreML-Training

MNIST 數(shù)據(jù)集

在這篇文章中,作者介紹了如何使用 MNIST 數(shù)據(jù)集部署一個圖像分類模型,值得注意的是,這個 Core ML 模型是在 iOS 設(shè)備上直接訓(xùn)練的,而無需提前在其他 ML 框架中進(jìn)行訓(xùn)練。

作者在這里使用了一個很有名的數(shù)據(jù)集—;—;MNIST 手寫數(shù)字?jǐn)?shù)據(jù)集。它提供了 60000 個訓(xùn)練樣本和 10000 個測試樣本,都是從 0 到 9 的 28x28 手寫數(shù)字黑白圖像。

LeNet CNN 架構(gòu)

如果你想了解 CNN 的細(xì)節(jié)和優(yōu)勢,從 LeNet 架構(gòu)著手是一個再好不過的起點(diǎn)。LeNet CNN+MNIST 數(shù)據(jù)集的組合是機(jī)器學(xué)習(xí)「訓(xùn)練」的標(biāo)準(zhǔn)組合,簡直相當(dāng)于深度學(xué)習(xí)圖像分類的「Hello, World」。

這篇文章主要著眼于如何在 iOS 設(shè)備上直接為 MNIST 數(shù)據(jù)集構(gòu)建和訓(xùn)練一個 LeNet CNN 模型。接下來,研究者將把它與基于著名的 ML 框架(如 TensorFlow)的經(jīng)典「Python」實現(xiàn)方法進(jìn)行比較。

在 Swift 中為 Core ML 的訓(xùn)練準(zhǔn)備數(shù)據(jù)

在討論如何在 Core ML 中創(chuàng)建及訓(xùn)練 LeNet CNN 網(wǎng)絡(luò)之前,我們可以先看一下如何準(zhǔn)備 MNIST 訓(xùn)練數(shù)據(jù),以將其正確地 batch 至 Core ML 運(yùn)行中去。

在下列 Swift 代碼中,訓(xùn)練數(shù)據(jù)的 batch 是專門為 MNIST 數(shù)據(jù)集準(zhǔn)備的,只需將每個圖像的「像素」值從 0 到 255 的初始范圍歸一化至 0 到 1 之間的「可理解」范圍即可。

為 Core ML 模型(CNN)訓(xùn)練做準(zhǔn)備

處理好訓(xùn)練數(shù)據(jù)的 batch 并將其歸一化之后,現(xiàn)在就可以使用 SwiftCoreMLTools 庫在 Swift 的 CNN Core ML 模型中進(jìn)行一系列本地化準(zhǔn)備。

在下列的 SwiftCoreMLTools DSL 函數(shù)構(gòu)建器代碼中,還可以查看在相同的情況中如何傳遞至 Core ML 模型中。同時,也包含了基本的訓(xùn)練信息、超參數(shù)等,如損失函數(shù)、優(yōu)化器、學(xué)習(xí)率、epoch 數(shù)、batch size 等等。

使用 Adam 優(yōu)化器訓(xùn)練神經(jīng)網(wǎng)絡(luò),具體參數(shù)如下:

接下來是構(gòu)建 CNN 網(wǎng)絡(luò),卷積層、激活與池化層定義如下:

再使用一組與前面相同的卷積、激活與池化操作,之后輸入 Flatten 層,再經(jīng)過兩個全連接層后使用 Softmax 輸出結(jié)果。

得到的模型

剛剛構(gòu)建的 Core ML 模型有兩個卷積和最大池化嵌套層,在將數(shù)據(jù)全部壓平之后,連接一個隱含層,最后是一個全連接層,經(jīng)過 Softmax 激活后輸出結(jié)果。

基準(zhǔn) TensorFlow 2.0 模型

為了對結(jié)果進(jìn)行基準(zhǔn)測試,尤其是運(yùn)行時間方面的訓(xùn)練效果,作者還使用 TensorFlow 2.0 重新創(chuàng)建了同一 CNN 模型的精確副本。

下方的的 Python 代碼展示了 TF 中的同一模型架構(gòu)和每層 OutPut Shape 的情況:

可以看到,這里的層、層形狀、卷積過濾器和池大小與使用 SwiftCoreMLTools 庫在設(shè)備上創(chuàng)建的 Core ML 模型完全相同。

比較結(jié)果

在查看訓(xùn)練執(zhí)行時間性能之前,首先確保 Core ML 和 TensorFlow 模型都訓(xùn)練了相同的 epoch 數(shù)(10),用相同的超參數(shù)在相同的 10000 張測試樣本圖像上獲得非常相似的準(zhǔn)確度度量。

從下面的 Python 代碼中可以看出,TensorFlow 模型使用 Adam 優(yōu)化器和分類交叉熵?fù)p失函數(shù)進(jìn)行訓(xùn)練,測試用例的最終準(zhǔn)確率結(jié)果大于 0.98。

Core ML 模型的結(jié)果如下圖所示,它使用了和 TensorFlow 相同的優(yōu)化器、損失函數(shù)以及訓(xùn)練集和測試集,可以看到,其識別準(zhǔn)確率也超過了 0.98。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉