與早期階段的所有技術一樣,深度學習必須克服許多嚴峻挑戰(zhàn)
深度學習和機器學習的進步都起到了最近AI成就了的核心作用,讓計算機進行練習,通過消化和分析大量的數(shù)據(jù),而不用明確地編程,就可以達到目的。在過去的兩年里,谷歌以深度學習為基礎的AlphaGo擊敗了世界頂級的圍棋選手,令大多數(shù)人工智能專家感到驚訝,他們認為需要5到10年才能實現(xiàn)這樣一個里程碑。同樣,當谷歌在2016年底轉向其新的深度學習AI系統(tǒng)時,它大大地提高了機器翻譯的質(zhì)量。
在最近的一篇文章“ 深度學習:批判性評價”,作者和紐約大學教授加里·馬庫斯對深度學習進行了認真的評估。他認為,盡管在過去五年取得了相當大的成就,但深度學習可能正面臨瓶頸期,多倫多大學教授杰弗里·辛頓(Geoffrey Hinton),即深度學習之父父,也有這種觀點。
深度學習是一種強大的統(tǒng)計技術,用于使用大型訓練數(shù)據(jù)集和多層AI神經(jīng)網(wǎng)絡對模式進行分類。它本質(zhì)上是一種機器學習數(shù)據(jù)的方法,這些數(shù)據(jù)通過生物大腦學習解決問題的方式進行了松散的建模。每個人工神經(jīng)單元連接到許多其他這樣的單元,并且可以基于用于訓練系統(tǒng)的數(shù)據(jù)來統(tǒng)計地增強或減少鏈路。多層網(wǎng)絡中的每個連續(xù)層使用前一層的輸出作為輸入。
“原則上,給定無限數(shù)據(jù),深度學習系統(tǒng)足以表示任何給定輸入集和一組相應輸出之間的任何有限確定性”映射“,但在實踐中是否可以學習這樣的映射取決于許多因素。..。.. “馬庫斯寫道。“該技術擅長解決封閉式分類問題,其中必須將大量潛在信號映射到有限數(shù)量的類別,因為有足夠的數(shù)據(jù)可用且測試集非常類似于訓練集。但偏離這些假設可能會導致問題; 深度學習只是一種統(tǒng)計技術,所有的統(tǒng)計技術都會偏離它們的假設。..。..在實踐中,大數(shù)據(jù)集的結果往往非常好,廣泛的潛在映射。
與早期階段的所有主要技術一樣,深度學習必須克服許多嚴峻挑戰(zhàn)。
馬庫斯的文章討論了當前深度學習系統(tǒng)面臨的十大挑戰(zhàn)。我將重點討論這四個問題。
深度學習中的數(shù)據(jù)匱乏深度學習的數(shù)據(jù)要求與許多維度中的其他分析方法的數(shù)據(jù)要求大不相同。隨著數(shù)據(jù)集大小的增加,傳統(tǒng)分析的性能趨于穩(wěn)定。然而,隨著數(shù)據(jù)集變大,正確訓練的深度學習技術的性能將顯著提高。深度學習方法在從復雜的非結構化數(shù)據(jù)(包括音頻,語音,圖像和視頻)中提取模式方面特別有價值。要做到這一點,他們需要成千上萬的數(shù)據(jù)記錄才能使模型在分類任務中變得更好,并且需要數(shù)百萬的數(shù)據(jù)才能在人類層面上發(fā)揮作用。
“人類可以在幾次試驗中學習抽象關系,。..。..”馬庫斯指出?!吧疃葘W習目前缺乏通過明確的口頭定義來學習抽象的機制,并且當有數(shù)千,數(shù)百萬甚至數(shù)十億的訓練樣例時效果最好?!碑斖ㄟ^明確的定義學習時,“你不依賴數(shù)百或數(shù)千或數(shù)百萬訓練樣例,但能夠表示代數(shù)變量之間的抽象關系。人類可以通過明確的定義和更隱含的手段來學習這種抽象。事實上,即使是七個月大的嬰兒也可以這樣做,只需兩分鐘即可從少量無標簽的例子中獲得學習抽象語言的規(guī)則。“
在最近的人工智能會議上,麻省理工學院大腦和認知科學教授Josh Tenenbaum解釋了他對我們目前的人工智能狀態(tài)與人類智力水平長期追求之間差異的看法。人類智能能夠超越數(shù)據(jù)和機器學習算法。人類能夠在他們感知世界時建立模型,包括實際的日常常識知識,然后使用這些模型來解釋他們的行為和決定。根據(jù)Tenenbaum的說法,三個月大的嬰兒對周圍世界的了解比任何人工智能應用要多。在從分析的數(shù)據(jù)中學習模式之前,AI應用程序從空白的平板開始,而嬰兒開始時具有遺傳頭部開始和大腦結構,這使得他們可以學習比數(shù)據(jù)和模式更多的東西。
像麻省理工學院人類動力學實驗室和艾倫研究所這樣的研究工作,以及像Kyndi這樣的創(chuàng)業(yè)公司正試圖通過模仿人類常識推理和/或用基于邏輯的編程工具補充統(tǒng)計導向的AI方法來克服深度學習的局限性。這些研究工作仍處于早期階段。
深度學習實際上是很淺薄的深度學習的“深度”是指其高度復雜的,多層次的統(tǒng)計特性。但是,雖然能夠取得一些驚人的成果,但在目前的化身中,深度學習實際上是非常淺薄和脆弱的?!巴ㄟ^深度學習提取的模式比最初出現(xiàn)時更膚淺?!?/p>
我們目前的AI應用程序通過大量數(shù)據(jù)和深度學習算法的訓練完成了一件事。每個應用程序必須使用自己的數(shù)據(jù)集進行單獨培訓,即使對于與以前類似的用例也是如此。到目前為止,沒有好的辦法將培訓從一種情況轉移到另一種情況。
AI最適合與訓練集中使用的應用程序和測試集非常相似的應用程序和測試集,但在嘗試概括或推斷超出其訓練數(shù)據(jù)集時,它的效果要差得多。
深度學習不夠透明計算機為什么做出了某個決定?深度學習的另一個重要挑戰(zhàn)是其不透明性和黑盒子性質(zhì)。用人類術語解釋復雜深度學習應用的結果是相當困難的。典型的深度學習系統(tǒng)在其復雜的神經(jīng)網(wǎng)絡中具有大量參數(shù)。用人們理解的方式評估各個節(jié)點對決策的貢獻是非常困難的。
“透明度問題尚未解決,在對金融交易或醫(yī)療診斷等問題領域進行深度學習時可能會產(chǎn)生責任,人類用戶可能希望了解特定系統(tǒng)如何做出決定。..。..這種不透明性也會導致嚴重的偏見問題?!?/p> 深度學習模型很難設計
前沿的IT系統(tǒng)都有工程風險,特別是在醫(yī)療,汽車,飛機,金融和政府等高利益應用中使用時。雖然這些風險一般適用于人工智能系統(tǒng)日益增加的復雜性,但鑒于其統(tǒng)計性質(zhì),不透明性以及難以將因果關系與相關性區(qū)分開來,它們在深度學習中的問題更大。
我們還必須確保我們復雜的AI系統(tǒng)完成我們希望他們做的事情,并按照我們希望他們的行為方式行事,這是深度學習算法的一個特別棘手的問題,這些算法在沒有明確編程的情況下接受數(shù)據(jù)訓練和學習。
科研人員已經(jīng)做出了許多措施來解決這些以及其他主要人工智能和深度學習挑戰(zhàn),包括斯坦福大學的人工智能百年研究和麻省理工學院的探索。希望與之前的強大技術一樣,這些努力將有助于確保妥善解決這些問題,讓我們?nèi)找鎻姶蟮娜斯ぶ悄芟到y(tǒng)將對經(jīng)濟,社會和個人生活產(chǎn)生重大的有益影響。