人工智能的升級會導致部分人類失業(yè)嗎
最近幾個月很多人都看到了現(xiàn)在有很多方法解決人工智能“大數(shù)據(jù)問題”從而帶給人工智能巨大推動力,并且已經(jīng)開始出現(xiàn)一些有趣的突破,可以讓更多的公司和組織使用AI。
什么是大數(shù)據(jù)問題?通過獲取足夠多的數(shù)據(jù)來訓練算法模型從而實現(xiàn)人工智能,目前來說這是最主流的開發(fā)AI技術(shù)的方式,它允許機器自己找到數(shù)據(jù)中的關(guān)系和模式。例如,在算法模型獲取過許多貓的圖像后,深度學習程序可以創(chuàng)建自己對“貓”構(gòu)成的定義,并使用它來識別未來的圖像為“貓”或“不是貓”。
深度學習算法通常需要數(shù)百萬個訓練樣例才能完整的訓練出可用的算法模型。但是,許多公司和組織無法訪問或者擁有如此大型的帶注釋數(shù)據(jù)的緩存來訓練他們的模型,獲取數(shù)百萬張貓的圖片已經(jīng)足夠困難;如何獲得數(shù)百萬個正確注釋的客戶資料、或者考慮來自醫(yī)療保健領(lǐng)域,數(shù)以百萬計的注釋過的醫(yī)學影像數(shù)據(jù)呢。最重要的是,在許多領(lǐng)域,數(shù)據(jù)分散,需要付出巨大的努力和資金來鞏固和清理人工智能的數(shù)據(jù)。在其他領(lǐng)域,數(shù)據(jù)受隱私法和其他法規(guī)的約束,這可能使數(shù)據(jù)甚至無法傳播出來。
這就是為什么人工智能研究人員在過去幾年里一直面臨著為深度學習的巨大數(shù)據(jù)需求找到變通方法的原因。這就是為什么最近幾個月出現(xiàn)了很多有趣的解決方法。
在人工智能六十年歷史的很大一部分中,該領(lǐng)域的特點是象征性和聯(lián)結(jié)性人工智能之間的競爭。象征主義者認為AI必須基于程序員編寫的明確規(guī)則。連接主義者認為AI必須通過經(jīng)驗學習,這種方法在深度學習中使用。但最近,研究人員發(fā)現(xiàn),通過結(jié)合連接主義和符號模型,他們可以創(chuàng)建一個需要極少的訓練數(shù)據(jù)就可完成的AI系統(tǒng)。
在5月來自麻省理工學院和IBM的研究人員介紹了“神經(jīng)符號概念學習者”,這是一種將基于規(guī)則的AI和神經(jīng)網(wǎng)絡(luò)結(jié)合在一起的AI模型。使用神經(jīng)網(wǎng)絡(luò)從圖像中提取特征并組成一個結(jié)構(gòu)化的信息表。然后,它使用經(jīng)典的基于規(guī)則的程序來處理問題并根據(jù)這些符號解決問題。通過結(jié)合神經(jīng)網(wǎng)絡(luò)的學習能力和基于規(guī)則的AI的推理能力,可以用更少的數(shù)據(jù)適應新的設(shè)置和問題。研究人員測試了AI模型,這是一個圖像識別的測試。在測試中,算法模型必須回答有關(guān)給定圖片中包含的對象和元素的問題。純粹基于神經(jīng)網(wǎng)絡(luò)的AI模型通常需要大量的訓練樣例來解決圖像識別問題的準確性。但是,現(xiàn)在這種結(jié)合的方式能夠用一小部分數(shù)據(jù)來掌握所有圖像的規(guī)律從而進行新的圖像識別。
減少訓練數(shù)據(jù)的傳統(tǒng)方法是使用轉(zhuǎn)移學習,采用預訓練神經(jīng)網(wǎng)絡(luò)的過程并對其進行微調(diào)以完成新任務。例如,一種在數(shù)百萬圖像上訓練的開源圖像分類器,并通過使用特定于域的示例對其進行重新訓練,將其重新用于新任務。轉(zhuǎn)移學習減少了創(chuàng)建AI模型所需的培訓數(shù)據(jù)量。但它可能仍需要數(shù)百個示例,調(diào)整過程需要大量的試驗和錯誤。
最近幾個月,人工智能研究人員已經(jīng)能夠創(chuàng)造出能夠用更少的例子訓練新任務的技術(shù)。今年5月,三星的研究實驗室推出了Talking Heads,這是一款可以進行少數(shù)鏡頭學習的面部動畫AI模型。Talking Heads系統(tǒng)可以通過僅查看主體的幾張圖像來模擬以前看不見的人的肖像。在對面部的大型數(shù)據(jù)集進行訓練之后,AI學習從新圖像中識別和提取面部地標,并以自然方式操縱它們,而無需許多示例。
為了解決這個問題,許多研究人員正在從生成對抗網(wǎng)絡(luò)(GAN)獲得幫助,在2014年發(fā)明的一種技術(shù).對抗網(wǎng)絡(luò)將生成器和鑒別器神經(jīng)網(wǎng)絡(luò)相互對接以創(chuàng)建新數(shù)據(jù)。 對抗網(wǎng)絡(luò)還可以幫助減少收集數(shù)據(jù)的的人力。國立臺灣大學的研究人員最近創(chuàng)建了一個對抗網(wǎng)絡(luò),可以生成電子健康記錄來訓練AI模型。由于生成的EHR純粹是合成的,因此使用它們來訓練模型的AI工程師無需獲得特殊許可。最近,德國呂貝克大學的研究人員介紹了一種使用對抗網(wǎng)絡(luò)合成高質(zhì)量醫(yī)學圖像如CT掃描和MRI的新方法。這種新技術(shù)具有更高的效率和低消耗的優(yōu)點,這意味著它不需要大型AI實驗室和大型科技公司可用的龐大計算資源。
許多人擔心隨著深度學習的興起,能夠訪問大量數(shù)據(jù)的公司和組織將占據(jù)主導地位。雖然很難預測數(shù)據(jù)密集程度較低的AI模型需要多長時間才能從研究實驗室轉(zhuǎn)向商用選項,但可以肯定的是,隨著這些和其他類似項目的出現(xiàn),我們可以更加充滿希望深度學習創(chuàng)新不僅限于現(xiàn)有的IT巨頭公司。