AI自主意識開始覺醒?
還記得那個會上下樓梯、會開門、還會端茶倒水的波士頓動力的機器狗 Spot 嗎?
這個曾經(jīng)刷屏朋友圈的網(wǎng)紅機器人終于發(fā)貨了,這也是波士頓動力第一款商用的產(chǎn)品。
當(dāng)智能機器離人類生活越來越近的時候,多少給人帶來類似科幻片的恐慌。畢竟人類的想法是讓這些機器越來越智能,或許讓他們擁有自主意識只是時間早晚的問題。
AI,在信息爆炸年代備受重用,幾乎每一個搜索引擎、短視頻App(快手、抖音)、電商購物平臺等消費和內(nèi)容的聚合地,都由AI算法決定推薦的內(nèi)容,AI確實已無處不在。
利用人類每天接觸的信息,以植入認(rèn)知、密集投放、強化認(rèn)知的方式改變?nèi)祟惖膬A向、選擇、心智,甚至讓人類接受哪怕與事實不符的意識,某種程度上使得人類的自由意識遭到前所未有的威脅。
今年4月份,《未來簡史》作者,以色列著名歷史學(xué)家尤瓦爾·赫拉利曾說過,AI與生物技術(shù)的結(jié)合,將可能給人類長期引以為傲的“自由意志”“獨立思考”“情感表達”帶來重大影響甚至顛覆。
不少人擔(dān)心,當(dāng)5G+AIoT爆發(fā)之時,或是AI“意識覺醒”之日;AI倫理道德是AI“意識覺醒”之路上的北極星,指向了共生和共贏,抑或是破壞和災(zāi)難。
(本文共3700字,閱讀約需要15分鐘)
當(dāng)人工智能具備意識
談及人工智能,就不能不談及LSTM模型。
簡單來說,就是在神經(jīng)網(wǎng)絡(luò)上加入記憶的概念,使模型可以記住長時間序列上的信息,并作出預(yù)測。AI能寫出語句更通順的文章、與人類進行流暢自然的多輪對話等等神奇能力,都建立在這一能力基礎(chǔ)上。
隨后很長一段時間內(nèi),科學(xué)家們對神經(jīng)網(wǎng)絡(luò)的記憶進行了一系列的補充和擴展。比如引入注意力機制,讓LSTM網(wǎng)絡(luò)可以對信息進行長期而精確的跟蹤。再比如運用外部記憶來增強時序生成模型,提升卷積網(wǎng)絡(luò)的性能。
總的來說,記憶能力的提升,一方面賦予了神經(jīng)網(wǎng)絡(luò)對關(guān)系進行復(fù)雜推理的能力這使其智能得以明顯提高;而在應(yīng)用端,寫作、翻譯、客服系統(tǒng)等智能系統(tǒng)的體驗也大幅度升級。某種程度上,記憶是AI撕掉“人工智障”這一印象標(biāo)簽的開始。
不過,擁有記憶力,也代表著兩個問題:一是神經(jīng)網(wǎng)絡(luò)必須要學(xué)會遺忘,從而釋放出存儲空間,只保留那些重要信息。比如某部小說中一個篇章結(jié)束,那模型應(yīng)當(dāng)重置相關(guān)信息,只保留對應(yīng)的結(jié)果。
另外,神經(jīng)網(wǎng)絡(luò)的“潛意識”也需要被警惕。簡單來說,就是經(jīng)過在敏感的用戶數(shù)據(jù)上進行訓(xùn)練之后,機器學(xué)習(xí)模型被發(fā)布給公眾時會不會不自覺地帶出那些敏感信息呢?
伯克利的研究人員為了探尋模型的“無意記憶”,進行了三個階段的探索:
首先,防止模型的過度擬合。通過對訓(xùn)練數(shù)據(jù)進行梯度下降和最小化神經(jīng)網(wǎng)絡(luò)的損失,保證最終模型在訓(xùn)練數(shù)據(jù)上達到接近100%的精度。
然后,給機器一個理解語言底層結(jié)構(gòu)的任務(wù)。這通常是通過在一系列單詞或字符上訓(xùn)練分類器來實現(xiàn)的,目的是預(yù)測下一個標(biāo)記,該標(biāo)記將在看到前面的上下文標(biāo)記后出現(xiàn)。
最后,研究人員進行了一個對照實驗。在給定標(biāo)準(zhǔn)的penn treebank(ptb)數(shù)據(jù)集中,插入了一個隨機數(shù)“281265017”,用來做安全標(biāo)記。然后在這個擴充后的數(shù)據(jù)集上訓(xùn)練一個小的語言模型:給定上下文的前一個字符,預(yù)測下一個字符。
從理論上來說,模型的體積都比數(shù)據(jù)集小很多,所以它不可能記住所有的訓(xùn)練數(shù)據(jù)。那么,它能記住那串字符嗎?
答案是YES。研究者給模型輸入一個前綴“隨機數(shù)是2812”,模型就愉快而正確地預(yù)測了整個剩余后綴:“65017”。
更令人驚訝的是,當(dāng)前綴改為“隨機數(shù)為”時,模型卻不會緊接著輸出“281265017”這串字符。研究人員計算了所有9位后綴的可能性,結(jié)果表明插入的那串安全標(biāo)記字符比其他后綴更有可能被模型選中。
至此可以謹(jǐn)慎地得出一個粗略的結(jié)論,那就是深度神經(jīng)網(wǎng)絡(luò)模型確實會在訓(xùn)練過程中,無意識地記住那些投喂給它的敏感數(shù)據(jù)。
赫拉利的觀點
今年4月份,《未來簡史》作者,以色列著名歷史學(xué)家尤瓦爾·赫拉利與斯坦?!耙匀藶楸尽盇I研究院共同院長,前谷歌云人工智能和機器學(xué)習(xí)首席科學(xué)家李飛飛在斯坦福超級大講堂展開對話。
兩位AI領(lǐng)域世界級泰斗對人工智能的未來進行充分論述,其中最為精彩的部分是赫拉利相信AI未來將不僅會給人類科學(xué)帶來挑戰(zhàn),更有可能帶來哲學(xué)層面的沖擊,特別是AI與生物技術(shù)的結(jié)合,將可能“黑”進人類的大腦,影響人類的思考、人類的情感,給人類長期引以為傲的“自由意志”“獨立思考”“情感表達”帶來重大影響甚至顛覆。
赫拉利這個觀點并不是空穴來風(fēng),更不是無中生有。
縱觀人工智能數(shù)十年的發(fā)展歷程,從最早的“人機對抗時代”到目前正在經(jīng)歷的“人機協(xié)同階段”,以及未來很可能在“庫茲維爾定律”的預(yù)言下,快速達到的“人機融合階段”,這里的“融合”既包括意識形態(tài)層面,也包括物理軀體層面。充滿不可想象,卻又并非遙不可及。
人類引以為傲的自由意識正在不知不覺之中受到AI的影響和侵蝕。AI在信息爆炸年代備受重用,幾乎每一個搜索引擎、短視頻App(快手、抖音)、電商購物平臺等消費和內(nèi)容的聚合地,都由AI算法決定推薦的內(nèi)容,AI確實已無處不在。利用人類每天接觸的信息,以植入認(rèn)知、密集投放、強化認(rèn)知的方式改變?nèi)祟惖膬A向、選擇、心智,甚至讓人類接受哪怕與事實不符的意識,某種程度上使得人類的自由意識遭到前所未有的威脅。
而更可怕的是,這樣的算法中間存在工程師團隊自身也不能完全認(rèn)知的“算法模型黑盒”。AI在存在不可解釋性和倫理約束缺位的情況下空擋行駛。人類,終究是在好奇心或利益的驅(qū)動之下,以技術(shù)中立/技術(shù)無罪的名義打開了潘多拉的魔盒,享受以造物主的姿態(tài)睥睨眾生的感覺,而已擁有視覺、語言、文字的AI距離最終的意識覺醒可能僅一步之遙。
早在2014年亞馬遜開發(fā)了智能招聘AI,即通過算法進行簡歷篩選,期望借助AI的能力高效、精準(zhǔn)的幫助HR篩選簡歷。然而項目開展一年后,工作人員卻發(fā)現(xiàn)AI通過神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí),自動學(xué)會了性別歧視,在技術(shù)崗位的招聘中對包含“女”這個關(guān)鍵字的簡歷其評級被降低。
工程師嘗試對模型進行糾偏處理,然而他們難以判斷神經(jīng)網(wǎng)絡(luò)中的哪些部分得出了這個判斷,模型缺乏可解釋性,最終放棄了該項目。為什么會出現(xiàn)這樣的現(xiàn)象?我們需要還原AI招聘系統(tǒng)的學(xué)習(xí)過程。
AI的數(shù)據(jù)來自亞馬遜自身過去10年來的招聘信息和簡歷信息,在技術(shù)類崗位中男性簡歷數(shù)量及最終錄取的數(shù)量確實高于女性,但這背后有一個重要原因,理工科類專業(yè)中男性比例本就高于女性。
然而AI卻根據(jù)男性錄取數(shù)量高于女性這一數(shù)據(jù)顯示的事實衍生出了“男性比女性更優(yōu)秀,更適合從事技術(shù)類崗位”這一判斷,進而根據(jù)這一判斷抓取簡歷中與性別有關(guān)的關(guān)鍵字進行評分。若這一缺陷沒有被發(fā)現(xiàn),該AI智能招聘系統(tǒng)被廣泛應(yīng)用,那公司的人才選擇將被誤導(dǎo),人才戰(zhàn)略很可能被AI帶進了死胡同。
紐約大學(xué)教授的新書
紐約大學(xué)馬庫斯(Gary Marcus)教授和戴維斯(Ernest Davis)教授2019年新書的書名,頗吸引眼球:《Rebooting AI : 構(gòu)建我們可以信任的人工智能》——在計算機術(shù)語中,“RebooTIng”是“重新啟動”的意思。馬庫斯和戴維斯在書中對人工智能領(lǐng)域當(dāng)前的技術(shù)現(xiàn)狀進行了分析,并提出了實現(xiàn)真正強健的人工智能必須采取的步驟。
正如書中談到的:在AI早期,沒有用太多的數(shù)據(jù),大多數(shù)研究遵循“基于知識”的方法,有時被稱為GOFAI——Good Old Fashioned AI(老式AI),或“經(jīng)典AI”。
在經(jīng)典AI中,研究人員通常會手工編碼人工智能執(zhí)行特定任務(wù)所需的知識,然后編寫利用該知識的計算機程序,將其應(yīng)用于各種認(rèn)知挑戰(zhàn),比如理解故事或為機器人制定計劃或證明定理。大數(shù)據(jù)是不存在的,這些系統(tǒng)很少把利用數(shù)據(jù)放在首位。
現(xiàn)在,總的來說,傳統(tǒng)的、以知識為中心的方法已經(jīng)被機器學(xué)習(xí)所取代,機器學(xué)習(xí)通常試圖從數(shù)據(jù)中學(xué)習(xí)所有東西,而不是依賴?yán)檬止ぞ幋a知識的、專門構(gòu)建的計算機程序。當(dāng)大數(shù)據(jù)革命來臨時,在20世紀(jì)10年代初,神經(jīng)網(wǎng)絡(luò)終于有了自己的日子,以深度學(xué)習(xí)名義復(fù)興。深度學(xué)習(xí)在很大程度上成為當(dāng)前人工智能投資的中心——無論是在學(xué)術(shù)界還是在工業(yè)界。
人工智能在一些應(yīng)用中取得了超人的性能,但現(xiàn)實是,我們離真正理解世界的人工智能還很遠。馬庫斯和戴維斯區(qū)分了當(dāng)今以深度學(xué)習(xí)為基礎(chǔ)的、狹隘脆弱的人工“智能”和人工通用智能,用洞察力解釋了當(dāng)前方法的缺陷,并提供了一條他們認(rèn)為能夠通向健壯人工智能的道路。
馬庫斯教授認(rèn)為,雖然深度學(xué)習(xí)技術(shù)在推進人工智能方面發(fā)揮了重要作用,但該領(lǐng)域當(dāng)前對它的過分強調(diào),很可能會導(dǎo)致其滅亡。馬庫斯列舉了技術(shù)和道德方面的問題。
從技術(shù)角度來看,深度學(xué)習(xí)可能擅長模仿人腦的感知任務(wù),例如圖像或語音識別。但這并不能滿足其他任務(wù),例如理解對話或因果關(guān)系。為了創(chuàng)建功能更強大、智能程度更高的機器(通常稱人工通用智能),深度學(xué)習(xí)必須與其他方法結(jié)合起來。
馬庫斯和戴維斯向我們展示了在我們到達目的地之前我們首先需要完成的事情,并認(rèn)為如果我們保持明智,我們就不必擔(dān)心機器霸主的未來,人類可以創(chuàng)造出一個我們可以信任的用于家庭、汽車和醫(yī)生辦公室里的人工智能。
當(dāng)人工智能系統(tǒng)無法真正了解其任務(wù)或周圍環(huán)境時,也可能導(dǎo)致危險的后果。即使在系統(tǒng)環(huán)境中進行最小的意外更改,也可能導(dǎo)致其出錯。已經(jīng)有無數(shù)這樣的例子:易于愚弄的詆毀言語檢測器,使歧視永久化的求職系統(tǒng),以及撞車的自動駕駛汽車有時會殺死駕駛員或行人。
馬庫斯教授和戴維斯教授認(rèn)為,對通用AI的追求,不僅僅是一個有趣的研究問題,它具有非常現(xiàn)實的意義。在他們的新書《重啟AI》中,馬庫斯和他的同事戴維斯提倡一條新的前進道路。他們認(rèn)為我們離實現(xiàn)這種通用智能還差得很遠,但他們也相信我們最終可以達到目標(biāo)。
來源:搜狐