千名大佬緊急呼吁停止?AI?訓(xùn)練!OpenAI:GTP-4?已出現(xiàn)無(wú)法解釋的推理~
從去年 11 月的 ChatGPT 再到今年的 GPT-4,AI 的成長(zhǎng)迅速刷新了人們的認(rèn)知,每個(gè)人應(yīng)該都明白科幻電影遲早會(huì)走進(jìn)現(xiàn)實(shí),只是沒(méi)想到這么快而已。
這兩天,以 SpaceX/特斯拉/推特 CEO 馬斯克、圖靈獎(jiǎng)得主 Yoshua·Bengio、蘋(píng)果聯(lián)合創(chuàng)始人 Steve·Wozniak 等為首的多名業(yè)內(nèi)大佬聯(lián)名叫停訓(xùn)練所有比 GPT-4 更強(qiáng)大的 AI。
截止發(fā)稿前,該公開(kāi)信的簽名人數(shù)已經(jīng)達(dá)到了 1377 人,其中包含大量業(yè)內(nèi)著名人士,含金量毋庸置疑,而且因?yàn)槿藬?shù)太多,簽名已經(jīng)暫時(shí)不更新了。
據(jù)悉,該公開(kāi)信的目的是要求所有 AI 實(shí)驗(yàn)室立即暫停對(duì)比 GPT-4 更強(qiáng)大的 AI 系統(tǒng)的訓(xùn)練至少 6 個(gè)月,以下為聯(lián)名的公開(kāi)信全文:
全球頂級(jí) AI 實(shí)驗(yàn)室的驗(yàn)證以及大量的研究表明,擁有人類(lèi)競(jìng)爭(zhēng)智慧的 AI 系統(tǒng)可能對(duì)社會(huì)和人類(lèi)構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。在被廣泛認(rèn)可的《Asilomar AI》原則中,高級(jí) AI 可能代表地球生命史上的深刻變化,應(yīng)以相應(yīng)的關(guān)懷和資源進(jìn)行規(guī)劃和管理。不幸的是,這種級(jí)別的規(guī)劃和管理并沒(méi)有發(fā)生,盡管最近幾個(gè)月人工智能實(shí)驗(yàn)室陷入了一場(chǎng)以開(kāi)發(fā)和部署更強(qiáng)大的數(shù)字思維為目的的失控競(jìng)賽,沒(méi)有人——甚至其創(chuàng)造者都無(wú)法理解、預(yù)測(cè)或可靠地控制的人工智能。
當(dāng)代人工智能系統(tǒng)現(xiàn)在在一般任務(wù)上變得與人類(lèi)具有競(jìng)爭(zhēng)力,我們必須捫心自問(wèn):
我們是否應(yīng)該讓機(jī)器用宣傳和謊言充斥我們的信息渠道?
我們應(yīng)該把所有的工作都自動(dòng)化嗎,包括有成就感的工作?
我們是否應(yīng)該發(fā)展數(shù)量和智慧都最終會(huì)超越我們自己的非人類(lèi)智能嗎?
我們應(yīng)該冒著失去對(duì)我們文明控制的風(fēng)險(xiǎn)嗎?
不得將此類(lèi)決定拋給未經(jīng)選舉產(chǎn)生的技術(shù)領(lǐng)導(dǎo)者,只有當(dāng)我們確定其影響是積極的并且風(fēng)險(xiǎn)是可控的時(shí)候,才應(yīng)該開(kāi)發(fā)強(qiáng)大的 AI 系統(tǒng),而且這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加。OpenAI 最近關(guān)于通用人工智能的聲明指出,“在某些時(shí)候,在開(kāi)始訓(xùn)練未來(lái)系統(tǒng)之前可能不得不進(jìn)行重要的獨(dú)立審查,并且對(duì)于最先進(jìn)的研究來(lái)說(shuō),可能要限制用于創(chuàng)建新系統(tǒng)的計(jì)算增長(zhǎng)率?!? 這個(gè)觀點(diǎn)我們同意,某些時(shí)候就指的是現(xiàn)在。
因此,我們呼吁所有 AI 實(shí)驗(yàn)室立即暫停至少 6 個(gè)月的訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 系統(tǒng)。這種暫停應(yīng)該是公開(kāi)的和可驗(yàn)證的,并且包括所有關(guān)鍵參與者。如果不能迅速實(shí)施這種暫停,政府應(yīng)介入并暫停。
AI 實(shí)驗(yàn)室和獨(dú)立專(zhuān)家應(yīng)該利用這次暫停的機(jī)會(huì),共同開(kāi)發(fā)和實(shí)施一套用于高級(jí)人工智能設(shè)計(jì)和開(kāi)發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專(zhuān)家進(jìn)行嚴(yán)格審計(jì)和監(jiān)督,這些協(xié)議應(yīng)確保其系統(tǒng)是安全的,而且這并不意味著徹底暫停 AI 的開(kāi)發(fā),只是從危險(xiǎn)的競(jìng)賽中及時(shí)抽身到具有可控應(yīng)對(duì)機(jī)制的正確道路上,而不是在大且不可預(yù)測(cè)的黑盒子中亂撞。
人工智能研究和開(kāi)發(fā)應(yīng)該重新聚焦于使當(dāng)今強(qiáng)大的、最先進(jìn)的系統(tǒng)更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴(lài)和忠誠(chéng)。
與此同時(shí),AI 開(kāi)發(fā)人員必須與政策制定者合作,以顯著加快開(kāi)發(fā)強(qiáng)大的 AI 治理系統(tǒng)。這些至少應(yīng)包括:
專(zhuān)門(mén)負(fù)責(zé) AI 的全新且有能力的監(jiān)管機(jī)構(gòu);
監(jiān)督和跟蹤強(qiáng) AI 系統(tǒng)和大量計(jì)算的能力;
確定 AI 出處以及水印系統(tǒng),以幫助區(qū)分真實(shí)與合成并跟蹤模型泄漏;
強(qiáng)大的審計(jì)和認(rèn)證生態(tài)系統(tǒng);
AI 造成傷害的責(zé)任認(rèn)定和承擔(dān);
為 AI 的安全研究提供強(qiáng)大的公共資金;
資源充足的機(jī)構(gòu)來(lái)應(yīng)對(duì) AI 將造成的巨大的經(jīng)濟(jì)和政治破壞(尤其是民主)。
人類(lèi)可以享受 AI 帶來(lái)的繁榮未來(lái),創(chuàng)建強(qiáng)大的 AI 系統(tǒng)后享受“AI 帶來(lái)的夏天”,收獲回報(bào),將這些 AI 系統(tǒng)設(shè)計(jì)造福所有人,給社會(huì)一個(gè)適應(yīng) AI 的機(jī)會(huì),而且社會(huì)需要評(píng)估可能對(duì)社會(huì)造成災(zāi)難性影響的技術(shù)。讓我們享受一個(gè)漫長(zhǎng)的 AI 之夏,而不是毫無(wú)準(zhǔn)備地陷入秋風(fēng)掃落葉的境地。
但是,另一位圖靈獎(jiǎng)得主、Facebook 首席人工智能科學(xué)家以及紐約大學(xué)教授楊立坤仿佛對(duì)此并不認(rèn)可,而且也公開(kāi)表明不同意該信件的內(nèi)容并拒絕簽署。
除此之外,普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授 Arvind·Narayanan 認(rèn)為,這封信本身就進(jìn)一步炒作了 AI,反而更難解決其帶來(lái)的危害,而且重要的是這將會(huì)使得未來(lái)對(duì) AI 監(jiān)管的公司變成受益方,而不是社會(huì)。
據(jù)悉,OpenAI 的 CEO Sam·Altman 目前對(duì)此并沒(méi)有明確表態(tài),但是我們發(fā)現(xiàn)前不久他在和麻省理工學(xué)院的科學(xué)家 Lex·Fridman 的一次對(duì)話中似乎找到了答案。
“從 ChatGPT 開(kāi)始,AI 出現(xiàn)了推理能力,但是沒(méi)人知道這種能力出現(xiàn)的原因”,Sam·Altman 在采訪中表示,“GPT-4 確實(shí)存在應(yīng)對(duì)不同價(jià)值觀的人的問(wèn)題?!?
最驚悚的是,Sam·Altman 承認(rèn) AI 確實(shí)可能殺死人類(lèi)。其實(shí)不止他,馬斯克、比爾蓋茨等均表現(xiàn)出了對(duì) AI 發(fā)展威脅到人類(lèi)安全性的擔(dān)憂。
Sam·Altman 和馬斯克
在本周一的 2023 中國(guó)發(fā)展高層論壇上,周鴻祎表示,GPT-4 已經(jīng)屬于真正的強(qiáng)人工智能,已經(jīng)進(jìn)化出了眼睛和耳朵,未來(lái)可能會(huì)進(jìn)化出手和腳,甚至在 GPT-6/GPT-8 將會(huì)產(chǎn)生意識(shí)而變成新的物種。
最后,人類(lèi)歷史進(jìn)程中幾乎所有的新技術(shù)都是一把雙刃劍,既能帶來(lái)好處,隨之而來(lái)的就是風(fēng)險(xiǎn),無(wú)論是汽車(chē)飛機(jī)還是核物理的應(yīng)用,今天的 AI 依然如此,這也是有人贊成有人反對(duì)的根本原因。
我們先就 AI 談幾個(gè)問(wèn)題:AI 是軟件,是軟件就會(huì)有 BUG,這是否會(huì)造成嚴(yán)重的后果?其次,復(fù)雜系統(tǒng)的行為是高度非線性的,幾乎不可能被完全理解,那么隨著 AI 的不斷訓(xùn)練和迅速迭代,現(xiàn)階段的管理甚至法律就會(huì)出現(xiàn)嚴(yán)重的漏洞。
還要面對(duì)一系列哲學(xué)和倫理問(wèn)題,比如 AI 作為一個(gè)獨(dú)立且先進(jìn)的文化或物種,如何與人類(lèi)共存等等,起碼確保不會(huì)變成終結(jié)者或出現(xiàn)《I, Robot》中的襲擊人類(lèi)的事情。