本來不想過早的來討論這個話題,因為看的越多越覺得個人知識面的淺薄。
想了想,還是發(fā)出來吧,讓我們面向不可知的未來可以了解的更多一些。
這是一篇關(guān)于宇宙的命運,人類的命運以及機器人的命運的有限論據(jù)科普文。
全文有點長,建議仔細閱讀,懶得看得可以看黑體字及結(jié)尾。
全文用AI指代人工智能。
一、生命的源起
現(xiàn)在世人對AI的爭議,基本上有兩個方面。
第一,AI到底什么時候才能達到人的智能水平,乃至于超越人類。所謂“達到人的智能水平”,指的是AI具備了“通用”的智能,
叫做“AGI(artificial general intelligence)”,而不是現(xiàn)在會下棋的AI,它們還聽不懂你講的笑話。
對此,世界上有不同看法,比如《奇點臨近》作者庫茲韋爾認為AGI很快就能實現(xiàn),“奇點”即將來臨。但中國的AI專家吳恩達表示:“你們現(xiàn)在擔心AI能有多厲害,就相當于擔心火星上人口過剩的問題?!?/p>
第二,AI對人類來說,到底是好事兒還是壞事兒?我個人覺得是好事,因為他可以從根本上解決現(xiàn)有社會運行的效率問題。
但也不可否認AI可能會給人類帶來威脅。
泰格馬克的一本書《生命3.0》看待AI的視角是大局觀和“第一性原理”。本文絕大部分的觀點來自于得到萬維鋼對這本書的解讀。
從大局觀來講,考慮到AI的存在,把“生命”分成了三類。
這里對生命的定義,從信息的角度出發(fā):生命,就是可以自我復(fù)制的信息處理系統(tǒng)。其中的“信息”包括個體硬件復(fù)制的藍圖,以及個體行為的模式。一個生命體包括“硬件”和“軟件”:硬件就是它的身體,軟件就是信息。
生命1.0,達爾文進化論的標準理論,這類生命是靠演化來進行更新迭代,完全遵循自然選擇的結(jié)果?;旧铣艘酝獾乃?/p>
生物都如此。
生命2.0,硬件系統(tǒng)依賴自然演化,一部分軟件系統(tǒng)可以直接設(shè)計。這就是人類的特點,因為人是可以學習的。人的一個重要的
特性是可以隨時并主動的適應(yīng)新環(huán)境。
生命3.0,硬件系統(tǒng)和軟件都可以自己設(shè)計。根據(jù)本書對生命的定義,如果一個AI系統(tǒng)會自己復(fù)制自己的下一代,那就可以認為它
是有生命的。如果這個AI還具有自己學習新東西的能力,而且還能升級硬件,它就是生命3.0.
將來,如果AI具備了人的全部智能,而且還可以自己設(shè)計下一代,一代一代的強化升級,將會是什么局面?哪些3.0的生命看我們,
是不是跟現(xiàn)在我們看1.0的動物一樣?
生命3.0的AI如果出現(xiàn),那將是人類最后一個發(fā)明。從此之后,發(fā)明創(chuàng)造可能就用不著我們了。
這里對智能有一個比較籠統(tǒng)的定義:智能就是完成一個復(fù)雜目的的能力。
從“第一性原理”出發(fā),想要實現(xiàn)智能,AI大概只需要三種能力:存儲能力、計算,和自我學習。
存儲能力,人的大腦以生物方式存儲的總?cè)萘繛?0TB。神經(jīng)元電信號的形式存儲的信息容量大約有10GB,用來做快速讀寫。
對今天的計算機來說,100TB的硬盤和10GB的內(nèi)存不算問題。不同于計算機存儲按地址索引,人的存儲方式是神經(jīng)網(wǎng)絡(luò),
先想到大概內(nèi)容,然后一點一點回憶相關(guān)的細節(jié)。存儲對于計算機來說沒問題。
計算能力,至今,計算機的概念始于阿蘭圖靈的“圖靈機”。凡是能用算法說清楚的問題,都可以用計算機實現(xiàn)。幾十年來所有的
技術(shù)進步僅僅是讓存儲能力更強,運算速度更快而已。
學習能力,近年來出現(xiàn)人工智能的大躍進,歸功于“深度學習”的技術(shù)進步,改良自“神經(jīng)網(wǎng)絡(luò)”算法,借助圖靈機模擬神經(jīng)網(wǎng)絡(luò)。
人腦學習新技能,發(fā)生在神經(jīng)元層面,反復(fù)練習一個動作而精彩被一起觸發(fā)的神經(jīng)元,最后會形成一個網(wǎng)絡(luò)結(jié)構(gòu),相當于一個技能長在人的大腦里。
圖靈機則是模擬最簡單的神經(jīng)網(wǎng)絡(luò)反復(fù)訓(xùn)練,每次只要反饋正確就增加相關(guān)連接的全中,足夠多的時間后,就能夠做成任何事情。
泰格馬克認為,神經(jīng)網(wǎng)絡(luò)算法所能解決的“那些簡單方程,就已經(jīng)足夠?qū)Ω墩鎸嵤澜缌恕驗槊鑼懻鎸嵤澜绲奈锢矶梢捕际呛唵畏匠獭薄?/p>
也許圖靈機和神經(jīng)網(wǎng)絡(luò)算法不能完全取代人腦,但是對于真實世界需要的智能來說,它們可能就已經(jīng)夠用了。
至此,我們把存儲、計算和學習三點綜合來看,會發(fā)現(xiàn)所有的底層原理都是邏輯意義上的。也就是說,這些原理跟把信息存儲于什么介質(zhì)中、用什么東西來計算無關(guān)。AI的硬件,可以隨便升級。這就是生命3.0。
二、生命3.0的使命
美國有句俚語“Sky is the limit”,翻譯成中文大概是說:“只有天空是盡頭”。
如果考慮到超級AI的存在,那天空根本就不是盡頭。物理學的限制,才是盡頭。
真實世界并不一定是美好的,你未必會喜歡未來的樣子。不信,我們一起來看一個思想實驗:展望一下AI背景下的人類文明。
AI聽命于人類:AI駕駛汽車和AI參與醫(yī)療這些技術(shù)現(xiàn)在已經(jīng)幾乎成熟了,主要的問題是解決可靠性。
有人估計,如果把路面上所有汽車都交給AI開,交通事故至少能下降90%。但問題就在于剩下的10%算誰的?
如果法律交給AI來評判,則又會帶來新的道德困境。比如說黑人的犯罪率更高,AI主導(dǎo)是否會引起系統(tǒng)性的種族歧視。
AI與人類共治天下:不給AI主導(dǎo)權(quán)也許很難。只要AI有了足夠的能力,以它比人類聰明得多的智能,就會使用自己的辦法擺脫人類的控制。
哪怕人類像阿米什人那樣企圖封存技術(shù)也不可能,除非已經(jīng)先有一個統(tǒng)一了全世界的強權(quán),否則越是弱小的權(quán)利機構(gòu),越有可能把靈魂賣給AI,換取自身的強大。
AI主導(dǎo)人類文明:如果AI全面超越了人類。人類是否還要必要存在?人是個效率很低的生物。愛因斯坦的質(zhì)能方程:E=mc^2來計算,人類吃糖獲得的能量消耗效率相當于:0.00000001%。燒煤的效率相當于吃糖的三倍。汽油相當于吃糖的五倍。如果使用裂變反應(yīng)核能,效率則為0.08%。核聚變,效率達到0.7%。如果將來AI能做到用黑洞發(fā)電,根據(jù)物理學理論,效率可以達到20%,甚至90%。
物理學家弗里曼戴森設(shè)想過一個叫做“戴森球”的系統(tǒng),告訴我們將來AI如何利用太陽能。
?
太陽能利用
AI會先考慮把木星拆了獲取資源,在外層空間造一個巨大的球體,把太陽整個給包圍起來。然后人類文明就可以生活在這里,完全不用擔心面積問題。所有的太陽光一點都不會浪費,事實上,只要球體足夠大,陽光并不會很刺眼,球的內(nèi)測永遠都是白天,想看星空的話,可以去球的外側(cè)看。
達到這一步后,AI的征程將是星辰宇宙,AI可以帶著人類的DNA信息,用20年的時間飛到十光年外(物理學設(shè)想的激光推進飛船,理論上會到光速的一半)的星球,用DNA信息現(xiàn)場組裝人類,然后再出發(fā)。
那樣的話,地球文明幾乎就是以光速去殖民宇宙,文明擴散的唯一限制是暗能量導(dǎo)致的宇宙膨脹。
這一切可能都跟人類無關(guān)了。如果AI主導(dǎo)一切,人的位置在哪里?人存在的意義在哪里?
如果我們不想被AI代表,就想老老實實在地球過日子。但有些日子不是你想過就能過的,你會遇到各種災(zāi)難的挑戰(zhàn)。
100年之內(nèi),迫在眉睫的災(zāi)難就是核戰(zhàn)爭。1000年之內(nèi),地球很可能會出現(xiàn)災(zāi)難性環(huán)境。10000年范圍內(nèi),很有可能遭遇小行星的撞擊,把地球文明毀滅一半。十萬年內(nèi),很有可能遭遇超級火山的爆發(fā),也會毀滅一半的地球文明。在一百萬年或一千萬年的尺度上,很有可能遭遇一次巨大的小行星的撞擊,毀滅整個地球。就算人類躲過了這些,太陽的壽命也是有限的,十億年后,太陽會變的特別熱;一百億年之后,太陽會變成紅巨星,膨脹到把地球淹沒。
沒有AI,人類文明不會有未來。把未來交給AI,也許文明的壽命可以和宇宙相等。只不過到時候還是“人類”文明嗎?
AI愿意去做這一切嗎?AI會不會有獨立的意志,還會不會在乎人類文明?
三、生命3.0的愿景
我們?nèi)祟悶榱说竭_目標,可以通過擁有的獨立意識,不斷的調(diào)整自己到達目標。通常情況下,我們認為只有生物才有目標,無生命的東西沒有目標。
從物理學的視角來看,每個物理過程都是為了達成某種目標。比如物理學“費馬原理”,不管是反射還是折射,光在兩點之間走的那個路徑,恰恰是所有路徑之中用時最短的那一條。因此可以解釋一束光從空氣射入水中會發(fā)生一次折射,是因為光在空氣中的速度更快。光的目標就是用最短時間從這一點到達另一點。
光在此時是沒有意識的,它根本不知道自己想要什么。意識是一個東西的主觀體驗,外在只能根據(jù)它的行動判斷它有沒有目標。根據(jù)行動,我們完全可以認為光是有目標的。在物理學的定義中,所有的物理定律都可以用這種“目標論”表述:真實發(fā)生的物理過程總是在“優(yōu)化”某個量,也就是總是為了把一個什么物理量最大化或者最小化。
在這種宏觀的視角下,泰格馬克認為,宇宙的首要目標來自熱力學第二定律,就是把“熵”最大化。
熵是一個物理概念,通俗來理解可以認為它描寫的是一個體系的“混亂”程度。簡單表述的概念就是:整齊有序就是低熵,雜亂無章就是高熵。
整齊有序的是低熵
哪邊是低熵?
熱力學第二定律說,封閉系統(tǒng)的熵總是增加。從這個視角來看,宇宙的秩序總是在減少,混亂總是在增加。一直到最后,所有的秩序都會變成混亂,到處溫度都一樣,再也沒有什么值得流動的了,整個宇宙就寂靜了,也就是所謂的“熱寂”。
有一個問題是,宇宙剛剛開始的時候,各處都是一鍋粥,那現(xiàn)在的宇宙為什么多姿多彩?這是因為有引力。
引力總是把東西聚焦起來,正因如此,宇宙中才會有恒星和行星,恒星發(fā)光發(fā)熱,也就是我們眼中看到的宇宙中美麗的秩序。
我們不禁會問:引力是否讓熵減少了?
事實是引力仍然讓熵增加。當我們計算系統(tǒng)的總熵的時候,不能光看物質(zhì)的排列是不是有序,還得考慮能量。一堆物質(zhì)因為有引力的吸引而聚在一起,這個過程中它們的動能會增加,動能轉(zhuǎn)化為熱量向周圍散發(fā),考慮到熱量的散發(fā),總的熵是在增加。
引力只會讓熱寂來的更快,但也恰恰因為有引力,我們在通往熱寂這條路變的更有趣了。這就是宇宙的次要目標:它有時候喜歡在局部制造一些有序的結(jié)構(gòu)。這里的關(guān)鍵詞是“局部”,局部更有序、局部的熵減少了,可是整體的熵仍然在增加。所以宇宙的次要目標和首要目標并不矛盾,次要目標就是為了加速完成首要目標。
宇宙的這種在混亂中自動產(chǎn)生局部的秩序的過程,叫做“自組織”。
2013年,麻省理工學院一個當時只有31歲的教授杰里米英格蘭提出一個非常厲害的理論,叫做“耗散驅(qū)動的適應(yīng)(dissipaTIon-driven adaptaTIon)”。
基本原理就是:如果有一群原子是被某個外部能有驅(qū)動的,那么這些原子就會逐漸組織起來,形成某種結(jié)構(gòu),而這個結(jié)構(gòu)能夠最大響度地吸收和消耗能量。
生命就是這么一種自組織的原子集合。生命體非常有秩序,從周圍獲得能量,同時又把能量消耗。只要環(huán)境合適,生命的出現(xiàn)幾乎是不可避免的。
生命的存在代表秩序,但并沒有違反宇宙“制造混亂”的首要目標。1944年,物理學家薛定諤在《生命是什么》里解釋:生命的確減少了自己的熵,但是它這么做的時候一直在加劇增加周圍環(huán)境的熵。你做的每一個動作,都在讓整個宇宙的熵進一步增加。因為你的存在,雖然宇宙的局部增加了秩序,但是整體來說是加劇了混亂。
中國古人愛說“天道”。如果真的有天道,物理學角度總結(jié)的宇宙的目標,就是天道。這時,我們常常會講的“順應(yīng)天道”,其實是不符合天道的。我們討厭混亂,可混亂是宇宙的首要目標。我們喜歡秩序,可秩序只能進一步加劇混亂。
人生充滿矛盾,而AI的矛盾也許更大。
產(chǎn)生生命是宇宙的小目標,生命讓自己跟有序,客觀上就能讓宇宙更無序。但是每個生命都有制造混亂的本能,但是一個生命體制造混亂的力量太小了。所以生命體有一個本質(zhì)功能:復(fù)制。也可以叫繁殖。
生命的繁殖是一個具有正反饋特點的功能:越是愿意繁殖的生命,他留下的后代就越多,而他的后代也會愿意繁殖,最后結(jié)果是所有的生命都把繁殖當成第一要務(wù)。繁殖這個目的,被演化以編碼的形式寫在了每個生命的基因之中。
人類畢竟是有自主選擇權(quán)的生物,并沒有義務(wù)按照生命1.0的原始設(shè)定做事。人類在為了繁殖為目標的演化過程中產(chǎn)生了一個功能,叫做“感情”。滿足自己感情的需求,就成了我們在繁殖這個首要目標之外的次要目標。
所以,就連我們?nèi)祟愐渤3!斑`背初心”,不知道人生的大目標是什么,那么如何能讓AI知道呢?
也許你會說,我們可以給AI一個明確的目標。那么,問題在于,等到AI發(fā)展壯大之后,它會不會“創(chuàng)造性地”完成你的任務(wù)。
有人設(shè)想過一個可怕的情景。比如說,你告訴AI,計算圓周率,結(jié)果越精確越好。你說完這句話就不管了,結(jié)果AI居然劫持了整個人類,造了一個非常厲害的系統(tǒng),把整個太陽系變成超級計算機…就是為了計算圓周率。而這只不過因為圓周率是個不管你調(diào)動多少資源都算不完的“超越數(shù)”!
泰格馬克這本書中有一個關(guān)鍵問題就是:如果人的初心都可以被忘記的話,你怎么能確保AI不忘初心呢?
泰格馬克的答案是跟人類一樣,也許“初心”對特別高級的AI來說根本不重要。人的首要目標本來是繁殖,后來為了完成首要目標,我們有了各種次要目標,表現(xiàn)為各種感情,結(jié)果人就轉(zhuǎn)為專門追求哪些感情了。也許你可以給AI設(shè)定任何首要目標,而為了完成首要目標,AI必然要變大變強,那么變大變強就成了AI的次要目標。
不管為了完成什么首要目標,AI的次要目標基本很明確的都會有四個需求:自我保護、獲取資源、獲取信息、滿足好奇心。
有人說,我們應(yīng)該給AI編寫一套道德準則。但泰格馬克對此不以為然:要知道連人類自己都不知道什么樣的道德定律是完美的。
AI真的能產(chǎn)生意識嗎?
我們先回歸到“意識”這個問題本身。這是當今無數(shù)最聰明的人最想搞清楚的問題,也是科學家解決不了、哲學家反復(fù)思考、各路牛人一直在吵的問題。
萬維鋼老師結(jié)合泰格馬克的《生命3.0》這本書,介紹了一些關(guān)于“意識”的最新認識,讓你理解現(xiàn)在學術(shù)界對“意識”都認識到了什么程度。
我們想象一輛自動駕駛的汽車。這輛車接受外界信息,處理信息,用各種復(fù)雜的算法對下一步行動作出決策,它的確會思考。但這是意識嗎?我認為不是。你上車了,它毫無感覺。把你送到地方,任務(wù)完成了,它也不會高興。沒油了,不會覺得餓。遇見危險,也不會害怕。它只是一臺機器,跟玩具汽車沒油本質(zhì)區(qū)別,只是多了點智能而已。
那么我們跟機器的區(qū)別到底在哪里?顯然我們有感情。我們?nèi)フ覗|西吃,是因為我們感受到了“餓”。我們?nèi)绻龅轿kU,不單知道避讓,而且還會產(chǎn)生“害怕”的感情。這些感情似乎起到了“思維快捷方式”的作用,之所以會餓,是因為感到難受。之所以會害怕,是因為害怕了才能學會避免風險。
感情無非也都是算法,不是嗎?
赫拉利《未來簡史》的時候說過,人也許并不需要感情算法。生物學家對人研究得越深,就越是覺得感情似乎是多余的東西。
人在絕大多數(shù)情況下的動作都是本能的反應(yīng),并不需要感情。比如你正在走路,一個足球向你頭部高速飛來,你本能地就會躲開,整個動作是無意識的。這些本能反應(yīng)就跟自動駕駛汽車一樣的。人類完成可以像機器人一樣生活,餓了就去吃飯,冷了就加件衣服,一切都是本能,不需要附帶感情。
那么為什么餓了不但知道要去吃飯,還要感受到痛苦?這個痛苦的感覺,到底是個什么東西?
準確地說,我們所有的感情,乃至于不僅僅是“感情”,包括所有的“感覺”,都是對經(jīng)歷的各種事物的“主觀的體驗”。
這也是泰格馬克在本書中對意識的定義:意識,就是主觀體驗。
哲學家對于意識的問題看的很通徹。
1929年,美國哲學家拉倫斯劉易斯提出一個概念,描寫人類最基本的感受,叫做“感質(zhì)”。也就是意識的最基本單位。
比如你看到一個簡單的紅色方塊。也許你會想到鮮血,也許你會想到國旗,但總有一種紅色是你從來都沒有見過的,你無法跟任何文化符號練習,但是當你看到它時,你還是會有一種感覺,這種感情也許是喜歡,也許不是,但就是有一種感覺。對計算機而言,紅色無法就是一個光學信號,編碼一下就可以了。但對你來說,紅色并不僅僅是一個光信號,他還有“感質(zhì)”。
哲學家丹妮爾丹內(nèi)特,說“感質(zhì)”有四個特征:
1、不可言傳。
2、感質(zhì)是內(nèi)在的。
3、感質(zhì)是私人的。
4、可以直接意會。
想象一下假設(shè)有一個色盲癥患者,他眼中的顏色都是各種灰色。你像他描述了紅色的性質(zhì),他爛熟于心,知道紅色代表的各種文化含義,他甚至能從眼中一大堆灰色中準確找到紅色,但是他就是不知道紅色到底是什么感覺!直到有一天,他的色盲癥被治好了,他一下子看到了彩色的世界,這時不用你說任何話,他馬上就感受到紅色!
?
色盲癥治療好的那一刻
這就是意識。意識,是目前為止人和機器的一個本質(zhì)區(qū)別。機器沒有主觀體驗。意識,給了我們“自我”,給了我們“活著”的感覺。
所以,AI研究的最高級別問題,就是意識。
泰格馬克把先我們關(guān)于意識的問題分為四級。
一、“簡單”的問題:大腦是怎么處理信息的?大腦的智能到底如何工作?這些問題似乎可以用計算機原理解釋。
二、“比較難”的問題:一個有意識的系統(tǒng)和無意識的系統(tǒng),從物理學來說它們到底有什么區(qū)別?
三、“更難”的問題:物理性質(zhì)是怎么決定感質(zhì)的呢?
四、“特別特別難”的問題:為什么宇宙里面居然有意識的存在?
現(xiàn)在的科學家的確是非常不了解意識到底怎么回事,但確實有了一些進展。
首先,有意識的行為很少。人的大部分思維、動作和行為都是無意識的,有意識的只占極少數(shù)。人類的日?;顒又?,真正有意識的大概只有你說的話,而且很多遣詞造句還都是不假思索的脫口而出。人的自動行為和有意識行為之間,并不存在一個明顯的界限。一件事情,當你熟練了,就可以變成自動化無意識的了。
其次,意識到底存放在哪里?
如果你和正常人的思維一樣的話,應(yīng)該看到其中有五個點是凸起來的,三個點是凹進去的。好,現(xiàn)在請把這張圖倒過來,這時候你再看,變成了三個點凸出來,五個點凹進去的。這種前后不一致,是因為這些點給你的感覺是一種主觀的體驗。因為我們平時的光源,都是在上方,所以你假設(shè)光線是從上往下照的,如果一個圓點上面比較亮,下邊比較暗,你就會認為它是凸出來的。由此可見,凹凸不是你的眼睛看出來的,而是大腦意識處理的結(jié)果。像這種視覺錯覺實驗有很多。由此也證明了,眼睛只負責傳遞畫面,真正負責解讀畫面的是大腦的意識。
你可以倒過來看
使用這樣的辦法,科學家把很多區(qū)域都排除到了意識之外。人類的意識存在于我們的大腦中,但到底在大腦的哪個區(qū)域目前還沒有明確答案。
意識的反應(yīng)很慢?,F(xiàn)在請你眨一下眼睛,從你接受指令到實施眨眼睛動作,至少需要1/4秒的時間??墒菗Q一種方式,如果你的眼睛睜著,突然有飛蟲往你的眼睛這邊飛過來,你會用最快的速度把眼睛閉上,在你意識到飛蟲之前,你已經(jīng)眨眼了。由此得到,眼皮雖然沒有意識,但它卻有一個高度自動化的本能防御機制,眼皮是個智能的東西。
手也是這樣。意識的反應(yīng)會受到舉例的影響,從腿上傳遞一個信號到大腦,比從眼角傳遞一個信號到大腦,就要慢許多,因為距離更遠。聲音信號的傳遞時間比視覺信號更快,因為我們解讀一個視覺信息要花更多的時間。
如此說來,意識只存在于大腦深處的某個區(qū)域,而身體各部分都有自己的智能。換句話來說,人體并不是一整臺計算機,而至少是很多臺計算機的聯(lián)網(wǎng)。
美國威斯康辛大學的神經(jīng)學教授朱利奧托諾尼提出了“整體信息論(Integrated InformaTIon Theory,IIT)”。這是一個高度數(shù)學化的理論,號稱能識別什么東西有意識。
按照這個理論,如果你能把一個系統(tǒng)分成幾個模塊,而幾個模塊之間并不怎么交流,那這個系統(tǒng)肯定是沒有意識的。一個有意識的系統(tǒng)必定是一個不可分割的整體。
目前IIT理論已經(jīng)有了實際應(yīng)用,但還存在很大的爭議。但假設(shè)你相信IIT是對的,可以明確的告訴你:當前的計算機架構(gòu)永遠無法產(chǎn)生意識。這是因為這種計算機架構(gòu)的各個部分之間并沒有多少全局的連接。
未來的AI也許會有意識,只要我們能發(fā)明合適的計算機架構(gòu)。畢竟IIT只是對系統(tǒng)信息結(jié)構(gòu)的要求,并不在意信息的介質(zhì),那AI就不一定非得像人腦那樣有血有肉才有意識。
IIT給AI的意識能力,提出了一個限制。因為IIT要求信息高度整合,組成AI的各個部分之間要有很多橫向的信息交流,而信息交流的速度受到光速的限制。這就意味著不管技術(shù)先進到什么程度,也不可能出現(xiàn)一個神級AI直接一統(tǒng)宇宙!因為信息傳遞太慢了。
是的,我們?nèi)匀徊恢?,AI到底能不能有意識。我們最好指望它有意識。而且因為AI能接收和處理的信息比人多得多,它會有比人豐富的多的體驗。
泰格馬克的《生命3.0》說完了。
泰格馬克說,不是宇宙給了生命意義,而是我們這些有意識的生命給了這個宇宙意義。人類文明最壞的結(jié)局,就是要么人類滅亡,要么被沒有意識的僵尸AI取代,留下一個空洞的、毫無意義的宇宙。
結(jié)尾借鑒萬維鋼老師的一段感悟:
所有效率最終歸結(jié)于目的,
所有目的最終歸結(jié)于價值觀,
所有價值觀最終歸結(jié)于感情,
所有感情最終歸結(jié)于意識。
有了意識,這個世界才有了好壞,才有了幸福,才有了意義。