人工智能能征服人類,是夸大其詞嗎
人工智能話題愈演愈熱,互聯(lián)網(wǎng)、硬件領(lǐng)域巨頭紛紛布局,成立專門的研究院攻克這一技術(shù)。
不少科幻影片中已經(jīng)多次描繪出人工智能最終極的形態(tài):像人一樣思考,擁有人的情感。而要達(dá)到這樣的強(qiáng)人工智能,目前的技術(shù)還處于初級階段,從技術(shù)來說,自主學(xué)習(xí)的算法還有待突破。而一旦擁有人類的感情,如何能夠阻止人工智能顛覆人類世界也需要技術(shù)保證安全性能。
深度學(xué)習(xí)與無監(jiān)督學(xué)習(xí)
成熟的人工智能研究涉及到好幾百種算法。
“之前大部分的AI運(yùn)用監(jiān)督式學(xué)習(xí)算法,未來我們要發(fā)展出更多非監(jiān)督式學(xué)習(xí),讓人工智能自主學(xué)習(xí),目前朝著良性的趨勢發(fā)展,但還未達(dá)到我們希望的階段。”微軟亞洲研究院院長芮勇在全球人工智能與機(jī)器人峰會(huì)上對包括《第一財(cái)經(jīng)日報(bào)》在內(nèi)的媒體表示。
監(jiān)督學(xué)習(xí)以及無監(jiān)督學(xué)習(xí)分別是人工智能兩種算法。在監(jiān)督式學(xué)習(xí)下,輸入數(shù)據(jù)被稱為“訓(xùn)練數(shù)據(jù)”,每組訓(xùn)練數(shù)據(jù)有一個(gè)明確的標(biāo)識或結(jié)果。在建立預(yù)測模型的時(shí)候,監(jiān)督式學(xué)習(xí)建立一個(gè)學(xué)習(xí)過程,將預(yù)測結(jié)果與“訓(xùn)練數(shù)據(jù)”的實(shí)際結(jié)果進(jìn)行比較,不斷調(diào)整預(yù)測模型,直到模型的預(yù)測結(jié)果達(dá)到一個(gè)預(yù)期的準(zhǔn)確率。
而無監(jiān)督學(xué)習(xí)中數(shù)據(jù)并不被特殊標(biāo)識,也就是在之前,計(jì)算機(jī)并不被告知怎么做,通過自主學(xué)習(xí)做法。其中一種無監(jiān)督學(xué)習(xí)的思路是在成功時(shí)采用一定的激勵(lì)制度來訓(xùn)練機(jī)器人培養(yǎng)出正確的分類。無監(jiān)督學(xué)習(xí)方式是機(jī)器人工智能發(fā)展的關(guān)鍵技能之一。
除此之外,深度學(xué)習(xí)也被認(rèn)為是能夠成就未來超級人工智能的重要研究方向。深度學(xué)習(xí)試圖建立大得多也復(fù)雜得多的神經(jīng)網(wǎng)絡(luò),百度也開始發(fā)力深度學(xué)習(xí)后,在國內(nèi)引起了很多關(guān)注。而很多深度學(xué)習(xí)的算法是半監(jiān)督式學(xué)習(xí)算法,用來處理存在少量未標(biāo)識數(shù)據(jù)的大數(shù)據(jù)集。
去年,百度在github上開源了其深度機(jī)器學(xué)習(xí)平臺。同時(shí)發(fā)布的深度機(jī)器學(xué)習(xí)開源平臺屬于“深盟”的開源組織,其核心開發(fā)者來自百度深度學(xué)習(xí)研究院(IDL),微軟亞洲研究院、華盛頓大學(xué)、紐約大學(xué)、香港科技大學(xué),卡耐基·梅隴大學(xué)等知名公司和高校。
作為在人工智能布局較早的玩家,百度擁有領(lǐng)先業(yè)界的實(shí)力。從2013年百度深度學(xué)習(xí)研究院(IDL)的創(chuàng)建及2014年Andrew Ng的加盟至今,百度DMLC分布式深度機(jī)器學(xué)習(xí)開源項(xiàng)目已在深度學(xué)習(xí)的多個(gè)應(yīng)用領(lǐng)域做過探索,上線了多個(gè)成熟產(chǎn)品。
阻止AI顛覆人類
機(jī)器無監(jiān)督式學(xué)習(xí)讓人工智能離人類智能更近一步,而一旦機(jī)器人產(chǎn)生自主學(xué)習(xí)意識但卻不能像人類一樣分辨信息好壞,則有可能出現(xiàn)如不少電影中所描述的,機(jī)器人顛覆人類的場景。
今年3月,微軟在社交軟件Twitter上線了一款名叫Tay Tweets的人工智能機(jī)器人,在介紹扉頁,微軟邀請更多網(wǎng)友與Tay交談,并稱Tay會(huì)從這些談話內(nèi)容中自主學(xué)習(xí)與人對話交流。
“在開發(fā)Tay的過程中,我們計(jì)劃并配置了許多過濾系統(tǒng),并在多樣化的用戶群體中進(jìn)行了廣泛的用戶調(diào)研。我們在多種不同環(huán)境中對Tay進(jìn)行了壓力測試,尤其是確保與Tay的互動(dòng)能帶來積極體驗(yàn)。”微軟研究院副總裁Peter Lee表示。
然而,上線不足24小時(shí),Tay受到攻擊,不但頻頻發(fā)出帶有色情挑逗的話語,并且成為了納粹擁護(hù)者。微軟不得不關(guān)停Tay并對其進(jìn)行改進(jìn),如今要想看Tay的推文并交流,只能先通過其后臺驗(yàn)證成為粉絲。
Tay所遭遇的這些漏洞同時(shí)也揭示了目前人工智能在自主學(xué)習(xí)上所面臨的困境:如何讓機(jī)器在這個(gè)過程中有效過濾出不好的信息。
加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)科學(xué)系教授、人工智能專家Stuart Russell認(rèn)為要造出符合人類預(yù)期的超級智能機(jī)器人,必須符合以下原則:機(jī)器人通過觀察人類作出的選擇學(xué)習(xí)人類價(jià)值觀,但其不能清晰認(rèn)識人類價(jià)值觀。在執(zhí)行任務(wù)中機(jī)器人還應(yīng)該保證最大化實(shí)現(xiàn)人類價(jià)值。
在這種原則下,機(jī)器人不能擁有自己的意志,也不能產(chǎn)生保護(hù)自我的內(nèi)在意圖。機(jī)器只知道要讓人類的價(jià)值最大化,而不知道這種價(jià)值具體指的是什么,所以當(dāng)人準(zhǔn)備關(guān)掉機(jī)器的開關(guān)時(shí),它就會(huì)認(rèn)為這是一件好事,因?yàn)樗苊靼兹祟惏聪玛P(guān)機(jī)按鈕是為了讓機(jī)器人不做違背人類價(jià)值的事。
“盡管存在各種困難,我還是相信,機(jī)器可以充分學(xué)習(xí)人類的價(jià)值觀,在幫助我們的同時(shí)不對我們構(gòu)成威脅。”Stuart Russell表示。
“即便人工智能做到感情層面,但是人除了這些東西,還有更復(fù)雜的——用大腦構(gòu)建世界,這個(gè)人工智能難以模仿。如果有一天人培養(yǎng)的人工智能真正征服了人類,人要么必須超越他創(chuàng)造的奇怪的物種,否則的話他就會(huì)被取代。”真格基金創(chuàng)始人王強(qiáng)表示。