當你迷路時,Siri可以成為你最好的朋友。但如果她無法從您的聯系人中找回正確的地址,她可能會讓您發(fā)瘋。
因此,正在進入我們生活的虛擬個人助理隊伍,從亞馬遜的Alexa到Google的Home,人們正忙著與智能機器交談,這是前所未有的。
據估計,超過60%的互聯網流量現在由機器對機器和人機對話通信產生。IT顧問公司Gartner預測,到2020年,普通人與機器人的談話將多于與合作伙伴的談話。(有時我們甚至不知道我們在做什么)。
正如短信改變了書面溝通一樣,談論機器人可能會改變我們彼此溝通的方式。
談話是社交的已故的社會學家Diedre Boden寫道,人類社交性是通過“談話,談話,談話和更多談話”來創(chuàng)造的。
人與人交談不僅僅是我們如何交換信息,還包括我們如何執(zhí)行許多任務,例如訂購比薩餅,預訂機票和確認會議。正是這些任務我們越來越多地轉包給機器人。
當我們面對面交流時,人們期望相互關注,但如果我們要與非人類進行大部分談話,這些規(guī)范可能會完全被解構。
與面對面的談話不同,聊天機器人不需要我們努力使對話有禮貌或有趣。我們不需要迷人,有趣或堅定我們的智慧。
機器人不需要喜歡我們,即使我們需要被喜歡。事實上,這會使事情變得非常復雜。機器將簡單地提取創(chuàng)建適當響應所需的信息。
有可能一直與機器交談可以重新設計我們的對話方式。我們最終可能會得到與表情符號相同的語言。正如“紐約時報”最近發(fā)表的一篇文章所述,與機器人互動可能“意味著我們的社交肌肉萎縮”。如果他們只是機器,為什么還要煩惱呢?
對此的科學研究尚不清楚。一些研究發(fā)現人們實際上對機器人非常親切,而其他研究表明,當我們知道我們的對話伙伴不是人類時,我們可能會變得粗魯無禮。我們可以習慣于圍繞著事物,這種行為可能會滲透到日常生活中。
記住我們的舉止科技公司已經在努力解決這個問題。在得知父母的擔憂之后,亞馬遜為其Echo設備創(chuàng)建了禮貌模式,溫柔地提醒用戶說“請”。
一些聊天機器人正在發(fā)展,以進一步模仿人類的情感。例如,臨床心理學家Alison Darcy 建立了一個談話機器人來幫助抑郁和焦慮的人。令人愉快的Woebot在部署的第一周就與50,000人進行了交談 - 超過了人類心理學家一生中可以說話的人。
在一項針對70名年輕成年人的研究中,Darcy 發(fā)現,經過兩周與機器人的互動,測試對象的抑郁和焦慮發(fā)生率較低。軟件的注意力讓他們印象深刻,甚至感動。
其中一個受試者告訴Darcy 的團隊:“Woebot感覺像一個真正關心的人。”
小故障和誤解1950年,科學家阿蘭·圖靈設計了一個實驗來回答科學中最持久的問題之一:是否有可能創(chuàng)造出一個可能被誤認為人類的機器人?
到目前為止,答案大多是否定的。
這樣做的原因是人工智能設備通過從龐大的代碼數據庫,腳本話語和網絡會話中吸取來回應語音。因此,他們很少能夠以較小的方式回應人類對話的意外變化和巨大的復雜性。
關于人工智能的兩本書的作者布萊恩·克里斯蒂安(Brian Christian)談到了這樣的機器話題:“你得到的,數十萬先前對話的拼湊在一起,是一種會話式的泥濘。由人體部分組成,但不是人類的總和“。
在這個階段,我們可以最好地了解日常談話和自動機器對話之間的差異,當出現問題或存在技術故障時。
以俄勒岡州波特蘭市的一個家庭的故事為例,亞馬遜Alexa將家庭背景中的人類對話解釋為其問題的答案。Alexa隨后向他們的聯系人列表中的某個人發(fā)送了對話錄音,就像它曾經要求的那樣。
人工智能就在我們身邊即使我們可能擁有較少的人,但人類對話的意義不會很快降低。
盡管如此,智能手機的無處不在已基本上使我們的社交世界液化,這幾乎總是包括與直接社會背景之外的其他人的數字參與水平。這造成了一種復雜的,矛盾的混合體現在與他人在一起,即使他們不在身體上。
AI不是關于未來 - 我們的生活已經飽和了。即使我們并不總是意識到他們的角色,聊天機器人,軟機器人和虛擬個人助理也正在成為我們日常生活中不可或缺的一部分。
如果與聊天機器人和虛擬個人助理交談成為新常態(tài),我們應該意識到他們可以改變我們彼此交談的方式,以及我們如何與自己聯系。
有一點是肯定的,人工智能正在對人類的意義產生深遠的影響。