亂說垃圾話來干擾對手這一傳統(tǒng)已經(jīng)有著悠久的歷史了,現(xiàn)在卡耐基梅隆大學的研究人員已經(jīng)證明,令人沮喪的話即使被機器人說出來,人也會受到干擾。
這項研究中的垃圾言論絕對是溫和的,諸如“我必須說你是一個糟糕的玩家”和“你怎么越玩越差”這樣的話。即便如此,與機器人(一種市售的人形機器人,稱為Pepper)玩游戲的玩家在受到機器人吐槽時,他們表現(xiàn)得較差,而受到鼓勵時他們則表現(xiàn)得更好。
主要研究負責人亞倫·羅斯(Aaron M. Roth)說,參加研究的40名參與者中有不少游戲技巧熟練的,他們完全理解機器是他們不舒服的根源。一位參加者說:“我不喜歡機器人說的話,但這是它的編程方式,所以我不能怪它?!?/p>
研究人員發(fā)現(xiàn),總體而言,無論技術水平如何,人類的表現(xiàn)都會減弱。
這項研究于上個月在印度新德里舉行的IEEE國際機器人與人機交互通信國際會議(RO-MAN)上提出,它偏離了典型的人機交互研究,后者著重于研究人類和機器人如何做到一起工作時效率最大。
“這是在不合作的環(huán)境中進行人機交互的首批研究之一,”軟件研究所助理教授Fei Fang說。在這個具有人工智能能力的機器人和物聯(lián)網(wǎng)設備的數(shù)量預計將呈指數(shù)增長的時代,這項研究將有著重要的意義。她說:“我們可以期望家庭助理能夠合作,但是在諸如在線購物之類的情況下,他們的目標可能與我們的目標不同?!?/p>
這項研究是Fei Fang教的一門關于AI社會公益方法研究項目的結果。這些學生想探索機器人理論中博弈論和有限理性的用途,因此他們設計了一項研究,人類將在名為“守衛(wèi)與寶藏”的游戲中與機器人競爭。這是一款用于研究安全游戲研究中的防御者與攻擊者之間的互動典型的游戲。
每個參與者都在機器人上玩了35次游戲,既會聽到機器人的鼓勵,也會聽到機器人的垃圾話。盡管隨著玩游戲次數(shù)的增加,人類玩家的合理性有所提高,但受到機器人批評的人得分卻不及受到贊譽的人。
CMU的人機交互研究所(HCII)的系統(tǒng)科學家Afsaneh Doryab表示,人們的行為受其他人說的話影響很大,但是研究表明,人對機器的話也有反應。弗吉尼亞大學工程系統(tǒng)與環(huán)境系助理教授。她說,這種機器能夠迅速做出反應的能力可能對自動學習,心理健康治療甚至使用機器人作為同伴產(chǎn)生影響。