麻省理工學院為人工智能提供了區(qū)分自私駕駛的能力
(文章來源:教育新聞網(wǎng))
近期,在街道上經(jīng)常發(fā)生諸如收窄和駕駛等危險行為,但是如果您是人,從這個行為中人們不難發(fā)現(xiàn),您也可以事先保持謹慎。的但是,自動駕駛汽車的AI只會將周圍的駕駛員視為“不應碰撞的障礙物”,并且無法讀取角色。
由麻省理工學院計算機科學與人工智能實驗室(MIT CSAIL)領導的團隊研究了如何將其他駕駛員的社會特征分類為自動駕駛汽車。已宣布能夠進行更準確的預測。具體來說,它使用稱為社會價值取向(SVO)的參數(shù)。這是為了量化人類駕駛員的自私(自私),利他或合作的程度。接下來,系統(tǒng)基于SVO實時創(chuàng)建自動駕駛汽車的駕駛時間表。
研究小組報告說,這些車道在可以左轉(zhuǎn)的地方合并并測試了該算法,現(xiàn)在它可以25%的概率更準確地預測其他車輛的行為。例如,如果確定駛來的汽車是自私的,則可以仔細等待。
在此階段,似乎足以檢測以自我為中心的駕駛員并避免接觸事故,但是如果SVO考慮的行為變得復雜,那么還會加入諸如號角聲和干擾性超車等因素。當然可以將來,可能會響應傾斜并防止觸發(fā)傾斜的車輛行為。
這種對人類行為的洞察力是當前自動駕駛汽車和駕駛員在同一條道路上行駛的情況下保護人類生命的重要因素。例如,發(fā)現(xiàn)Uber的自動駕駛測試車在事故中導致行人橫穿馬路致死,被系統(tǒng)地認為不適合無人行橫道的人通過。順便說一句,無視這些交通規(guī)則的步行者在英語中被稱為“ Jaywalker”,有些國家會受到高額罰款。
該研究論文的主要作者威爾科·施瓦丁(Wilco Schwarting)說:“與人類合作是要閱讀他們的意圖,以更好地理解人類行為?!?“人們合作或競爭的傾向通常會影響他們作為駕駛員的行為。在本文中,我們試圖觀察它是否可以被量化?!?/p>
另一方面,自動駕駛汽車也會給其他駕駛員帶來煩惱,例如在十字路口仔細判斷會導致交通過多。例如,蘋果的自動駕駛汽車在慢速行駛時也墜毀,但這可能與這種行為有關(guān)。
SchwarTIng認為以下幾點:“在自動駕駛汽車(AV)中像人一樣行事對于乘客和周圍車輛的安全至關(guān)重要。以可預見的方式行事。因為人類了解AV的行為并可以做出適當?shù)姆磻??!焙喍灾绻h離人類,附近的人類駕駛員將會感到困惑。研究的下一步是將這種預測模型擴展到行人,自行車和其他自動駕駛汽車??赡芷谕粌H將這種系統(tǒng)安裝在全自動駕駛的車輛中,而且還希望將其安裝在人的駕駛汽車中,以盡快檢測并警告危險的駕駛車輛。
? ? ?