微軟和麻省理工開發(fā)出一個(gè)模型 一個(gè)可以檢測AI“盲點(diǎn)”的模型
近日,據(jù)外媒報(bào)道,微軟和麻省理工開發(fā)了一個(gè)模型,可以捕捉這些自動(dòng)駕駛汽車系統(tǒng)的虛擬的“盲點(diǎn)”。據(jù)麻省理工稱,這種方法讓人工智能將一個(gè)人在特定情況下的行為與它本來會(huì)做的行為進(jìn)行比較,并根據(jù)它與反應(yīng)的匹配程度來改變其行為。
如果一輛自動(dòng)駕駛汽車在救護(hù)車疾馳而過時(shí)不知道如何靠邊停車,它可以通過觀察一名真實(shí)的司機(jī)移到路邊來學(xué)習(xí)。
自動(dòng)駕駛汽車仍然容易出錯(cuò),部分原因是人工智能訓(xùn)練只能解釋這么多情況。而該模型還可以實(shí)時(shí)修正,如果人工智能出了問題,一個(gè)人類司機(jī)就可以接管并指出了問題。
研究人員甚至有辦法防止無人駕駛汽車變得過于自信,并將給定響應(yīng)的所有實(shí)例標(biāo)記為安全。機(jī)器學(xué)習(xí)算法不僅可以識(shí)別可接受和不可接受的響應(yīng),還可以使用概率計(jì)算來識(shí)別模式,并確定某樣?xùn)|西是真正安全的,還是仍然存在潛在的問題。即使一個(gè)行動(dòng)在90%的情況下是正確的,它可能仍然會(huì)看到它需要解決的弱點(diǎn)。
這項(xiàng)技術(shù)還沒有應(yīng)用到這個(gè)領(lǐng)域??茖W(xué)家們只是用電子游戲來測試他們的模型,在游戲中有有限的參數(shù)和相對(duì)理想的條件。
微軟和麻省理工學(xué)院仍然需要用真正的汽車進(jìn)行測試。不過,如果這種方法奏效,它可能在讓自動(dòng)駕駛汽車變得實(shí)用方面大有作為。早期的車輛在處理像雪天這樣簡單的事情上仍然存在問題,更不用說在快節(jié)奏的交通中,一個(gè)錯(cuò)誤就可能導(dǎo)致撞車。這可以幫助他們處理棘手的情況,而不需要精心設(shè)計(jì)的定制解決方案或?qū)⒊丝椭糜谖kU(xiǎn)之中。