(文章來源:教育新聞網)
機器學習算法也開始超過許多狹窄和特定的領域,例如人力績效的圖像識別和某些類型的醫(yī)療診斷小號。它們還在更復雜的領域中得到了快速的改進,例如生成令人反感的類人文字。我們越來越多地依賴機器學習算法,在廣泛的議題作出決定,從我們投入數十億小時看向誰得到這份工作。
但是機器學習算法無法解釋他們做出的決定。如果我們不了解人們如何做出這些決定,我們如何證明這些系統(tǒng)負責影響人們生活的決定?從機器學習算法中獲取比原始數據更多的渴望導致人們重新關注可解釋的AI:可以做出決定或采取行動并告訴您背后原因的算法。是什么讓你這么說?
在某些情況下,您已經看到了通往可解釋的AI的道路。采用OpenAI的GTP-2模型或IBM的Project Debater。兩者都基于大量的訓練數據生成文本,并嘗試使其與給出的提示盡可能相關。如果這些模型還能夠快速提供他們從中提取信息的那組訓練數據中最重要的幾個來源,那么可能更容易理解“論點”(或關于獨角獸的詩文)的來龍去脈。從。
這類似于Google現在正在尋找其圖像分類器的方法。許多算法對紋理和圖像中相鄰像素之間的關系更敏感,而不是像人類一樣通過輪廓識別對象。這會導致奇怪的結果:某些算法可以愉快地識別出一只完全混亂的北極熊圖像,而不是北極熊剪影。
使圖像分類器可解釋的先前嘗試依賴于重要性映射。在這種方法中,算法將突出顯示做出決策的統(tǒng)計權重最大的圖像區(qū)域。通常,這是通過更改圖像中的像素組并查看哪些像素對算法對圖像的印象有最大的變化來確定的。例如,如果算法試圖識別停車標志,則更改背景不太可能像更改停車標志一樣重要。
Google的新方法通過以幾種不同的分辨率檢查對象并在主要對象中搜索與不同“子對象”的匹配來改變其算法識別對象的方式。您或我可能會從其閃光燈,輪胎和徽標中識別出一輛救護車;我們可能會放大NBA球員所擁有的籃球來推斷他們的職業(yè),等等。通過將圖像的整體分類與這些“概念”聯系起來,該算法可以解釋其決定:由于貓的尾巴和胡須,我將其分類為貓。
但是,即使在這個實驗中,算法在決策中的“心理”也是違反直覺的。例如,在籃球案中,做出決定的最重要因素實際上是球員的球衣而不是籃球。您能解釋一下您不了解的內容嗎?盡管看似微不足道,但這里的沖突是人工智能方法中的根本沖突。也就是說,僅通過海量數據之間的統(tǒng)計關聯就可以達到多大的距離,您需要引入多少抽象概念才能產生真正的智能?
一方面,優(yōu)良的老式AI或GOFAI夢想著完全基于符號邏輯的機器。該機器將采用狗,花朵,汽車等的概念進行硬編碼,再加上我們內部化的所有象征性“規(guī)則”,使我們能夠區(qū)分狗,花朵和汽車。(您可以想象一種類似的對話式AI方法將自上而下地教授單詞和嚴格的語法結構,而不是像GPT-2那樣從訓練數據中字母和單詞之間的統(tǒng)計關聯中“學習”語言。)
這樣的系統(tǒng)將能夠自我解釋,因為它將處理高級的,人類可理解的概念。方程更接近:“球” +“針” +“白色” =“棒球”,而不是由數百萬個數字組成的將各種路徑連接在一起的集合。Google用來解釋其圖像識別的新方法中有GOFAI的要素:新算法可以根據對象包含的子對象來識別對象。為此,它至少需要基本了解那些子對象的外觀,以及將對象鏈接到子對象的規(guī)則,例如“貓有胡須”。
當然,問題是(可能是不可能的)勞動強度大的任務,即定義所有這些符號概念以及可能用手將它們鏈接在一起的所有可能的規(guī)則。創(chuàng)建這樣的系統(tǒng)(可以處理現實中存在的“組合爆炸”)的困難,導致了第一個AI冬季。同時,神經網絡依賴于對大量數據的訓練。沒有監(jiān)督學習的“標簽”,該過程可能與人類可以理解的任何概念都沒有關系(因此完全是無法解釋的)。
在這兩者之間的某個地方,是希望可以解釋的AI愛好者,是可以處理大量數據的快樂媒介,它為我們提供了最近的神經網絡AI所擁有的所有好處,同時以人類可以理解的方式展示了它的工作原理。