人工智能與人類智能的辯論不是一個公平的競爭環(huán)境。誠然,人工智能幫助創(chuàng)造了智能機器,這些機器可以在特定領域超越人類(例如,正如 AlphaGo 和 DeepBlue 所展示的那樣)。然而,要達到人類大腦的潛力,它們還有很長的路要走。盡管人工智能系統(tǒng)的設計和訓練是為了模仿和模擬人類行為,但它們無法像人類那樣做出邏輯判斷。
人工智能系統(tǒng)做出決策的能力基于事件、它們所訓練的數(shù)據(jù)以及它們與特定事件的關聯(lián)方式。因為人工智能機器缺乏常識,他們無法理解“因果”的概念。而人類生來就有能力通過將所學與邏輯、判斷和理解相結合來學習和應用所學。
人工智能可以做出比人類更好的決策嗎?
我們都知道人工智能計算和開發(fā)算法的速度有多快。人類得出的結論主要用作生成算法的基礎。人工智能是否有可能開發(fā)出比人類做出更好判斷的程序?人工智能比人類智能好嗎?
是的,它可以。與人腦相比,機器學習(ML) 可以處理更多數(shù)據(jù),并且處理速度更快。這使它能夠發(fā)現(xiàn)數(shù)據(jù)中不會被人注意到的模式。
當我們擁有與非基于人類選擇(結果)的依賴數(shù)據(jù)相關的獨立數(shù)據(jù)時,人工智能可能能夠做出更好的判斷。
人工智能在人類世界中的作用是什么?
通過人工智能的發(fā)展,數(shù)值循環(huán)提高了生成更快、更精確的模型和估計操作系統(tǒng)或升級的大數(shù)據(jù)集表示和混合的能力。雖然這些引領潮流的進步可以更快、更準確地執(zhí)行特定任務,但人類智慧在規(guī)劃和利用人工智能創(chuàng)新方面發(fā)揮著至關重要的作用。
人造意識和與之相關的創(chuàng)造性安排受到人類智力的影響。人類的智力努力解釋事情發(fā)生的原因,并通過簡單的推理“考慮一個場景”。在利用 AI 生成的結果時,人的判斷、技能和質量保證是必不可少的,因為工程設計要經過復雜問題和信息性質的測試。
任何人工智能法規(guī)要想成功,都需要像高速公路系統(tǒng)一樣——有速度限制,違規(guī)行為可以客觀衡量和處罰。因此,由于企業(yè)和行業(yè)似乎無法就如何解釋分析決策或人工智能模型達成一致,因此需要引入專家,并賦予他們做出艱難決策的權力:定義可接受的特定工具和算法,并將行業(yè)衡量的通過/失敗指標標準化,而不是簡單的“自我報告”標準和關于如何滿足這些標準的大量混亂行動。
通過這種方式,我們可以客觀地衡量AI是如何發(fā)展的,它的功能是什么,它的工作做得好和正確,還是不好和錯誤?
國外某些行業(yè)在分析模型、分析決策、違規(guī)和處罰方面處于領先地位。例如抵押貸款行業(yè)就是一個很好的例子。信貸決策遵循旨在消除偏見和歧視的指導方針。不遵守規(guī)則(使用有偏見的數(shù)據(jù)、決策標準或模型)的銀行將面臨監(jiān)管機構的嚴厲處罰,并最終失去消費者的信任和業(yè)務。
法律將推動人工智能的倫理
人工智能倡導團體的崛起,比GDPR和相關法規(guī)預期的個人投訴擁有更大的影響力。這些團體正在推動人們更多地認識到人工智能對消費者生活的影響,當然,還有可能因有偏見的人工智能而承擔法律責任。最重要的是,風險暴露往往會促使企業(yè)解決人工智能的倫理和偏見問題,特別是在使用人工智能的創(chuàng)新企業(yè)是集體訴訟的目標的情況下。
人工智能何時醒來?人工智能的災難何時開始?面對人工智能的發(fā)展,持有人工智能威脅論的人總會思考這個問題。AI危機何時開始?即使是對人工智能有深入研究的專家也無法在這個問題上得出結論。但在最近的人工智能發(fā)展中,我們似乎看到了一些人工智能危機的跡象。
前面我們提到,Facebook創(chuàng)始人馬克·扎克伯格非??春萌斯ぶ悄艿奈磥?,同時對馬斯克提出的人工智能威脅論也很不滿意。但前段時間在Facebook發(fā)生了一件事情,這讓扎克伯格和他的程序員們著實吃了一驚。Facebook在扎克伯格的領導下,對人工智能技術進行了許多不同的研究。前段時間,facebook公司從眾多機器人中選擇了兩款智能機器人參與社交網(wǎng)絡助手實驗。





