如何超越人工智能-人與機器
AI計算機系統 從無人駕駛汽車到幫助醫生進行診斷和自動搜索與救援機器人的工作,它們正在進入我們生活的許多領域,並具有巨大的潛力。
但是,主要的未解決問題之一,尤其是在AI的“神經網絡”分支中,科學家經常無法解釋為什麼會出錯。 這是由於缺乏對AI系統中決策過程的了解。 此問題稱為“黑匣子”問題。
誰更聰明?
蘭開斯特大學(University of Lancaster)進行的一項為期15個月的新研究項目也涉及利物浦大學,該項目旨在釋放黑匣子問題的秘密,並找到一種新方法深度學習“使決策透明且可解釋的AI計算機模型。
該項目 ”建立負責任且可解釋的自主機器人學習系統“將為開發人工智能算法開發一系列安全驗證和測試程序。這將有助於確保系統做出的決定是可靠且可解釋的。
圖片來源:
技術培訓
研究人員將使用一種稱為“反向訓練”的技術。 它包括在給定的情況下展示系統,在該情況下它學會如何執行操作-例如B.檢測並舉起物體。 然後,研究人員更改場景的各種元素,例如顏色,形狀,環境,並觀察系統如何通過反複試驗來學習。 研究人員認為,這些觀察結果可以使人們更好地了解系統如何學習並深入了解系統。 做決定的過程 的確。
通過開發使用能夠理解和預測決策的神經網絡來創建系統的方法,研究將成為解鎖關鍵安全領域(例如車輛和機器人)中的自治系統的關鍵。
博士蘭開斯特大學計算機與通信學院教授,該項目的首席研究員阮文傑說:“儘管 深度學習 作為最傑出的人工智能技術之一,在許多應用中都取得了巨大的成功,在安全關鍵型系統中使用時,它也有其自身的問題,包括不透明的決策機制和易受攻擊性攻擊的脆弱性。 “該項目為我們提供了一個絕佳的機會,可以縮小深度學習技術與安全關鍵系統之間的研究差距。