Digital T硬漢 Tk(DTT)

今日《星際迷航》:人類可能無法控制超級智能人工智能嗎?

最近一項理論研究的作者認為,人類可能無法控制超級智能人工智能(AI)。 此外,我們甚至可能不知道我們有這種 AI(人工智能) 已經創造出來了。
人工智能算法的飛速發展正在我們眼前。 機器在戰鬥中與人類抗衡,在空戰中擊敗經驗豐富的戰鬥機飛行員,通過反複試驗從頭開始學習,預示著醫學和生命科學的一場巨大革命,做出診斷和醫生的決定,並可以區分個別鳥類比人類好。 這表明了許多領域的進步。

圖片來源:


《星際迷航》插曲參考:常規/ Android-AI

隨著這一進步,人們開始關注我們是否能夠控制人工智能。 至少已經提出了數十年的關注。 自1942年以來我們就認識了著名的三個 機器人定律誰喜歡作家 艾薩克·阿西莫夫 在他的短篇小說“標籤遊戲”中概述:

1)機器人不得對人造成傷害,也不得因無為而對人造成傷害,

2)機器人必須遵守​​人類的命令,只要它們不違反第一定律,並且

3)機器人必須保護自己,只要它不違反第一定律或第二定律。

後來添加 阿西莫夫 添加了總體法則0: 機器人不得對人類造成傷害或因疏忽造成傷害2014年,牛津大學人類未來研究所所長哲學家尼克·博斯特羅姆(Nick Bostrom)研究了超級智能人工智能如何摧毀我們,我們如何控制它以及為什麼各種控制方法可能行不通。 Bostrom發現了控制AI的兩個問題。 首先是控制AI的功能。 例如,我們可以控制它是否應該連接到互聯網。 第二個是控制它想要做什麼。 例如,為了控制他,我們必須教他與人類和平共處的原則。 正如Bostrom所指出的那樣,超級智能的AI可能能夠克服我們想在其功能上施加的任何限制。 至於第二個問題,博斯特羅姆懷疑我們是 超智能AI 可以教任何東西。

現在,馬德里自治大學的Manuel Alfonseca和他的團隊已經決定解決人工智能的控制問題。 他描述了他的工作成果 人工智能研究雜誌.

西班牙人指出,任何旨在確保AI不會對人造成傷害的算法都必須首先模擬可能對人造成傷害的行為,以便機器能夠識別並阻止它。 然而,據研究人員稱,沒有算法能夠模擬人工智能的行為並絕對確定某種行為是否可能對人類造成傷害。 已經證明 阿西莫夫的第一定律 是無法計算的問題。
研究人員得出結論,此外,我們甚至可能都不知道我們創造了一款超級智能機器。 原因是 賴斯定理,這表示您無法僅通過查看計算機代碼來猜測計算機程序的結果。

但是阿方塞卡和他的同事們也有好消息。 好了,我們不再需要擔心超級智能AI會做什麼。 實際上,西班牙人進行的研究類型存在三個主要限制。 首先,這種超級智能的人工智能只會在200年後出現。 其次,尚不知道是否有可能創造出這種類型的人工智能,即一台能夠在與人類一樣多的區域進行智能化的機器。 第三,即使我們可能無法控制超級智能AI,仍然應該有可能在狹窄範圍內控制超級智能AI。