該研究表明,人們無法管理超級受影響的機器

Anonim
該研究表明,人們無法管理超級受影響的機器 9736_1
該研究表明,人們無法管理超級受影響的機器

工作發表在人工智能研究雜誌。眾所周知,可以從超前的行為中汲取的危險在底座上描述了塗料。各種科學學科的代表,包括來自Man Max Planck的人員和機器研究所中心的專家決定檢查人們能夠管理超缺陷的機器人。

“一個管理世界的超級授權者 - 聽起來像科幻小說。但是已經有機器人獨立執行某些重要任務。與此同時,程序員根本不明白他們如何學到它。因此,問題出現了:這個過程可以在某些時候成為人類無法控制和危險嗎?“ - 由Manuel Sebarian,Max Planck研究所的人員和機器中心的數字動員組主管曼努埃爾·塞伯立的作者之一。

為了回答這個問題,科學家使用建模和理論計算。事實證明,即使是換車的道德原則的數據並限制了與外界的連接(例如,關閉互聯網接入),它不會從這種系統將被釋放的風險中拯救人類掌握之中。

事實是,根據信息學理論,這種威懾的任何算法 - 無論是關於道德原則的程序,還是限制對外界的訪問 - 易受攻擊,並且在某些情況下它非常能夠關閉自己。因此,專家得出結論,它根本無法管理超重影響的AI人,並且遲早的情況可能會失控。

“我們認為,由於計算本身所固有的基本限制,完全威懾原則上是不可能的。 Superflum將包含一個程序,包括使用通用圖靈機執行的所有程序,潛在地作為世界的狀態,“研究人員得出結論。

來源:裸體科學

閱讀更多