该研究表明,人们无法管理超级受影响的机器

Anonim
该研究表明,人们无法管理超级受影响的机器 9736_1
该研究表明,人们无法管理超级受影响的机器

工作发表在人工智能研究杂志。众所周知,可以从超前的行为中汲取的危险在底座上描述了涂料。各种科学学科的代表,包括来自Man Max Planck的人员和机器研究所中心的专家决定检查人们能够管理超缺陷的机器人。

“一个管理世界的超级授权者 - 听起来像科幻小说。但是已经有机器人独立执行某些重要任务。与此同时,程序员根本不明白他们如何学到它。因此,问题出现了:这个过程可以在某些时候成为人类无法控制和危险吗?“ - 由Manuel Sebarian,Max Planck研究所的人员和机器中心的数字动员组主管曼努埃尔·塞伯立的作者之一。

为了回答这个问题,科学家使用建模和理论计算。事实证明,即使是换车的道德原则的数据并限制了与外界的连接(例如,关闭互联网接入),它不会从这种系统将被释放的风险中拯救人类掌握之中。

事实是,根据信息学理论,这种威慑的任何算法 - 无论是关于道德原则的程序,还是限制对外界的访问 - 易受攻击,并且在某些情况下它非常能够关闭自己。因此,专家得出结论,它根本无法管理超重影响的AI人,并且迟早的情况可能会失控。

“我们认为,由于计算本身所固有的基本限制,完全威慑原则上是不可能的。 Superflum将包含一个程序,包括使用通用图灵机执行的所有程序,潜在地作为世界的状态,“研究人员得出结论。

来源:裸体科学

阅读更多