“人工智能(AI)叛乱”听起来像是科幻电影的情节,但这个概念是一项新研究课题。一个国际科研团队设计了一种理论上的“遏制算法”,通过模拟AI,确保其在任何情况都不能伤害人类,但结果发现无法做到。
AI多年来一直让人类着迷,我们对控制汽车、谱写交响乐或在自己的游戏中击败世界上最好棋手的机器感到敬畏。然而,巨大的力量伴随着巨大的责任,全世界的科学家都在担心超级智能系统可能带来的危险。
一个国际团队研究表明,控制一个超级人工智能是不可能的。
据报道,包括马克斯·普朗克人类发展研究所人类与机器中心的科学家在内的一个国际团队研究表明,控制一个超级人工智能是不可能的。
该团队在分析过程中使用了阿兰·图灵(Alan Turning)于1936年提出的“停止”问题,该问题的重点在于计算机程序是否会得出结论并做出“停顿”的反应。
据悉,在研究中,该团队设计了一种理论上的“遏制算法”,通过先模拟人工智能的行为,如果认为有害,则停止人工智能的行为,从而确保超级人工智能在任何情况下都不能伤害人类。
但仔细分析后发现,在目前的计算模式下,这样的算法是无法建立的。
也就是说,目前的算法并不具备阻止人工智能的能力,因为命令AI不要毁灭世界,会在无意中阻止“遏制算法”自身的运行。
人类与机器中心主任伊亚德·拉赫万表示,如果发生这种情况,将不知道“遏制算法”是否还在分析威胁,或者它是否已经停止遏制有害的AI。
基于这些计算结果,“遏制问题”是无法计算的,没有一种算法可以找到判断人工智能是否会对世界产生危害的解决方案。
研究结果还证明,我们甚至可能不知道超级智能机器何时到来,因为决定一台机器是否表现出优于人类的智能与“遏制问题”属于同一领域。
国际科研团队的论文警告说,如果一台超级智能机器想要控制世界,伤害人类,拔掉插头也无济于事。