根据马克斯-普朗克人类与机器研究所(Max-Planck Institute for human and Machines)的一组研究,从理论上来说,人类无法预测人工智能的行为。
据了解,马克斯-普朗克研究所(http://www.mpg.de/en)学院是德国的一所基础研究机构,成立于1948年,出现过18个诺贝尔科学奖获得者,每年在世界上发行至少15,000份研究文献。
“一台控制世界的超级智能机器听起来就像科幻小说里才会出现的事物,”这项研究的合著者、该研究小组的负责人Manuel Cebrian说。“但已经有一些机器可以在程序员完全不了解它们是如何学习的情况下独立执行某些重要任务。”
我们的社会正越来越依赖人工智能——从人AI面试到创作音乐,甚至是表情包,人工智能已经成为日常生活的重要组成部分。
根据该研究小组发表在《人工智能研究杂志》上的研究,为了预测人工智能的行为,需要对这种超级智能进行模拟。
超级智能能否被控制的问题已经不是什么新问题了。
该研究小组的负责人Manuel Alfonseca说,这一切都围绕着“遏制算法”展开,与阿西莫夫的机器人第一定律(First Law of Robotics)没什么不同。
1942年,多产的科幻作家艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《Runaround》中阐述了机器人三定律。
根据阿西莫夫(Asimov)的理论,机器人不能伤害人类,也不能让人类受到伤害,它必须服从命令,除非这些命令与第一定律相抵触;除非不与第一定律或第二定律相抵触,否则机器人必须保护自己。
科学家们探索了两种不同的控制人工智能的方法,第一种是限制人工智能接入互联网。
该团队还探索了艾伦•图灵的“停止问题”,得出的结论是,模拟人工智能行为的“遏制算法”——如果人工智能伤害人类,该算法将“停止”人工智能——是完全不可行的。
艾伦·图灵的“停止问题”研究的是一个程序是可以用包含算法停止,还是可以无限地继续运行。
机器被问及各种各样的问题,看它是否得出结论,或陷入恶性循环。
这项测试也可以应用于不那么复杂的机器——但对于人工智能来说,这很复杂,因为它们有能力将所有计算机程序保存在内存中。
研究人员表示:“超级智能提出了一个与通常打着‘机器人伦理’旗号研究的问题根本不同的问题。
如果人工智能使用机器人定律进行教育,它可能会得出独立的结论,但这并不意味着它可以被控制。
该团队的另一名研究人员Iyad Rahwan表示:“现代计算机使用复杂的机器学习算法进行适应的能力,使得对超级智能人工智能的最终行为做出假设变得更加困难。”
Rahwan警告说,如果没有必要,就不应该创造人工智能,因为很难描绘出它潜在的进化过程,我们也无法进一步限制它的能力。