如果 AI 具备了一定的自主性之后,会不会对人类的生存造成威胁?
关于这一问题的讨论,此前都是在猜测和目前人工智能发展水平上来展开的。为了更好地对 AI 在有其他主体存在的环境下会如何做出相应决策,谷歌的人工智能部门 DeepMind 近日就将两个 AI 放在了一起,想看看他们在面临合作和竞争两种可能时,会更倾向哪一种选择。
这两个 AI 分别为红色和蓝色,它们共一起进行了两个游戏。在第一个游戏中,两个 AI 的任务就是在一个基本的 2D 图形环境中收集旧能多得苹果(绿色)。在这一过程中,两个 AI 可以选择用激光束将对方屏蔽,被激光束射中 AI 将会在暂时在游戏中消失。
DeepMind 团队将这一游戏运行了上千次。他们发现,当苹果比较多的时候,两个 AI 都能倾向于利用有限的计算能力来收集苹果而不是攻击对方;但当苹果变得越来越少时,两个 AI 也都更加倾向于对对方进行攻击。
当然,这里还需要考虑到这两个 AI 有限的计算能力。当控制条件改变,研究人员发现,运算能力更强、更复杂的 AI 会选择既攻击对方,同时收集苹果。
在第二个游戏“Wolfpack”中,两个 AI 扮演的角色则是狼,它们需要捕获旧能多的猎物。两个 AI 合作得越紧密,最后在成功捕获猎物后获得的奖励也会越多。这就鼓励了两个 AI 更多地去合作,而不是单枪匹马行动。而且,AI 的计算能力越是强大和复杂,就越快能理解到与竞争相比,合作是更优化的选择。
DeepMind 团队进行的这两个虽然还比较简单,不过对于 AI 研究来说,这能更好地帮助人类理解他们在变得越来越复杂时,会出现怎么样的“行为模式”。
这离人类并不遥远。从目前可以预见的 AI 应用来看,要它们理解人类复杂的运作系统,包括经济、交通、生态等等,合作所带来的益处明显比竞争要多得多。
当然,AI 在做出决策时,对各个因素之间的衡量只在于算法的预设。但是人类不同,除了理性地对各种利弊因素进行多方衡量之外,人类的感性因素或许才是更加“不可预测”的部分。
投稿邮箱:chuanbeiol@163.com 详情请访问川北在线:http://www.guangyuanol.cn/