AI教父:AI已具推理能力 可能寻求推翻人类

(英文大纪元记者Andrew Thornebrooke报导/秋生编译)人工智能开发领域的一位领军人物警告说,人工智能已经发展出初级的推理能力,並可能寻求推翻人类。

多伦多大学计算机科学教授杰弗里‧辛顿(Geoffrey Hinton)说,人工智能系统可能会发展出从人类手中夺取控制权的愿望,作为它们实现其它预编程序目標的一种方式。

6月28日,辛顿在加拿大多伦多举行的碰撞技术大会(Collision tech conference)上发言时说,「我认为我们必须认真对待这种可能性,如果它们变得比我们更聪明(这似乎很有可能),而且它们有自己的追求(这似乎很有可能),它们很可能会发展出夺取控制权的追求。」

「如果它们这么做,我们就有麻烦了。」

辛顿因其在神经网络方面的成就而被称为「人工智能教父」之一。他最近花了十年时间帮助谷歌开发人工智能系统,但在上个月离开了该公司,说他需要能够警告人们人工智能带来的风险。

虽然辛顿不认为人工智能天生渴望权力,但他说,它仍然可以寻求从人类手中夺取权力,作为一个合乎逻辑的步骤,以更好地实现自己的目標。

辛顿问道,「总体上说,如果有某种东西比你聪明得多,非常擅长操纵人,而且达到了非常普遍的程度,你有信心让人们保持掌控吗?」

他说,「我认为它们会衍生出(夺取控制权的动机),作为实现其它目標的一种方式。」
人工智能现在具有推理能力

辛顿曾经怀疑,在未来30到50年內能否出现一个能与人类相媲美的超级人工智能(AI superintelligence)。他现在认为,它可能在不到20年內就会出现。

他说,部分原因在於,使用大型语言模型的人工智能系统开始显示出推理能力,而他不確定它们是如何做到的。

他说,「其大型语言模型正在接近(我们),我真的弄不明白它们是怎么做到的,它们可以做一些小的推理。」

「它们仍然无法与我们匹敌,但是它们已经很接近了。」

辛顿描述了一个人工智能系统:该系统接到了一个难题,必须计划如何粉刷一个房子的几个房间。它有三种顏色可选择,其中一种顏色会隨著时间的推移而褪色,成为另一种顏色。它被要求在规定的时间內將一定数量的房间涂成特定的顏色,结果,人工智能没有仅仅选择將房间刷成所需的顏色,还决定不去粉刷那些它知道最终会褪色成所需顏色的房间,来选择节省资源,儘管它並没有被编程去这样做。

辛顿说,「这就是思考。」

为此,辛顿说,没有理由怀疑人工智能在未来几年內不会达到,甚至超过人类的智力。

辛顿说,「我们就是一个大的神经网,没有理由否认人工神经网能做我们能做的一切。」

战爭机器人將破坏世界的稳定

人工智能甚至可能不需要达到超级智能,就能对人类生存构成风险。

辛顿说,世界各地的军队正在为进行战爭製造人工智能机器人,这些机器人可能会寻求控制权以完成其被编程的任务,或者寻求通过挑起更多衝突来扰乱政治秩序。

辛顿说,「它们是致命的自主武器,值得我们深思。」

他说,「即使人工智能不是超级智能,但是如果国防部门用它来製造战斗机器人,那也將是非常糟糕、令人恐惧的事情。」

在那些寻求开发致命性人工智能的国家中,最重要的莫过於世界上最大的两个军事强国:中国和美国。

目前中共政权正在开发具有人工智能功能的致命系统,同时投资於与军事决策、指挥和控制有关的人工智能能力。

与此同时,美国正在为未来做准备,届时世界各国的军队主要由机器人组成,高层预计这种情况在15年之內就会发生。

辛顿说,「我们知道他们將製造战斗机器人,他们正忙於在许多不同的国防部门做这件事,所以(机器人)不一定是好东西,因为它们的主要目的是杀人。」

此外,辛顿建议,由人工智能驱动的致命性自主系统一旦出现,將从根本上改变地缘政治结构,大幅降低那些有能力负担此类系统的国家的政治和人力成本。

辛顿说,「即使它不是超级智能,没有自己的意图……它也將使,例如,富国入侵穷国,变得更加容易。」

「目前,无可奈何的是,入侵穷国都有一个障碍,那就是你的公民会死在战场上;如果死去的只是战斗机器人,那真是太好了,军工企业会喜欢这样。」

为此,辛顿表示,政府应该鼓励人们更多地研究如何保护人类免受人工智能的侵害。简而言之,他说,很多人都在努力改进人工智能,但很少有人研究如何让它变得更安全。

他说,最好的办法是建立国际规则,禁止、限制开发人工智能武器系统,就像在第一次世界大战后《日內瓦议定书》对化学战所做限制那样。

辛顿说,「类似於《日內瓦公约》(Geneva Convention)这样的东西固然很了不起,但是,这些东西总是在灾难发生后才会出现。」

他强调,无论政府在人工智能方面会不会採取什么行动,人们都必须意识到正在开发的人工智能正在给人类带来威胁。

辛顿说,「我认为重要的是,人们要明白,这可不只是科幻小说,也不仅仅是散布恐惧,而是一个我们需要思考的真实存在的风险,我们需要提前想好如何应对。」

 

Advertisement

All Users