关注我们:

通用人工智能何时来?专家预测还需81年!

2018-12-05

来源:theverge

人工智能

分享到:


编辑:大明 【新智元导读】通用人工智能(AGI)是AI研究的终极目标。这个目标何时能实现?在近日对全球23位顶尖AI学者

编辑:大明

【新智元导读】通用人工智能(AGI)是AI研究的终极目标。这个目标何时能实现?在近日对全球23位顶尖AI学者的一次调查中,最乐观的人给出的时间为2029年,最悲观的人认为要到2200年。平均来看,这个时间点为2099年。我们有些许可能在有生之年见证AGI的实现。

人工智能学科的核心目标是,有朝一日我们能够建造像人类一样聪明的机器。这样的系统通常被称为通用人工智能系统(AGI)。

到目前为止,我们已经建立了无数AI系统,在特定任务中的表现可以超过人类,但是当涉及到一般的脑力活动时,目前还没有一个AI系统能够比得上老鼠,更别说超过人类了。

但是,尽管关于AGI的话题在人工智能领域一直被广泛讨论,但研究人员对于这一宏伟目标何时实现的问题上,几乎从未达成一致意见。

23位顶尖AI专家预测:通用人工智能可能在2099年实现

在近日出版的一本名为《智能架构》的新书中,该书的作者、未来学家马丁·福特采访了AI领域的23位最杰出的人物,其中包括DeepMind首席执行官Demis Hassabis,谷歌AI首席执行官Jeff Dean和斯坦福AI负责人李飞飞等。

其中一个话题要求受访对象做出预测,我们在哪一年能够有50%的机会成功实现通用人工智能?

在23位受访者中,有18人回答了这个问题,但只有两人愿意具名回答。

有趣的是,这两个人给出的答案是最极端的:谷歌的未来学家和工程总监Ray Kurzweil认为,这个时间为2029年。而iRobot联合创始人Rodney Brooks的回答则是2200年。其余人给出的答案在这两个时间点之间,平均算下来,这个时间点为2099年,也就是81年之后。

换句话说:有一点可能,我们能够在有生之年,见证通用人工智能的实现。

通用AI就是具备广泛智能水平的AI,但我们目前仍缺少实现通用人工智能的很多关键技术

要实现通用人工智能,目前缺乏必要的技术基础

从调查结果看,对这个问题的态度和年龄之间可能存在一些相关性。福特指出,有些接受采访的研究人员已经70多岁,经历过AI领域的起起伏伏。 "如果你身处AI领域,对这个问题确实会变得更加悲观。"

福特说,这个调查显示出专家们对这个问题的有趣的分歧,不是关于何时实现AGI,而是使用现有方法是否可能实现AGI。

一些研究人员表示,现在大部分基本工具和条件都已经具备了,实现AGI只需要时间和精力了。还有人则表示,我们目前仍然缺少实现这一目标所需的重大技术突破。

目前AI研究人员的大量成果都基于深度学习,这部分人倾向于认为未来的进步离不开神经网络,即当代AI的核心。而具有其他AI背景的人认为,实现AGI需要通过其他方法,比如符号逻辑。无论哪种方式,对这个问题都存在相当大的分歧。

福特说:"深度学习阵营中的一些人非常看不起在AI中直接设计常识之类的东西。他们认为这种想法很愚蠢。有人说,这就像是要把一些信息直接粘贴到大脑中一样。"

许多专家认为,我们目前还缺少实现AGI的一些必要技术基础。

所有受访专家都提到当前AI系统的局限性,并提到了目前尚未掌握的关键技术。包括迁移学习、无监督学习等。(目前绝大多数机器学习方法都要依赖人工标记数据,这是AI技术发展的严重瓶颈。)

卢瑟福预测原子能永远不能提取,结果16小时遭"打脸"

加州大学伯克利分校教授Stuart Russell曾写过一本关于AI的基础教科书,他说,实现AGI所需的那些技术突破"并不是指更大的数据集,速度更快的机器",所以这个目标很不容易实现。

"说起这个问题,我总是要说核物理学研究中的故事,"Russell在接受采访时说。 "原子核物理学之父卢瑟福于1933年9月11日曾表示,我们永远不可能从原子中提取出原子能。也就是说,他对"原子能何时诞生"的预测是"永远不可能"。

但事实证明,第二天早上Leo Szilard看到了卢瑟福的表态,觉得很烦,然后第二天就发明出了由中子介导的链式核反应!

"本来卢瑟福的预测是"永远不可能",而事实是,大约16个小时后就实现了!同样,我觉得对AGI何时实现的预测也是这样,这种关于未来的遥远预测其实没什么意义。"

福特表示,这种在基本层面上的不可知性,可能是受访专家不愿意具名公开预测这个问题的重要原因。 "那些预测时间距离今天较近的人,可能会担心会引发太多不必要的关注。"他说。

许多研究人员表示,与超级人工智能的威胁相比,未来对人类威胁更大的是经济问题

现在讨论AGI毫无意义,不如多关注AI现实

关于通用人工智能可能带来的危险,众多专家同样意见不一。牛津大学哲学家NickBostrom是《超级智能》(这是"钢铁侠"马斯克的最爱读的书之一)的作者,他曾经对通用人工智能可能带来的危险做出激烈的表态。

他说,人工智能对人类的威胁可能比气候变化更大。

"我觉得,值得担忧的关键问题不是AI会因为被我们奴役,而对我们产生厌恶或怨恨,也不是担心AI突然产生意识的火花,并背叛我们。"博斯特罗姆说。"而是AI会去全力追求一个不同的目标,而这个目标并不是我们真正想要的。"

大多数受访者表示,与全球经济问题和在战争中使用先进自动化技术等问题相比,AI威胁人类的问题还极为遥远。

哈佛大学人工智能教授Barbara Grosz表示:通用AI伦理问题大多是"没说到点子上,转移了人们的注意力。真正的问题是,目前的AI系统就已经产生很多道德问题了。在这种情况下,我认为将注意力转移到遥远的未来场景是不合适的。"

福特说,这种观点上的反复争论,可能是智能架构建立时最重要的一点:在AI这样复杂的领域,确实没有简单唯一的答案。即使是顶级的精英科学家中,也不可能就世界面临的基本问题和挑战达成一致意见。

那么,我们究竟在这个问题上达成什么共识?福特表示,共识只有一个:无论AI接下来会朝什么方向发展,都将是非常具有破坏性的。

VR硬件评估more+
智能硬件more+

投稿