• RSS订阅 加入收藏  设为首页
热点聚焦

人工智能革命——人类的永生或灭绝(7)

时间:2016-4-11 11:20:13  作者:黄菁 编译  来源:中华智库园  查看:272  评论:0
内容摘要:先从第一个问题开始:我们什么时候会触到火索?也即:第一台计算机什么时候能达到超级智能水平?

[美]蒂姆•厄本 作 黄菁  编译

先从第一个问题开始:我们什么时候会触到火索?

也即:第一台计算机什么时候能达到超级智能水平?

这个问题正在被科学家与思想家们热烈讨论,所以众说纷纭也就毫不意外。机器学习专家杰里米•霍华德在TED(Technology, Entertainment, Design)大会上提出了下面这张图表,该图表的内容,很多人,比如弗诺•文奇(Vernor Vinge)教授、科学家本•戈策尔( Ben Goertzel)、太阳微系统的联合创始人比尔•乔伊(Bill Joy)、或是最负盛名的发明家和未来学家雷•科兹维尔(Ray Kurzweil)都予以认同:

人工智能革命——人类的永生或灭绝(7) 

机器智能将很快超过人类智能,是上述科学家都赞成的观点——指数增长规律表明,机器的学习速度虽然现在看起来非常缓慢,但将在接下来的几十年中飞速超越我们。

另外一些科学家,比如微软的联合创始人保罗•艾伦(Paul Allen)、研究心理学家盖理•马库斯(Gary Marcus)、纽约大学计算机科学家欧内斯特•戴维斯(Ernest Davis)和科技企业家米切尔•卡普尔(Mitch Kapor),都认为像科兹维尔这样的思想家过分低估了创造超级智能的难度。他们认为,我们实际上离火索没有那么近。

科兹维尔阵营会反驳:唯一的低估就是对指数增长规律的忽视!他们会把这些怀疑论者跟1985年那群人相比。1985年,曾有些人看着因特网这株生长缓慢的秧苗,断言过它在未来十几年成不了什么气候。

怀疑论者则有可能回敬道:提升智能过程中,每进行一个后续步骤时,所遇到的困难也会呈指数级增长,从而与技术的自然指数增长相抵消,等等。

包括尼克•博斯特罗姆在内的第三阵营,认为前两阵营对自己的时间表,都没拿出什么根据,所以,他们同时认为:触发火索A)肯定在不久的未来就会发生;B)但那也不一定,也许得花上更长时间。

还有一些人,像哲学家休伯特•德雷福斯(Hubert Dreyfus),认为上述三个阵营都太过天真,居然会相信有“火索”的存在。他们争论说:更可能的是,ASI根本就不会实现。

所以,当你把上面这些观点结合起来考虑的时候,到底弄明白点儿什么没有?

2013年,文森特•C•穆勒(Vincent C. Müller)和尼克•博斯特罗姆开展了一项调查。他们在一系列会议上,向几百名人工智能专家发问:“在本题中,我们假设人类科学活动将持续发展,不会遭受到大的、消极的破坏。请问:你认为人类级别机器智能(HLMI,Human-Level Machine Intelligence)(10%/50%/90%)可能会在哪一年出现?”问卷要求他们写下一个乐观估计(他们认为AGI实现可能性为10%的年份)、一个务实猜测(AGI实现的可能性为50%,换句话说,该年之后,AGI多半可能实现)和一个可靠猜测(他们有90%的把握,认为AGI最早可在该年实现)。

数据经整理后,结果如下:

乐观估计年份的中值(可能性10%):2022年;

务实猜测年份的中值(可能性50%):2040年;

可靠猜测年份的中值(可能性90%):2075年。

所以,调查参与者认为,25年之后,AGI多半可能实现。AGI实现可能性为90%的中值年份2075年意味着,假如你现在是个十几岁的少年,几乎可以肯定,你将和大多数人工智能专家一道,在你的有生之年,见证AGI的诞生。

作家詹姆斯•巴拉特(James Barrat)最近在本•戈策尔的AGI年会上,搞了一项单独调查,他的调查不涉及百分比,只是单纯询问参与者,他们认为AGI什么时候能够实现——是2030年?2050年?2100年?2100年之后?还是永远不可能实现?结果如下:

2030年:占回答者的42%;

2050年:占回答者的25%;

2100年:占回答者的20%;

2100年之后:占回答者的10%;

永远不可能实现:占回答者的2%。

与穆勒和博斯特罗姆的成果非常接近。在巴拉特的调查中,超过2/3的参与者相信,AGI会在2050年之前实现;而近乎1/2的人认为,AGI会在接下来15年内实现。同样惊人的是,仅有2%的受访者认为AGI永远不会实现。

但是AGI的出现不是“火索”,ASI才是。所以,专家们认为ASI何时能够实现呢?

穆勒和博斯特罗姆也问过专家,他们认为实现ASI需要多久:A) AGI实现后两年内(也即,立刻引发智能爆炸);B)30年以内。结果如下:

结果中值显示,AGI→ASI在两年内快速转变的可能性只有10%;而转变时期较长(≤30年)的可能性有75%。

从上述数据中,我们无法得知具有50%可能性的转变时间是多长,但是为便于估算“火索”时间,让我们在上述两个回答的基础上,将它估计为20年。所以中值的意见是——站在人工智能专家界中心处的一位专家——认为最有可能触发ASI火索的务实预测年份是:[预测AGI出现的年份2040年+我们估计从AGI到ASI的转变时间20年] = 2060.

人工智能革命——人类的永生或灭绝(7)

当然,上述所有数据都只是推测,代表着人工智能专家群体里居中的意见。但这告诉我们,对人工智能话题知之最多的人里,很大一部分都认同,拥有改变世界潜能的ASI将在2060年到来,是非常合理的估计。距今只有45年。

好的,现在我们来看看第二个问题:一旦触到火索,我们会掉到平衡木的哪一边?

超级智能将产生巨大的力量——对我们而言,核心问题是:

谁或什么会掌控那种力量?他们的动机是什么?

对这个问题的回答,将决定ASI到底是难以置信的巨大发展,还是深不可测的可怕发展,抑或介于两者之间。

当然,这个问题已经引起专家界的广泛重视,答案正在激烈的争论当中。穆勒和博斯特罗姆的调查中,曾请参与者就“AGI可能会给人类带来什么影响”给出一个概率,得到的答案均值为:结果好或相当好的概率为52%,结果糟糕或非常糟糕的概率为31%;结果相对中立的概率仅为17%。换言之,对这件事懂得最多的人,都相当肯定这会是件大事。同样值得注意的是,上述概率涉及AGI到来的影响——如果是问及ASI,我相信结果中立的概率会更低。

在我们深入探讨结果的好与坏之前,让我们把问题的两个部分:“何时发生”与“是好是坏”作一结合,转换为一张能把绝大多数相关专家的意见包含在内的图表:

人工智能革命——人类的永生或灭绝(7)

 

我们会再花一分钟谈谈主流阵营,但首先——你有什么看法?事实上我知道你的看法是什么,因为在我研究这个主题之前,看法和你一样。绝大多数人并没有认真思考过这个问题,诸多原因如下:

正如帖子第一部分提到的,电影里有关人工智能的剧情有点不切实际、十分令人迷惑,总之,让人感到人工智能不是一件该严肃对待的事情。就好比是,疾病控制中心发布了一则吸血鬼即将出现的严重预警,众人获知此事后的反应——詹姆斯•巴拉特这样比喻道。

由于认知偏差,在见到证据之前,我们很难相信一件事情的真实性。我确信,1988年,计算机科学家们已经时常说起因特网的意义将会多么重大,但人们并不真正相信因特网会改变他们的生活,直到这件事真的发生。这部分也是由于,1988年的计算机确实改变不了世界,所以,人们会看着他们的计算机,想道:“真的吗?这是个将改变生活的东西?”他们的想象力被“计算机是什么样”的个人经验所限制,使他们无法勾勒出“计算机将变成什么样”的生动画面。人们如今看待人工智能也是如此。我们也听说这件事关系重大,但是因为它还没发生,也因为当今世界人工智能的能力相对有限。已有的经验,使我们难以相信人工智能会戏剧性地改变我们的生活。当专家们疯狂地想把我们的注意力,从集体性的日常自我专注中吸引过去的时候,认知偏差正挡在他们面前。

就算我们相信了——就说这还没实现的长生不老,“余下的日子,我该怎么打发才好?”这个问题你今天想了多少遍?没咋想,对不对?尽管它比我们今天做的任何事都要紧很多。这是因为,不管长远来看我们的处境多么疯狂,我们的大脑通常只关注着日常琐事。我们脑子里的线就是这么接的。

本帖的目标之一,就是将你从“我愿意想点儿其他事”阵营,拉入某个专家阵营。哪怕你只是站在上图方格中两条虚线的交点上,什么都“不确定”,也行。

在我的研究过程中,碰上的观点形形色色,但我很快注意到:绝大多数人的观点,都落在了第一阵营里我标记出的方格中,尤其是,超过3/4的专家,都落在了主流阵营的两个小阵营里。见下图:

人工智能革命——人类的永生或灭绝(7) 

接下来,我们要好好研究一下这两个小阵营。让我们从这个欢乐点儿的问题开始——(待续)返回中华智库园网首页

 

(英文原版地址:The AI Revolution: Road to Superintelligence The AI Revolution: Our Immortality or Extinction)


标签:人工智能革命 人类的永生或灭绝 7 
相关评论

免责声明

    本网站转载的所有的文章、图片、音频、视频文件等资料,均出于为公众传播有益资讯信息之目的,其版权归版权所有人所有。所采用的非本站原创文章及图片等内容无法逐一和版权者联系,若所选内容作者及编辑认为其作品不宜上本网供大家浏览,请及时用电子邮件通知我们,以便即时删除,避免给双方造成不必要的损失。

邮箱:zhzky102@163.com

 

主办单位:智库园(北京)国际文化有限公司  技术支持:中企集成  京公网安备:110108006569  备案号:京ICP备10020766号-2