[美]蒂姆•厄本 作 黄菁 编译
我们面对的可能是一个不知何时才能解决的、极端困难的问题。而人类的整个未来,都将取决于这个问题会如何解决。
——尼克•博斯特罗姆(Nick Bostrom)
欢迎来到这个让人脑袋里满是:“等等,这怎么可能!”“我简直不明白我读了些啥!”“为什么人们都不聊这个”的混乱帖子的第二部分。
在帖子的第一部分,我们讨论了窄域人工智能,或称ANI(专注于某一狭窄领域的人工智能,比如开车或下棋);今日世界,ANI已无处不在。接着考察了为何从ANI到宽域人工智能(或称AGI,一台在任何方面都至少和人类一样聪明的计算机)如此之难。然后,我们讨论了为何技术在过去的指数级增长暗示着我们,AGI的实现,可能并不像看上去那么遥远。在第一部分的结尾我提到,一旦机器达到人类级别的智能水平,它们很可能会立马甩下我们,绝尘而去:
这会让我们盯着屏幕,面对着超级人工智能(或称ASI,在任何方面都比任何人类聪明的人工智能)这个极具冲击力的概念,设想着假如ASI在我们有生之年实现,我们该摆出怎样的表情。
在深入探讨之前,让我们回顾一下,机器成为超级人工智能到底是什么意思。
其中一个关键,是搞清楚“超级智能”究竟指“速度”超级还是“品质”超级。通常,当人们想象一台超级聪明的计算机时,他们的第一个念头是:这台计算机和人类一样聪明,但是运算速度却要快很多很多——他们会想象这台计算机和人类的思考方式相同,只不过运算速度是人类的100万倍,人类花上10年才能弄明白的事情,它只用5分钟就能搞定。
听起来令人印象深刻,而且ASI确实比任何人的思考速度都快得多——但真正将它与人脑区分开来的,是它在智能品质上的优势,它,是一种与人脑完全不同的智能。人类比黑猩猩聪明很多的原因,不在于思考速度的差异——而在于人脑拥有大量黑猩猩大脑所不具备的复杂认知模块,足以支持复杂的语言表达、长期规划或抽象推理。即使把黑猩猩的大脑加速几千倍,也无法令它的智能达到人类水平——就算花上10年工夫,它也搞不懂怎样用一套定制工具组装出一个复杂模型,而人类几个小时就能完成。人类的认知能力,无论黑猩猩尝试多少次,都是无法达到的。
黑猩猩不仅做不到我们能做的事,更在于,它的大脑压根儿就无法理解人类的世界——一只黑猩猩可以渐渐熟悉什么是人、什么是摩天大楼,但它永远也理解不了摩天大楼是由人类建造出来的。在它的世界里,摩天大楼这样的庞然大物是自然界某一时期的产物,而建造摩天大楼,甚或认识到有人能够建造出摩天大楼,则完全超出它的认知。这就是智能品质上的一点点差异造成的结果。
而不论是在我们今天计划探讨的智能范围里,还是在生物之间差异更小的智能范围里,黑猩猩与人类之间的差距都微不足道。在帖子的第一部分,我使用了一组阶梯来描述生物的认知能力范围:
要理解一台超级智能机器有多厉害,想象一下,在上图比人类高两阶的深绿色台阶上,站着一台机器。这台机器的智能只算“稍稍”有点超级而已,但它与我们之间认知能力的差距,恰似前文提到过的我们与黑猩猩之间的差距。而正如黑猩猩无法理解摩天大楼可以被建造出来,我们也永远无法理解那台站在深绿色台阶上的机器所能做到的事情(就算它曾试着向我们解释),更不要说让我们自己去做那些事了。而它的智能只不过才高出我们两阶而已。上图中站在红色左边台阶上机器的智能与我们相比,将如同把我们的智能跟蚂蚁相比——它也许会花上数年,想教给我们一点最简单的东西,但这一努力终究将徒劳无功。
而我们今天所要考量的超级人工智能,将远超上图阶梯中显示的所有智能水平。在智能爆炸中——机器越聪明,提升自身智能的速度也就越快,直至开始向上猛增——机器也许需要很多年才能从黑猩猩水平向上跃进一个台阶,而一旦它来到上图中的深绿色台阶,也许就只要花上个把小时,便能再跳上一级。当它比我们高出10个台阶的时候,也许一秒之内就能完成四阶连跳。这就是为什么我们得认识到:在一台计算机达到人类级别的宽域人工智能(AGI)水平后,我们恐怕,很快就得面对与甩下我们很多级台阶的超级人工智能(ASI)(见下图)共同生存的局面了(也许它的水平比这还要高出100万倍):
鉴于我们刚才已经表明,就算一台机器只高出我们两级台阶,我们也没法子搞清楚它的本事。因此,就让我们再明明白白地最后说一次:ASI会做些什么,我们无从知道;ASI会给我们带来什么,我们也无从知道。任何假装知道的人,都还没搞清楚超级智能的真正含义。
动物大脑的逐步发达,经历了长达数亿年的缓慢进化。在这个意义上讲,如果人类制造出ASI机器,无异于戏剧性地践踏(改写)了进化史。但也许,这本就是进化的一部分——也许进化就是:智能在有能力制造出超级智能机器之前,一直缓步提升着;而在那之后,则如同触到地雷火索,将引发一场改变游戏规则的大爆炸,改写所有物种的未来。
科学界大部分人相信:我们是否会触到那根火索并不是问题,问题是触到火索的时间——其原因我们将在下文中讨论。听上去有点疯狂。
那么,现在我们该怎么办?
可惜世界上没有人,尤其不会是我,能告诉你人类在触到火索时会发生什么。但是牛津大学哲学家、思考人工智能的领军人物尼克•博斯特罗姆(Nick Bostrom)认为:我们可以把所有潜在的结果归结为两大类。
首先,我们能在回顾历史时看到生物的发展轨迹:某物种突然出现,存在一段时间,然后不可避免地,从生存平衡木上跌下,走向灭绝。
“所有物种终将灭绝”,如同“所有人都会死”一样,已近乎历史的可靠规律。迄今为止,已有99.9%的物种跌下了生存平衡木。而且很显然,假如某个物种继续沿着平衡木摇晃向前,迟早有一天,它会因为自然界的一阵风或是小行星对平衡木的意外撞击而跌落,先于其他一些物种灭绝。博斯特罗姆将灭绝称为一种“吸引态”——所有物种都摇摇欲坠,要落入其中,一达此处,再难回头。
虽然我读到过的绝大多数科学家都认可ASI有能力将人类送上灭亡之路,但仍有不少科学家相信,只要运用得宜,ASI就有能力将人类个体、以及所有物种,带往另一个吸引态——物种的永生。博斯特罗姆认为,物种永生和物种灭绝同为吸引态,也就是说,一旦我们到达永生,灭绝即与我们无缘,我们将能够战胜死亡与偶然性。所以,即使到目前为止所有物种都跌下平衡木走向了灭绝,博斯特罗姆仍然相信,平衡木有其两面,只不过地球上还没有东西足够聪明,搞明白该怎样到达永生的一边。
如果博斯特罗姆和其他一些科学家是对的,那么基于我在人工智能领域的全部阅读,我们很有可能得接受以下两种非常震撼的事实:
(1)ASI的出现,将有史以来第一次,使物种落在平衡木的永生一边成为可能。
(2)ASI的出现将产生难以想象的巨大影响,有可能将人类种族撞下平衡木,或灭绝,或永生。
非常有可能的是,一旦进化触及火索,人类便从平衡木上永久跌下。在崭新的世界里,也许会有人类,也许再不会有。
看起来不管是谁,现在唯一想问的问题是:我们什么时候会触到火索?我们会掉到平衡木的哪一边?
世界上没有人能给出上述任一问题的答案。但是很多最聪明的人已经就此思考了几十年。下文中,就让我们一起来看看,他们究竟想出了些什么没有。(待续)
(英文原版地址:The AI Revolution: Road to Superintelligence The AI Revolution: Our Immortality or Extinction)
免责声明
本网站转载的所有的文章、图片、音频、视频文件等资料,均出于为公众传播有益资讯信息之目的,其版权归版权所有人所有。所采用的非本站原创文章及图片等内容无法逐一和版权者联系,若所选内容作者及编辑认为其作品不宜上本网供大家浏览,请及时用电子邮件通知我们,以便即时删除,避免给双方造成不必要的损失。
主办单位:智库园(北京)国际文化有限公司 技术支持:中企集成 京公网安备:110108006569号 备案号:京ICP备10020766号-2