正文

智能简史 导言(5)

智能简史:谁会代替人类成为主导物种 作者:(美)雨果·德·加里斯


换一个比方,考虑一下你对一只停在小臂皮肤上的蚊子的感受。当你打死它的时候,你会停下来想,你刚杀死的小生命是纳米科技工程的杰作,是20世纪科学家根本没有办法制造的吗?蚊子拥有几十亿个细胞,每一个细胞都可以看作一种大分子城市,细胞里的每一个分子就像城市里的人一样。大分子相对于细胞的大小就像人相对于城市一样。

尽管蚊子是经过几十亿年进化的极其复杂和不可思议的生物,我们人类根本就不会考虑这些而轻易杀死它们,因为我们从来都只是把它们看成是一种有害生物。当我们漫步在森林里踩死一只蚂蚁,或者把蜘蛛冲到下水道里的时候,我们都会有同样的态度。

谁又会说那些人工智能机器们不会对我们有同样的看法而消灭我们呢?拥有超级的“人造”智慧,做这些事情对它们来说是小菜一碟。

对于地球主义者,这场辩论中最重要的词汇是“风险”。地球主义者争论说,人类从来就不该冒任何风险,比如像制造高级形式的人工智能机器可能会导致人类灭亡这样的风险。唯一让风险降为零的保险办法,就是永远不要制造人工智能机器。

关键时候,如果地球主义者发现宇宙主义者真的要制造高级人工智能机器时,地球主义者可能会为了保证人类的生存而去消灭宇宙主义者。他们会认为,为了保护整个人类,而杀死几百万宇宙主义者是可以接受的。

地球主义者们有理由认为这样的牺牲是合理的。举一个历史上类似的例子—— 在二次世界大战的末期,斯大林的军队为了占领柏林和摧毁杀害了2 000万俄国人的希特勒纳粹政权,为了夺取纳粹占领的每一个欧洲城市,付出100 000俄国士兵伤亡的代价。对于斯大林来说,这样的牺牲是合理的,因为可以得到非常大的好处,那就是让俄国人从纳粹大屠杀的恐惧中解救出来。

你可能会问:“真的会有人头脑清醒地选择做一个真正的宇宙主义者,冒着整个人类可能被灭绝的风险吗?”

相信在未来,几百万人将会对这个问题给以肯定答案。我觉得,当更多的人意识到人工智能机器的发展前景,他们最终会支持人工智能机器的制造。本书将会用一个章节,以宇宙主义者的视角来论述为什么要支持制造人工智能机器。

这些人,即宇宙主义者,将会给这些生命(一个人工智能机器等价于一万亿万亿个人类)的制造以更高的优先级别,因为它们是神一样的、永恒的、无所不能的,反而不会去理会人类可能被人工智能机器灭绝的风险。

让我重新解释一下,以便没有人再对宇宙主义者的理念有疑问。宇宙主义者,定义为支持制造人工智能机器的人。人工智能机器如果被制造出来,它们迟早会发现人类是如此的低等,像一个有害物,从而决定来灭绝我们,不论以什么样的理由。因此,宇宙主义者已经准备接受人类被灭绝的风险。如果人类被灭绝,那意味着你我的后代也被消灭。那将是人类历史上最大的灾难,因为再也没有历史了,再也没有人类了。人类也将成为地球上曾经存在但已灭绝的那99%的物种之一。

因此,对于地球主义者而言,宇宙主义者是魔鬼附身,比希特勒、日本帝国主义或者其他任何杀害亿万人类的政权都坏得多,因为受害的范围将大得多。现在我们谈论的不是几百万人的屠杀,而是整个人类,即几十亿人的灭绝。

但是对于宇宙主义者来说,在这个无关紧要的小行星上谈论人类生存与否是微不足道的。因为这个行星围绕的恒星也只是我们这个星系上约2 000亿个恒星中微不足道的一颗,已知宇宙中同样的星系也有这么多(也是以10亿计算的),并且在这个多元宇宙中可能还有很多其他宇宙(根据一些最近的宇宙理论)。我称他们为“宇宙主义者”也正是基于他们的看法是宇宙范围的。他们更注重“大局”,意思就是说,在一个无关紧要的小行星上,灭绝超原始的、非人工智能的物种(也就是人类),对于人工智能机器的“上帝”来说是不重要的。


上一章目录下一章

Copyright © 读书网 www.dushu.com 2005-2020, All Rights Reserved.
鄂ICP备15019699号 鄂公网安备 42010302001612号