正文

智能简史 导言(7)

智能简史:谁会代替人类成为主导物种 作者:(美)雨果·德·加里斯


我希望你理解这个类比。如果我们制造人工智能机器导致人类最终被灭绝,拥有神一样智慧的机器人会创造出怎样的、类似贝多芬第九交响曲一样的奇迹呢?作为人类,我们太愚蠢了,以至于想象不出。我们是如此的低等以至于没有能力去鉴赏这些。就像让老鼠来研究爱因斯坦广义相对论一样,人类根本就不可能去理解,因为我们根本就不具备理解这些所必需的神经电路。

但是你会问,如果我内心里是一个宇宙主义者,那我为什么写这本书呢?答案是,我不是100%的宇宙主义者。如果我是个纯粹的宇宙主义者,那么我将会安安静静地从事我的人工大脑制造研究,而不会去向公众敲响人工智能问题的警钟。当我临终之时,我会为我被认为是“人工大脑之父”而自豪,但是如果历史谴责我是“大规模死亡之父”的话,那么这个前景真的让我很害怕。我第二任妻子的母亲仍然对奥斯维辛集中营的纳粹生活非常后怕。我清楚大屠杀给人类情感上带来的阴影是会伴随人一辈子的。

我写本书的目的是给出一个警告,我认为在宇宙主义者的工作发展到一定程度前,应该给予人类机会去选择停止他们的工作,如果那是大多数人的选择。我应该停止我的人工大脑研制工作吗?答案是否定的。我认为制造近于人类程度的人工智能机器是非常困难的事情,需要几十年的时间去解决。在未来30~40年内,机器人的人工智能将发展得足够高,而变得对人类非常有用。机器人将负责大多数的工作,它们会从事很多枯燥、肮脏和危险的工作。人类将会从这些工作中解脱出来,转而去从事更有回报的工作,去做更有趣的事情。

现在停止人工大脑的研究是很不明智的。然而,当人工大脑真正开始变得聪明起来,并且非常迅速地变得非常聪明以至于(在处于一个“拐点”的时候)成为威胁时,人类就应该准备决定是否继续。在这个关系到整个人类生存与否的问题上做出正确的决定是非常重要的,而对人工智能问题的必要讨论则应该越早越好。在人工智能时代来临之前,应该有足够的时间去理解这个问题的复杂程度。

在公开场合,我是地球主义者,我在试着警告大家。私底下,我又是一个宇宙主义者。就像我在本书中提到的,这个问题困扰着我,让我左右为难。当人工智能的辩论真正开始后,数十亿人将会和我有同样的感受。从地球主义者的视角看,作为一个宇宙主义者就像一个“种族怪物”一样(物种杀手),他会接受人类将被消灭的风险。这是这个形式的固有本质。是否要制造这些人工智能机器只有两个答案—— 制造或者不制造。决定制造它们的同时就是接受它们可能会把我们消灭的风险。另一方面,不去制造它们就是决定不去制造“神”,一种弑杀“神”的行为。从宇宙主义者的观点出发,地球主义者是“弑神怪物”。

之前,有些人认为,通过把人类自己变成人工智能机器,可以化解宇宙主义者和地球主义者之间的冲突。我们可以给人类的头脑等加一些成分,使他们成为“半机器人”(半机器生命体,比如,一部分是人,一部分是机器)。我个人觉得这样的看法很幼稚,除非整个人类向人工智能人的转化是一样的快,然而这显然是不可能发生的。

一颗糖粒大小的人工脑潜在的计算能力可能比人类大脑的计算能力要高几十亿倍。对于地球主义者来说,让这样的一个颗粒融入人脑而使之成为半机器人,是“伪装成人类的人工智能机器”。地球主义者会像对待人工智能机器一样仇恨半机器人,并且会把它们两者都消灭掉。有一个人类的外表,并不会让地球主义者觉得半机器人的威胁会减小。

让我试着用一种更形象的方式来解释地球主义者对半机器人的憎恨,可能女性会比男性更有体会。举个例子,一个刚生了孩子的年轻母亲,决定把自己的孩子变成半机器人。她只需把“一颗糖粒”放在孩子的脑子里,就能把孩子变成人形的人工智能机器。“孩子”将只有万亿分之一思想是人的思维方式,其余的脑容量(也就是大脑的)都是人工智能机器的思想(无论是什么)。结果,这个母亲“杀死”了她的孩子,因为它再也不是人类了。它只是“伪装成人类的人工智能机器”,是和她不同的。


上一章目录下一章

Copyright © 读书网 www.dushu.com 2005-2020, All Rights Reserved.
鄂ICP备15019699号 鄂公网安备 42010302001612号