注册 | 登录读书好,好读书,读好书!
读书网-DuShu.com
当前位置: 首页新闻资讯书摘

赛博格人类学家:我们需要的是宁静技术,而非硅谷乌托邦

机器人心理学家和赛博格人类学家都在研究人类和机器人互动方式,学者们的结论是,人类和机器人仍然相互需要。

【编者按】

机器人心理学家和赛博格人类学家都在研究人类和机器人互动方式,学者们的结论是,人类和机器人仍然相互需要。本文摘自《人与机器人:创造机器人的终极目标是什么》([荷] 本尼·莫尔斯 / [荷] 尼斯克·韦尔贡斯特 著,严笑 译,贵州人民出版社/轻读文库·T文库2024年1月出版)。

认识机器人心理学家

在短篇小说集《我,机器人》中,科幻作家艾萨克·阿西莫夫塑造了一个重要角色,机器人心理学家苏珊·卡尔文——“新科学的第一位伟大实践者”。当机器人的行为与预期不同,机器人心理学家就会被叫来帮忙。阿西莫夫的机器人是为人类服务的,但它们有自己的个性,经常在机器人的道德法则中发现意想不到的漏洞,但依照编程它们又必须遵守。在故事中,苏珊·卡尔文是一个缺乏幽默感的书呆子,她与机器人的相似之处多于人类:“我自己也被称为机器人。”当被问及机器人和人类是否有那么大的不同时,她回答说:“人与机器人生活在不同的世界。机器人的本质是好的。”这位虚构的机器人心理学家的工作是理解人类和机器人的复杂互动。

机器人心理学家听起来像是一个未来职业,但现在有几个人正做着类似的工作,比如美国人高山莱拉和安珀·凯斯。凭借认知心理学家的专业背景,高山研究了人类与机器人的互动。她在加州经营Hoku实验室。在那里,她代表机器人制造商研究人们如何在实践中应用机器人。《麻省理工科技评论》将她列入了35岁以下的35位最佳创新者名单。高山也位列“机器人领域你必须了解的25位女性”之中。

安珀·凯斯自称是赛博格(cyborg)人类学家。她坚持认为,我们每天密集地使用智能手机、平板电脑、台式电脑和机器人,已经让我们都变成了赛博格。凯斯在著名的麻省理工学院媒体实验室和未来公民媒体中心工作,在那里她研究人们如何处理包括机器人在内的数字技术。她经常在科技会议上发表演讲,并著有两本书:《赛博格人类学插图词典》(AnIllustrated Dictionary of Cyborg Anthropology)和《构建宁静技术》(Designing Calm Technology)。

我们采访了安珀·凯斯和高山莱拉,意在探讨人类和机器人协同工作的最佳方式,以及这对机器人的设计有什么影响。

夸大的广告还是超出预期的产品

高山莱拉与苏珊·卡尔文似乎刚好相反。她开朗、友好,经常大笑,很有幽默感。但是她不喜欢科幻小说。“我觉得科幻小说太男性化了。对男性和女性的形象刻画往往很刻板。我很小的时候就对它失去了兴趣。”

在加州的一次招聘会上,高山遇到了来自机器人公司柳树车库(Willow Garage)的员工,这家机器人PR2的制造商已经倒闭了。在谈话中高山意识到,她的公司需要一位心理学家来研究用户和PR2的互动。

被要求设计远距临场机器人时,她就爱上了机器人,“因为这种远距临场机器人是用来帮助两个人实现互动的,所以这个机器人必须尽可能隐形”。

远程临场机器人差不多就是一个联网的平板电脑屏幕,安装在支架上。它有两个轮子,就像一台电力代步车。比如,如果你不能亲自参加会议,有了远距临场机器人,即使你身在其他地方,仍然可以参会。你的脸会显示在电脑屏幕上,你可以看到现场情况并参与讨论,甚至在随后的招待会上你可以在客人中四处走动。

高山说:“在设计远距临场机器人时,你会面临这样的问题:它应该有多高?它应该长什么样子?这些就是我研究的问题。”大约在同一时间,《生活大爆炸》剧组找到了她,因为剧组想在电视剧中使用远距临场机器人。结果就出现了现在著名的“Shelbot”(谢尔顿机器人)。

从那以后,高山花了近10年的时间研究人类和机器人的互动,她得出了一个十分确定的结论:“机器人领域有一个传统,那就是承诺太多,兑现太少。我们得到承诺,一个机器人可以帮我们做所有家务,但目前我们得到最好的就是一个扫地机器人。”

根据高山的说法,机器人开发者应该更诚实地说出他们的机器人能做什么,做不到什么。例如,她研究了人们最开始使用的恐龙机器人玩具Pleo。Pleo的行为设计模仿了一只一周大的小恐龙。它能听、能发出声音,还能走路。

在她的实验中,一些用户被告知:“Pleo在想法和感受上和你一样多变。”另外一些人则不会有那么高的期待值,他们会被告知:“这个机器人理解和交流的能力有限。”然后,用户有机会和机器人一起玩。他们和玩具恐龙说话并观察它的反应。

高山发现,期待值较低的用户比一开始期待值较高的用户体验满意度更高。她将这一结论推广于一般的机器人。“对机器人的期待要切合实际,这一点至关重要,绝对不要承诺太多。你能做的最好的事情就是少承诺、多兑现。”

高山认为,一个长相接近人类的机器人会将人们的期待值拉到机器人不可能达到的程度。她说:“机器人服务于人类,并不意味着机器人的长相也应该接近人类。”

除了对机器人的期待要更切合实际外,她还认为机器人应该更善于表达它们在想什么。“假设一个机器人走向一扇门,然后站着不动。附近的人都不知道它要干什么。它是在考虑如何开门,还是在想别的事情?机器人活动在我们的世界里,所以它们应该适应我们,而不是我们反过来适应它们。很容易想象,当它看着门时屏幕上可以出现文字,表达它的思考内容。人们可以清楚地知道,它正在考虑如何打开大门。”

硅谷乌托邦VS.宁静技术

与高山莱拉相比,赛博格人类学家安珀·凯斯更精通科学知识。事实上,凯斯认为,要想了解当今人类如何与机器人打交道,我们就不能忽视科幻小说创造的机器人的集体神话。“显然,在20世纪早期,人们对伴随工业革命产生的机器有强烈的人格化需要。这种‘人格化’以机器人的形式出现,它走路像人,说话像人,行动像人。类人机器人是科幻书籍和科幻电影的遗产。”

凯斯说,科幻小说的遗产已经让我们对机器人期望过高。“我们的身体会经历出生、成长、变化、最后死亡的过程,这一事实将永远把我们与机器人区别开来。”她坚定地说,“事实一直如此。”

和高山一样,凯斯也认为机器人开发者应该设定更切合实际的期待。“他们需要说清楚:这些是我们机器人的局限所在。然后应该回答用户,如何在这些限制范围内最大程度地利用机器人。那些人类自己可以做得更好的工作,就不应该制造机器人去做。机器人服务员?我认为成不了。社交类的工作,比如聊天和微笑,还是人类做得更好。”凯斯是“宁静技术”概念的拥护者。“宁静技术”指的是那些不会一直把自己推荐给别人的技术。许多智能手机应用程序,设计得尽可能长时间地占用我们的注意力。宁静技术则尽可能不打扰别人,让人类过上自己想要的生活。“在21世纪,注意力是最宝贵的商品。这就是为什么宁静技术不要求我们全神贯注,只在最必要的时候占用一点点注意力。”

她最喜欢的例子是水壶。“你把水放在水壶里,然后离开去做别的事情,等到水开了,它就会提醒你。你不必一直在水壶旁边等。”

说到机器人,凯斯认为扫地机器人和机器海豹帕罗(Paro)是宁静技术的优秀案例。帕罗被用作治疗护理机器人,帮助失智的老年人。“它们都会恰到好处地给用户一些反馈。扫地机器人完成工作时会发出欢快的声音,卡住时会发出悲伤的声音。这让它很可爱。机器海豹不会做出照顾老人的姿态,而是让老人来照顾它,这让人感觉更好。当你抚摸它的时候,它会发出声音,会转头,还会眨眼。”

宁静技术的一个重要设计原则,是让技术做它最擅长的事,也让人类做他们最擅长的事。这意味着机器人没必要成为人类(比如一个机器人服务员),而人类也不应该成为机器人(连续数小时一直做重复的困难工作、执行复杂的计算或搜索命令)。

凯斯说:“机器人和人工智能的设计师应该问问自己,需要做出哪些优化才能真正改善人们的生活。我看到很多不必要的技术被研究出来,因为制造者认为这很酷,但是几年后它就消失在抽屉里了。能否真正帮助消费者解决问题却往往成了次要的。家里真的需要像亚历克萨这样的语音助手吗?我们真的需要智能冰箱吗?我们真的想让孩子玩会说话的机器人娃娃吗?”根据凯斯的说法,机器人可以做很多有用的事情,而不是生硬地与人类对话,然后还不经用户允许就把各种数据发送给制造商。“我们需要的不是硅谷乌托邦,不是机器人统治世界的反乌托邦式幻想。我们需要一个现实的视角,让机器人做一些人类不能做、不想做的事,以及更适合机器人做的事。”

机器人与人类的最佳比例是多少?

确定人类和机器人协作的理想比例,是一个需要不断平衡的过程。哪怕世界上自动化程度最高的行业——汽车行业——也是如此。你可能认为,使用更多的机器人会自动带来更高效的生产,但在2014年,日本汽车制造商丰田反而用人工取代了一小部分机器人。这是为什么呢?

问题在于,机器人仍然不能理解它们在做什么、应该如何做、如何改进工作。好的手工艺人可以做到这些。丰田注意到,在使用太多的机器人之后,缺失的恰恰是那些手工艺人:整个生产过程有96%都由机器人完成。丰田这样解释:“我们不能简单地依赖机器,因为机器只能一次又一次地重复同样的工作。要成为这台机器的主人,你必须有相应的知识和技能才能控制这台机器。”

重新起用训练有素的工匠,使丰田能够减少汽车曲轴生产中10%的浪费。后来,该公司再次将少量机器人替换为人工,使生产过程中的其他环节也节省了成本。不久之后,德国汽车制造商梅赛德斯也用人工取代了一些机器人。

丰田的例子表明,机器人并不总是越多越好,找到恰当的平衡点很重要。这样一来,人类和机器人协作会比某一方独立完成效果更好。找到这个平衡点是人类与机器人合作的法门。

废墟之中:搜救机器人

在灾难之后使用机器人是真正意义上的攸关生死的大事。每年有100万人在地震、洪水、泥石流、矿难、工业灾害中失去生命。

2008年,美国得克萨斯州农工大学的罗宾·墨菲创立了“无国界机器人专家”项目,旨在训练志愿者学会使用她和同事开发的搜救机器人。和高山莱拉一样,罗宾·墨菲也位列“机器人领域你需要了解的25位女性”。

当灾难来袭,无国界机器人专家可以使用地面机器人、定位机器人和水下机器人加以应对。这些机器人大部分是半自动半遥控的。它们主要用于帮助救援人员评估建筑、桥梁等基础设施是否足够安全,以便派人前往救援。墨菲说:“机器人是我们的眼睛、耳朵和手,人类可以用它们远程评估受灾程度并进行干预。这很重要,因为这些机器人可以帮助减少灾难带来的损失,这样当地居民就可以更快地重返家园。”

2011年日本海啸发生后,潜水机器人帮助人们监测沿海地区基础设施的破坏情况。多亏了会游泳的机器人,如果全部工作都由人类潜水员自己完成,这项工作不会提前整整6个月就结束。

墨菲解释说,搜救机器人完全依赖于人类和机器人的良好合作。她研究了搜救机器人在2001年纽约双子塔遇袭事件中首次使用的情况,得出的结论是,所有失败的机器人任务中,有一半以上都归咎于人为失误。墨菲说:“例如,在矿难发生后,机器人需要通过电缆与操作员沟通。它们不使用无线通信,因为在坍塌的矿井里,无线通信要么无法工作,要么太不可靠。但有时我们看到,人类操作员会让机器人行驶在自己的电缆上,这一操作会导致电缆损坏,以至于机器人无法同外界交流。机器人设计师往往对操作员期望过高。”

墨菲还总结道,机器人操作员不应该在操作的同时还要在屏幕上寻找幸存者:“那样做太费神了。如果在操作员之外,还有另外一个人负责寻找幸存者,那么找到幸存者的概率就会提高9倍。”

机器人化的悖论:依然需要人类

谈到机器人化时,人们经常忽视的一点是,每个机器人的设计、制造、编程、维护、修理实际上都由人类完成。机器人在执行任务时通常也处于人类的监督下,这意味着即使是机器人系统,实际上也是人类和机器在共同协作。因此,为了使机器人系统以最佳状态发挥作用,人类因素也必须考虑进来。

1983年,英国心理学家丽莎娜·班布里奇在科学论文《自动化的讽刺》(Ironies of Automation)中指出,随着自动化程度的提高,一旦自动系统真的犯错,人类干预会变得更加重要。而且这些错误总是有机会发生,尤其是在开放系统意外不断的情况下。班布里奇的观点被称为“自动化的悖论”。

尽管由于应用了自动驾驶技术,航空工业的安全系数呈指数级增长,但我们仍然不会乘坐没有人类飞行员的飞机。这完全合理,因为人类飞行员加上自动驾驶系统的组合比单独一个人类飞行员或者单独一套自动驾驶系统要安全得多。

当被问及未来某一天是否会允许飞机在没有飞行员的情况下飞行,英国航空公司飞行员协会的航空专家史蒂夫·兰迪回答说:“我们知道很多人对这个未来设想感到兴奋,但也担心他们可能会忘记乘无人驾驶飞机旅行的实际情况。每一次,当自动驾驶系统不能正常工作时,还是需要人类飞行员进行干预。”

自从自动驾驶技术引入民用航空以来,由于人类飞行员与自动驾驶系统配合不佳,已经造成若干起空难事故发生,还有一些事故差点就发生了。有一个臭名昭著的例子:2009年2月25日,土耳其航空公司一架飞往阿姆斯特丹的航班坠毁。当飞机接近史基浦机场时,高度计突然指示当前飞行高度为负2米。自动驾驶系统以为飞机已经着陆,于是迅速降低了引擎功率。而人类飞行员没有及时注意到这个错误,于是飞机在跑道附近坠毁了。事故造成9人死亡,120人受伤。

一旦我们的汽车和卡车开始自行做更多决定,在航空工业上经常发生的事故也会发生在道路上。和航空领域一样,无人驾驶汽车可以明显减少交通事故发生,因为90%以上的事故都由本可避免的人为失误造成。但是当汽车犯了一个错误而人类无法及时纠正时,无人驾驶汽车也会造成新型交通事故。

机器人和人类的合作将带来新的挑战。我们将如何应对这种责任上的转变?人类更倾向于相信机器而不是自己的常识,我们该如何应对这一心理?当机器人掌握了人类的技能并取而代之时,人类的能力往往会退化,我们又该如何应对这一状况?人类无疑会为这些问题找到解决方案,但人类和机器人共同协作的最佳状态不会自动到来。

艾萨克·阿西莫夫创造的角色苏珊·卡尔文,临终时回顾了自己一生的事业,她说:“曾经有一段时间,人独自面对宇宙,没有朋友。现在他创造了机器人来帮忙,这些机器人更强壮、更有用,也绝对忠诚。人类不再孤独。你有这样想过吗?”

热门文章排行