【编者按】
从元宇宙到ChatGPT再到Sora,人工智能领域的发展如此迅猛,正在将我们带入一个普通人难以理解的世界。“数字社会”专题由澎湃新闻思想市场栏目和哈尔滨工程大学人文社会科学学院期刊《智能社会研究》合作推出,由人文社科译者王立秋担任特约策划,旨在通过译介关于数字技术和人工智能研究的重要文献,为理解不断加速的今日世界提供思想资源。
当地时间2024年2月16日,比利时布鲁塞尔,Sora文生视频模型正在智能手机上展示。
导论:算法对人类学的挑战
这里是算法的一个定义:算法是满足条件指令(if-then conditionals)的标准化方法,通常使用布尔二进制值,在电路上运行,根据不同的自由度自动执行。这样的定义对社会科学家来说几乎没什么帮助,对其他任何人而言亦然。说算法做某些事是什么意思呢?人类学以及更广泛而言的社会科学应该期望从算法研究那里以及在算法研究之中得到什么?研究算法究竟是什么意思?本文整合了一众文献,用于勾勒出怎样研究算法这一问题的一个可能答案。答案就是,我们应该研究算法的生态。
学者们已经研究过算法对“注意力”和“瘾”的组织、算法对品味的塑造和作为照护和捕捉对象的算法,算法对公众的塑造。算法也被当作自动化的自学习驱动者和强大的物神来研究。有学者认为算法重新组织了现代的理性和视野。关于算法的研究聚焦于音乐即兴实验室、音乐推荐公司、精确战争、约会网站公司、搜索引擎、营销和网络分析公司、抄袭检测软件、艺术作品和奈飞等。为人类学对算法的研究指路的程序化文本也出现了,现在甚至还多了一篇发表在《人类学年度回顾》(Annual Review of Anthropology)上的文章。
然而尚不清楚的是,研究算法的人说的是不是同样的东西。即便“算法”在数学中的历史要早于这个词的出处——穆罕默德·伊本·穆萨·花拉子米(Mu?ammad ibn Mūsā al-Khwārizmī,c. 780-c. 850,译注:波斯数学家,Algorithm一词出自al-Khwārizmī的拉丁文译名“Algoritmi”),即便杜里什( Paul Dourish)在2017年写到它的流行“只是几年前的事”,它现在已经不再只是一个纯粹的技术术语了。算法可以被视作欲望和焦虑的占位符,可以是想象,也可以是文化。研究算法的社会科学可以说面临着“对象”是什么的挑战。算法是施动者还是模式,是文化还是物质,是主体还是对象物,是内生过程还是外生环境?一种策略是思考算法之“多”,从“(单数的)算法”转向“(复数的)算法系统”或“算法组合体(algorithmic assemblages)”。那些在词汇上把纠缠在一起的异质的东西单数化的策略,并没有减轻观察算法的难度。算法的特征是难以捉摸和不透明。它们是黑箱,即使仅仅因为它们是专有技术且难以定位,就使它们在民族志层面上变得复杂了。算法的展演性也放大了“对象”的挑战:算法会对人类学关心的其他对象产生影响,范围包括对种族、市场或媒介的比较和分类。
在这篇综述中,(受林雪平大学算法研究网络讨论的启发)我回避了通过“掀开罩布”来“把握算法”、打开算法的黑箱以便分析算法显现/配置的多重关系的欲望。我将通过探讨我称为算法生态样式的相关现有研究,来概述生态视角的组织要素:基础设施、想象、界面、身份以及投资与利息——的工作,来概述一种生态视角的组织要素。这里提出的推测性观点是,算法内在于生态,并在所有这些样式中运行。这篇综述主要基于用英文写作的研究,这表明作者在语言上的局限、英美的学术霸权和“算法社会科学”这一特定学术风潮的政治地理状况。
当地时间2023年7月26日,德国卡尔斯鲁厄,一名中学生坐在电脑前使用ChatGPT。
算法与文化/作为文化的算法
研究算法的人类学经常围绕黑箱展开探索然后空手而归。就像有学者在多次关于算法的会议上指出的那样,学者们经常发现,算法是令人困惑的研究对象,难以把握,甚至很难定义。就像乌里奇奥(William Uricchio)写的那样,“‘算法’这个术语似乎召唤出了多到和它简单的意思不相称的回应”。但从人类学的角度来看,意思简单绝不是微不足道的,它是一种在多个语境下都不稳定的复杂成果。此外,西弗(Nick Seaver)展示了软件开发者也经常没法向民族志学者指出对象。同时,脸书用户已经意识到算法的运作了。而且,还有广泛存在的专有权的黑箱操作,因此尽管自相矛盾,一定存在可识别的算法,它的隐形化和神秘化是根据法律施加的。
一种明显人类学式的做法是把算法当作文化来考虑。杜里什就讨论过一种“算法文化”,在这种文化中,算法以这样的形象出现:它塑造了文化的产品。哈利南(Blake Hallinan)和斯特里法斯(Ted Striphas)通过分析一场旨在提高奈飞推荐系统准确性的竞赛,展示了算法信息处理是怎样改变人们对文化的构想的。斯特里法斯认为,算法做的是整理、分类和排序,这就是文化本身,“算法文化”从中兴起。西弗也提议不要认为算法包含在文化之中,而应该把它看作文化本身,即“形形色色的人类实践导致的多重后果”,这里的“文化”指的不是一个物体,而是“人们做的事情”。但通过把算法纳入现代人类学的主人能指(master signifier)来解决定义问题也有其局限性,因为这样的做法同样缺乏定义上的精确,并且主要达到的是学术圈地的目的。
一种选择是把算法当作模式化的技术来考虑,这对研究“遵守规则”的人类学提出了挑战。众所周知,布尔迪厄曾在维特根斯坦的基础上反对 “规则谬误”,反对把默会知识法典化,认为那既是唯智论的、又是决定论的做法。但或许,算法作为编码化的规则引入的,正是被布尔迪厄斥为“实践规律背后的幻象”的类似规则的元素。当然,编码化的规则无处不在;数十亿人拥有随身携带的算法设备(智能手机和其他图灵机器),这些设备影响着他们的注意力,并以可被商品化的数据的形式捕捉他们的实践。与维特根斯坦的想法——规则的特征是没有能力决定其应用——一致,对于这个问题,人类学的答案依然是,算法既作用于被它们参考、指向的生态,又被这个生态所作用,在递归算法的间隙中有偶然性和能动性,因而带来的是互动而不是单方面的行动。
也许,把算法解释为文化的做法说明人类学也可以被当作一种算法:输入民族志数据,它就会产出作为输出的“文化”。同样可预测的是,社会学也有谈论“算法社会”(Jenna Burrell and Marion Fourcade)或“黑箱社会”(Frank Pasquale)的同等做法。但算法缠绕体(algorithmic entanglements)既在经典的“文化”与“社会”领域之外,也在这些领域之下。出于这个原因,我提议从生态的角度来看算法缠绕体。
一种算法的生态学
从生态的角度来思考算法缠绕体意味着,把它们看作“环环相扣的偶然性电路”(interlocking circuits of contingency),其中内在性优先。贝特森(Gregory Bateson)认为“计算机只是一个总是包含一个人和一个环境的更大电路中的一个电弧”,对算法来说也一样。各种生态概念已经是媒介和传播研究、数字环境研究、知识生产、大数据基础设施、基础设施研究、机器人学和建筑机器人学以及泛在计算等领域研究现状的一部分了。不应把生态理解为某个稳定的东西(比如说,“文化”或“社会”)的“环境”,而应该把它理解为一个“纠缠的领域”,一种力量与效应的动态构成。生态的视角关注实践与空间的分布特性。它不会给生态中的任何构成元素本体论的首要地位,而聚焦于它们作为持续完成的纠缠涌现。就像乔伊(Timothy Choy)写到的那样,生态标志着“构成的、构成中的部分之间关系的涌现网络”。他补充说,生态不是既定的,而是“通过科学的(生态)研究被设定和建立的”。这个“建立”必然是政治的。它标示出这样一个构成任务,这个任务总会引出关于本体论政治的问题,它的第一步,是拒绝事先知道世界是由什么构成的。
生态的视角能让探索算法的人求而不得的东西变得更容易理解。一个有用的类比,是把算法看作生态中的液泡(vacuoles)。德勒兹曾在与托尼·奈格里的谈话中用生物学的“液泡”概念来描述“传播不通”或“电路中断”的地方(places of noncommunication or “circuit breaker”)。液泡是细胞的细胞质中被细胞膜包围的隔室。液泡包含、隔离、输出或延迟分子,以及最重要,它们筛选、排序和选择。(在运作上而非实质上)把算法当液泡将意味着在解释它们的难以捉摸的同时强调这样一个事实,即虽然算法被认为有很大的能动性,但它们的作用方式更像断路器或至少是电路扰动器,而不是导管。算法液泡是创造性的,但它们的创造方式是非传播性的、难以捉摸的和不透明的。我们因此而避开平滑的幻想,并保持对摩擦的关注。算法对控制来说不是平滑的通道或门户,而是电路扰动器和断路器,就像在福柯那里,权力通过像身体那样的通道点来运作,由此构成了阻力和抵抗。这使我们关注这一事实,即需要再做点什么,才能让算法成为控制或监控的力量。就像在细胞中那样,算法液泡的膜是关键,我们可以把这些膜理解为纠缠的集合,比如说,基础设施、界面或想象。
作为一种驯服算法对象的挑战的方式,生态概念意味着严肃对待观察者依赖性 (observer-dependency)。它也向斯唐热(Isabelle Stengers)提出的宇宙政治谕令开放,赋予算法以力量,使我们以问题化的方式感受和思考我们自己对算法的关注和承诺。要做到这一点,一种方式是要认识到算法在其中显现并且不可避免地以多种形式显现的不同的生态纠缠或部分关联。我把这样的纠缠称作算法生态的模态。我从分析角度区分了五种这样的模态并回顾了相应的文献,它们是(a)想象、(b)基础设施、(c)界面、(d)身份和(e)投资与利息。这里的推测性观点是,算法内在于这些生态,并在所有这些模态中起作用。
想象
算法有柏格森和德勒兹所说的“虚构功能(fabulative function)”。它们有助于塑造和缩短社会想象中的无限回归,但(自相矛盾的是)它们又是以递归的方式这么做的。虚构——有选择地想象和意象化、造出可看的和可说的东西的方式——是算法的构成部分,而想象的共同体也以算法为中介,这个例子也说明了,公众是怎样通过算法被构造出来的。在这里,我们应该避免“扬弃”的辩证欲望,对由此而来的生态纠缠的切入点的多样性表示欢迎。然而,即便与帝国主义基础设施同步进行,这种社会想象力业需要置于主要是西方计算理性的历史之中,而不是为诸如约鲁巴逻辑数学所独有。算法想象可以被看作一种特别的“社会技术想象”(Sheila Jasanoff)。然而,像贾萨诺夫这样的概念有对想象的共识基础施加不适当限制的威胁。查尔斯·泰勒(Charles Taylor)著名的构想——“社会想象是使共同实践和一种广泛共享的合法性认识成为可能的那个东西”——也一样。想象指向背景性理解,但这些理解不一定像贾萨诺夫假设的那样是人们“集体地持有的”,也不一定像泰勒坚持的那样,“是大群的人甚至是整个社会共有”和“共享的”。这些到现在已经成为经典的构想过于依赖一种共识性的世界观,即便这样的世界观在历史上是不太可能的。想象不需要共识和共享的理解也能存在;有共享的误解、冲突和争论就够了。
由公司和治理机构提出的算法想象是对“加州意识形态”的重新表达。我们可以把它们展示出来的那个东西称作一种智能的超凡魅力,它通过联合效率、乌托邦式的问题解决方案、创新、自由、参与和可持续来动员欲望、期待、思辨和计算。因此,摩擦(friction)在想象中与“无缝”(seamlessness)相对,并被转化为“无缝”。无效率变成了优化。延迟被虚构为实时、物质被虚构为虚拟、故障被虚构为代码,非法入侵(hacks)被想象为(安全)控制和优化时被(重新)挪用。在被体验为“智能”的时候,复杂性也被想象为来源(sources)而非限制。智能城市、智能之家和物联网(IoT)是这种算法想象的主要场所,物联网有时以所有物体的网络连接的元想象的形式出现。举例来说,“智慧城市”并不是一座城市,而是一种想象,由往往是零散的、不均衡的传感技术拼凑而成。智能的超凡魅力的吸引力在于,它把物变为可优化的对象,且(不)可被公众关注,使各种问题变得相当,超越对抗,甚至超越(对抗性的)商议。优化是一种允诺逻辑。它有诱惑力,因为它把问题去政治化,推迟问责,并以超凡魅力的方式为之,把硅谷标志和游说的平滑和城市规划者的计算甚至是人类学会议上幻灯片的华而不实关联起来。
智能的超凡魅力经常与一种关于实验性的政治想象相伴。实验性在物质上表现为像“实验室”那样的形式,如大量出现的“城市实验室”(urban labs)、实验台(test beds)、原型(prototypes)、实验(experiments)、仿真(simulations)、模型(models)、场景(scenarios)、演示(demos)、探索、试验或版本(explorations, trials, or versions)或试点(pilots)。实验性经常被当作公共政策的策略来部署,它是一种时间性的技艺,它悬置历史并建立一个内在的时间框架。它通过把未来编码为优化的当下的重复,体现了一种物流的逻辑,比如说在商品和服务的动态定价系统中和在对智慧城市的计算再现(把它再现为无缝流通的空间)中那样。类似的,在军事语境下,人们在称赞“以网络为中心的战争”时,也会称赞算法战争表面上允许的“态势感知”和“精确性”的提高。而技术战争、人道主义和帝国的视觉政治,也在格雷瓦尔(Inderpal Grewal)所说的“无人机想象”中找到了表达。后勤逻辑的一般化也使这些军事技术向公民生活的扩散成为必然。
智能和优化的想象也在这个意义上——算法日益在算法排序的世界上运行,经历新的迭代和递归操作——有着述行后果。当世界变成自身的模型,政治就可能变成错误、摩擦或仅仅是修补或试验新版本的参数设置。既然演示永远在展示,那么“失效(failing)”也就能够取代“失败(failure)”了。
紧接在充满“智能的超凡魅力”的对算法计算的想象之后,有时与这种想象同时发生的,是“算法的焦虑”。确切来说,这些焦虑出自于算法的被虚构和(主动)虚构性,出自于算法作为液泡的不可捉摸和不透明以及它们广泛的生态效应(作为扰动器和断路器,也即作为有选择性的执行操作者)。就像西弗在希门尼斯(Alberto CorsinJiménez)的基础上做出的富有洞见的人类学分析中展示的那样,把算法想象为陷阱是很常见的。而陷阱也可以被想象为算法的(递归)理性本身,这激发了断开联系和终止开关的欲望。但一切算法想象都有陷入技术决定论的危险,后者会取代算法技术的偶然的历史,并把它们和比如基础设施等的纠缠隔离开来。
2024年2月17日,人们通过手机和电脑查看OpenAI公司的Sora产品。
基础设施
基础设施可能和算法一样隐形,但就像拉金(Brian Larkin)论证的那样,基础设施也同样会近在眼前。这两种情况都是真的,因此也就有了基础设施的正反性(obversity):基础设施既是正面又是反面,既是前台又是后台。基础设施既可以被看作基底系统,又可以被看作流通架构。基础设施是让其他物质动起来的物质网络。它们是持久的,但需要持续的工作——比如说,维护和维修工作,或协调创造和维持基础设施涉及的不同行动者所需的那种工作——才能持久。作为“装置技艺”,基础设施不但由管道、线缆、道路、硬件或电线构成,也是一堆“技术、技艺、行政程序和文化形式”。
算法生态涉及各种标准、代码、(元)数据、协议和命名规则/分类、线缆、渠道、设备、数据中心、废物处理、劳动、知识专利权在基础设施中的纠缠。因此,算法生态就基础设施而言是异质的,或者说是“多元基础设施的”。但就算基础设施需要对物质和(深层)时间的关注,基础设施也是观察者依赖的。从一个角度来看是基础设施的东西,从另一个角度来看可能是界面(比如说中继设备或应用程序接口[API])。
所以,虽然基础设施是一种关键的算法生态模态,但哪些基础设施元素重要取决于特定的生态时刻,因此我们不能认为基础设施在我们采取特定观察者立场之前就是固定的或被给定的。比如说,在算法驱动的传感执行器中,感应、决定和启动都会利用和激活不同的基础设施群。在无线传感器的生态中,标准(例如IEEE 802.3以太网标准或设备的MQTT标准协议)和把关人算法可能永久相关,但许多算法只在极其特殊的情况下起效。所以,不能认为基础设施是一个既定的基础层。问题毋宁说是特定基础设施是如何、于何时与其他算法生态模态元素的拓扑前景结合,从而变得重要。在一些场合下,传感器硬件至关重要,比如说,在面部识别系统的表现取决于表型的时候。在其他情况下,代码才是关键,就像在武器化无人机(也即无人驾驶的飞行载具)的瞄准算法的内置偏见受到质疑的时候。同时,把注意力集中在基础设施上能让我们看到各种完全不同的劳动场所和各种无形的劳动形式(比如说离岸的编程活动;算法从金融市场向城市治理的行进;废物、回收和维修管理与劳动力),这些东西经常被公众探讨所忽视,但对算法生态的政治显著性来说至关重要。因此,何以基础设施重要这个问题关乎本体论层面上的政治。
有时,这样的政治相当平庸,而算法出现在基础结构的“(下流)场景”(ob[scene])中,可以凸显基础结构也可能意味着结构性的愚蠢。比如,当前大学里关于ChatGPT可能引发潜在的抄袭行为的警告和这样一种基础设施是分不开的。这种基础设施要求考试和打分,并把考试和更广泛而言的教育设定为“以数字为中介的”。在这里,和在任何地方一样,另一种基础设施是可能的。但因为学院行政管理人员——不幸的是,在这点上,很多学者也一样——往往更喜欢(通过考试和打分来)管制学生,享受数字测验的成本效益,所以,人工智能才带来了问题。而在不同的基础设施条件下,这些问题可能根本就不会出现。在某个点上,优化的计算可能反过来,对那些被插入优化的基础设施,同时又号称要做一些实质性的事(比如说,教育年轻人)的机构不利。
的确,在德勒兹所说的“控制社会”中,基础设施的力量已经从容器转向了流通,或者说从框架转向了平台。它也从时空(规训)模具转向了持续的调节。因此,基础设施的物质性是广阔可塑的,而不是封闭固定的,但它也有它的基础装置。它们可以是和插座标准一样平凡的摩擦场所,也可以是像斯塔罗谢尔斯基(Nicole Starosielski)在她对南太平洋的网络电缆的研究中说明的那种斗争场所,强调基础设施与殖民性之间的纠缠。在这两种情况下,计算的力量都是关键,因为计算资本主义(logistical capitalism)催生了由服务于效率和积累优化的算法计算驱动的安全化和军事化的流通走廊。
界面
基础设施引出了开放和控制的问题,这个问题指向界面扮演的至关重要的角色。界面治理着人与技术之间的关联,因此被当作宝贵的人机互动的民族志田野点。界面既是历史塑造的物质对象和效应,也是调节关系轨迹的中介区域。界面不只是中介者,它们也制造和赋能。界面校准交换条件。它们是人与非人施动者的中介空间,涉及历史情景中的主体性形式。界面唤询主体。比如说,界面中的再现逻辑共同设定了用户的主体性并调节着用户的反应。在本体论上,界面是关联;在认识论上,它是简化。合起来,我们可以把界面看作阈限和转化区域。
像访问或概览屏幕、控制面板或进程切换那样的界面经常会把算法生态中被监控的进程模块化——一个对计算运作模式来说典型的拆分、合并和简化的过程。近来的研究聚焦于像控制屏幕和控制面板那样的图形用户界面(GUIs)和控制室和操作中心。界面为这个问题提供了线索:人是怎样通过具身的互动融入算法生态的。算法表达并调节主体的可供性。这些主体可能是有权限访问能够重新校准算法的界面的专家。界面也提供了研究对算法生态的设计和激活这些设计的欲望(比如说,对无缝的、对模块化秩序或对联网环境中的私密性的欲望)之间关联的场所。因此,界面处在基础设施和想象的十字路口上,因为它们是系统使自己显现的方式,但恰恰通过有选择地组织可见性,系统又把自己藏起来了。下拉菜单在提供选项的同时进行限制,定制化也有其限制,因此需要在通用性和专用性之间权衡。通过再现的重复,界面也在训练对各种参与形式的接合与拆分。通过提供选择性的访问,界面使选项隐形,这也是基特勒(Friedrich Kittler)关于计算机不是光学媒介的想法的一种表现。这也是为什么根据在生产的地方斗争这一准则,界面是抵抗和即兴的场所的理由。
人机界面不是唯一切题的界面。还有形形色色的非人类行动者之间的界面。基础设施内部所有种类的开关和中继器(比如说,跨传感器节点、取货点和网管)以及居间形式的代码(如应用程序接口)对于算法生态的配置来说都很重要,比如说,它们保障了互操作性(interoperability)。在被想象为物联网的那个东西里,甚至更多的物获得了各种形式的生态意识,变得具有界面性。但平台的崛起意味着应用程序接口的访问受限,这又缩小了界面的范围。在不同层面的抽象之间充当中介的应用程序接口的例子也说明了界面在形成规模上起到的作用。因为算法生态是拓扑总体(topological ensembles),所以,它们“在哪儿”取决于规模,规模从来都不是自然给定的,而是作为界面、开关或中继被“做出来”的。因此,界面通过校准可供性来过滤选项、构造关联并使基础设施显(隐)形。
身份
我用“身份”这个简称来指算法生态中出现的主体位置,这主要是出于押韵的考虑(译注:英文中identities和imaginaries, infrastructures, interfaces以及invests and interests押头韵)。算法生态能够以特定的方式配置主体位置,而主体也有抵抗或修正生态赋予的可供性的策略。正如全球定位系统(GPS)对因纽特人寻路的影响所说明的那样,数字技术的使用可以从根本上改变人们体验世界的方式。但这个联系从来不是决定性的。技术增强的环境“以高度具体、在地和物质的方式扩展了如果没有电子假体就无法实现的具身意识”(N. Katherine Hayles),但各种形式的身份或主体性并不是这样的意识所赋予的。相反,它们在不同模态之间的缝合空间展开。因此,将“用户”等一般概念去自然化是关键所在。一种方法是考虑用户是如何被“配置”的,例如在可用性试验中;另一种方法是追溯这些身份的谱系,这些身份与基础设施或想象等高度纠缠在一起。比如说,网络计算机用户构成了一个主体位置,这个主体位置是随时间共享技术而变得可能的。控制面板(界面)把主体视觉化为“既有需求又有控制权的”。企业策略想象将公民、决策者和企业家模糊处理。当代的消费者身份则是被军事、计算逻辑塑造的,地理信息系统和全球定位系统被用于 “目标定位”。类似地,“他者”在对感觉和行动的战争模拟中被设定,这模糊了物质的和虚拟的边界。
智能家居
身份配置的一个例子,是智能家居将住户配置为房屋的管理者,而房屋被重构为一堆程序。接下来的问题是,还有什么其他主体地位成为了可能,例如,通过主张“基础设施权”占用房屋或城市的延伸部分。因此,算法生态中的主体性具有实践情景化和片面性的特点。这些是一切主体性的一般特征,因为,就像福柯教导的那样,从来就没有什么主体(subjects),有的只是主体化(subjectification)。但算法计算和设备致动的循环发生的速度之快使主体位置特别不稳定和有弹性。我不用手机,十多年里发展起来的对用手指在触屏上点来点去(或在小窗口上划来划去)的普遍上瘾一直让我感到惊奇,它看起来让“用户”概念又多了一个意思。算法随身设备在日常生活中的常态化,预示着算法媒体在很大程度上可能不是麦克卢汉式的 “人的延伸”,而是属于人类的自我本身。
但在这里,“人”是一个过度宽泛的范畴。通常,这里的“人”指的是人类的某个特殊历史模态,温特(Sylvia Wynter)所说的“第二种人(Man2)”,即特定类型的、现代的、生物中心的、受过度代表性的自恋影响的经济人(homo oeconomicus)。它表明殖民性和种族作为基础设施只让特定主体能够被识别为人的运作方式。这提供了一种有力的描述算法如何对主体进行排序和配置的方式。与其担心“第二种人”人类学普遍带有的“偏见”,指出了现代技术生态中有待检测和纠正的不一致,我们需要强调种族和白人至上是怎样从根本上内生于电子基础设施的。它们应主要被视为种族主义人口管理手段的创新,与性别分化和统治交织在一起,正如布朗(Simone Browne)在写到 “监视对黑人来说并不新鲜”时所明确指出的那样。与偏见做斗争就是与作为常态的种族资本主义做斗争。就像本杰明(Ruha Benjamin)写到的那样,“算法的中立再生产了算法维持的歧视”。杰弗森(Brian Jordan Jefferson)则把智慧城市技术放入种族资本主义更加漫长的历史中考量,指出“算法治理是白人至上主义政治经济学的最新载体”。算法可被看作塑造城市中种族化红线的“格式”。对主要写美国的本杰明来说,这个概念在“新吉姆代码(New Jim Code)”中得到表达。算法可以作为日常本体论等级化的自动装置,在工作招聘算法的歧视、种族定性和预测性执法、医疗决定的种族化、面部识别算法中的白人至上偏见或算法和生物统计学的边界构造等方面中出现。最近出现的一个不祥之兆是,一个由人工智能创造的有着黑人女性外貌的超级模特登上了《Vogue》等杂志。它的创造者是一个白人男性,这不但标志着一种对白人剥削黑人(文化)生产的漫长历史的重复,也标志着一个可能的新阶段,在算法上黑人对这种剥削的参与已经变得多余。同时,这个黑人脸蛋的算法化身又可以被呈现为是在制造“多样性”。我们不禁怀疑,呼吁“算法平等” 是否意味着对改进想象的投入最终以算法手段重复了种族资本主义。至少,在最近荷兰关于儿童福利的丑闻中看起来是这样:荷兰税务机构通过算法选择性进行所谓的福利欺诈检测,而被选中的人大多是属于有色人种的单亲妈妈。甚至在丑闻发生后,荷兰也还在继续以种族化的方式使用像SyRI那样的定性系统。我们面对的不是算法的偏见,而是通过算法手段来维持的种族资本主义。
由人工智能创造的有着黑人女性外貌的超级模特登上了《Vogue》
投资与利息
第五种也是最后一种在这里被讨论的是投资与利益模态,指向资本和控制,也即算法生态中政治经济学所扮演的角色,以及这样的生态对资本积累的贡献。不过,这也是关于算法的文献中几个分支分道扬镳的地方。货币人类学依然关注算法技术如何重构实现统一标准衡量的方式——通过支付实践、特殊目的资金以及莫勒(Bill Maurer)所谓的像M-PESA那样的“移动货币”。但这项工作和致力于研究阶级与计算机化的关系的政治经济学研究关联不强。即便马克思本人就已经指出自动化的重要性(最终有助于破坏资本主义),也有研究者指出当前已超越资本主义的以信息为中心的经济,但关于算法的大部分研究并没有采取基于阶级的视角,这也引出了和社会科学家对所谓 “编程精英”的研究的关系问题。对研究算法的人类学家的行业从属关系和资金来源的政治经济学分析还没有出现,尽管在他们当中这些问题显然要比研究种族或性别的人类学更常见。
虽然号称要去中心化、开放和共享,但基于网络的技术实际上涉及新形式的利润、权力和控制。对主权和云计算基础设施的重构超越了“数据的政治”。关键是要概述算法生态是怎样被以私人和公共行动者(包括社会科学家)混合的方式进行治理的,重新定义公共和私人这些概念本身,思考其中表达、保留的经济和政治特权。这样的概述也涉及一些测绘工作:测绘企业在算法生态中的利害关系和知识专利权的法律架构。就像在有影响力的智慧城市定义中那样,算法生态还凸显出一种新自由主义的对企业家精神和灵活性的想象。
因此,投资与利息的模态也指向金融化、投机、杠杆和风险资本在算法生态中的作用。这要求我们关注在公民作为货币化过程的数据来源进行无偿劳动的时,监控是怎样通过公民的非物质劳动和货币化关联起来的。社交性本身也成为榨取和积累的来源,因为在 WhatsApp 上与所爱之人联系既意味着从事无偿劳动,也意味着成为榨取的来源。从这个角度来看,算法管理着生命劳动(living labor)和抽象劳动之间的联系。因此,算法生态在当代积累中占据一个关键节点,即被其配置的政治经济塑造,也反过来塑造着政治经济。人们日益通过算法来完成租金提取和对(总是人为制造的)稀缺性的校准。在这个过程中,工人变成数字无产阶级的一部分。这使不稳定劳动的一般化成为必然,现有的抵抗方式(如组建工会)也随之而失去了效力。
对“认知资本主义”的分析指出,金融化、“非物质劳动”、心智和“一般智力”在剩余价值的数字生产中所起的作用。但重要的是,也要考虑到维护、分配、废物处理工作和原材料提取等物质劳动,正是这些往往隐形的物质劳动维持着非物质劳动。算法生态中的这种基础设施劳动要求我们关注维持其工作的扩展地理环境,和由此而来的经常是性别化、种族化的可供性和排斥。比如说,维护、分配和废弃的计算是当代统治形式的关键。对“认知资本主义”的诊断似乎没有触及更加悠久的种族资本主义的历史和原始积累的持续相关性,算法生态则有助于把这些也纳入分析。自由派学者对于隐私的完全可以预见的专注也一样,这种专注复制了对自有个体的欲望。算法生态要求不放弃对自身位置的交叉分析。
结论:测绘生态
为应对算法人类学中“物”提出的挑战,我勾勒了五种算法生态的模态。想象、基础设施、界面、身份和投资与利息提供了研究算法生态的五个切入点,而我勾画的推测性观点是,算法内在于一种纠缠的生态,并在算法生态的所有模态中起作用。换一种斯宾诺莎式的说法就是,一个算法,多种模态。因此,和这些模态一样,算法也是观察者依赖的,这就意味着,就像詹姆斯(William James)说的那样,“同一个物质对象,可以同时在无限多个不同的过程中出现”。在这里,一种实用主义的视角是有用的:对社会科学家来说,用我在本文开头引用的话来定义算法几乎没什么意义。一切从社会的角度来看重要、从政治的角度来看紧迫的东西,都是在生态的纠缠中发生的。
在把算法生态的不同模态纳入考虑的时候,我们会发现,算法生态更多的是拓扑性的而非地理性的,其恒定性在于其模态的递归更新。我们可以把这些模态看作纠缠的拓扑折叠。甚至像智能手机那样的身体穿戴设备也不会占据严格的地理位置。作为定位设备,它们随穿戴设备的主体的运动而拓扑地扩展和收缩。类似地,城市自动化网络配置的空间也会随像网络类型、传感器节点、传感器通知周期、回程和网关那样的基础设施元素而发生变化。而上面提到的所有那些基础设施元素又会随例如电力供给决定或路径要求而发生变化。作为拓扑结构,算法生态可以被测绘,但这个测绘永远是暂时的。在民族志之后、作为对民族志的补充,测绘可以是一种受媒介考古学启发的“深层测绘”,也可能涉及“数据行走(datawalking)”和App使用的细致考察。测绘这里概述的模态可能得出一幅“i地图”(如果未来的生态演化还允许头韵存在的话)。
算法生态的概念不假设一组嵌套的、边界清晰的环境,或一个万物互联的笼统概念。这不意味着退向西弗所说的“模拟槽(analog slot)”:把“数字”和“模拟”、把机器和人对立起来。相反,它意在对被我称为算法生态的模态的那些纠缠的(不)共通性保持敏感。这样的生态是支离破碎、充满摩擦的。算法筛选、排序、通约和分类。算法也激发和煽动欲望、希望、焦虑和恐惧。但它们之所以能做到这一切,是因为它们不是孤立的行为主体。它们是生态的效应,受到英戈尔德(Tim Ingold)最近对传统生态继承概念批判的启发(“说水继承了鱼不是更有道理吗?”),这意味着我们也可以说,我们的资本(投资与利息)、线缆(基础设施)和概念(想象)生出了算法液泡,而算法液泡又起到了像分类、排序、分级、把关和评价那样的核心社会功能。算法生态的模态是部分的关联,我们不能在这些关联上假设任何可通约性。但是,如果不把算法中的投资与利息,不考虑算法借以进入表意领域的想象,没人能说自己把算法给研究透了。算法在哪里这个问题的答案一定是,它内在于一个纠缠的生态,并在那个生态的不同模态中得到表达、发挥作用。
算法生态生产出来的是偶然的结果,这些结果会受到持续的调节,因为输出会引导行动,行动反过来又会影响输入。这些偶然性会在争议中通过斗争放大。换句话说,这样的生态涉及一种本体论层面上的政治。对人类学来说,这种政治要求我们关注算法生态的存在对“构成世界的方式”来说意味着什么。是否应该存在一种使我们能够通过算法来纠正和避免偏见的“设计人类学”(design anthropology)?还是说,正在兴起的,其实是一种被国家吸纳收编的、部署算法治理的“新人类学”。如果真是这样的话,除在政治上无足轻重的田野点进行华而不实的术语创新外,我们还能做点什么?世界的构成可以通过或多或少是暴力的方式来进行,算法人类学面临着一项紧迫的挑战,即考虑它想要对权力进行哪些干预,以及它想要赋予其发明哪些权力。
(本文翻译自Willem Schinkel, “Steps to an Ecology of Algorithms”,Annual Review of Anthropology, 2023, 52: 171-86。原题为《走向一种算法生态学》。威廉·申克尔是荷兰鹿特丹伊拉斯谟大学公共管理与社会学系教授,著有《想象的社会:西欧移民融入论批判》[Imagined Societies: A Critique of Immigrant Integration in Western Europe,2017]等。译者王立秋为北京大学国际关系学院比较政治学博士,哈尔滨工程大学人文社会科学学院讲师。为方便阅读,参考文献从略。)