
人工智能会统治世界吗?科学家是否创造了能够独立思考的人工生命体?它会取代所有工作,甚至包括医生、教师和护理人员等创造性职业吗?我们是否即将进入一个计算机在所有领域都超越人类的时代?
正如《AI Con》一书的作者所强调的,答案分别是“不”、“他们希望如此”、“哈哈”和“绝对不会”。
《AI Con:如何对抗科技巨头的炒作并创造我们想要的未来》(AI Con: How to Fight the Tech Bro Science and Create the Future We Want)一书,由艾米丽·M·本德和亚历克斯·汉娜合著,博德利头版出版。
人工智能,既是一个营销术语,也是一套独特的计算架构与技术。它已然成为创业者吸引风险投资的魔法词汇,被管理者用作瞬间跻身未来领导者的咒语。仅仅两个字母,便勾勒出自动化工厂与机器人统治者的画面,这视角度而异,或是一幅闲适的乌托邦图景,亦或是一个被奴役的反乌托邦。它不仅是技术,更是对社会运作方式及未来形态的强大愿景。
从这个意义上说,人工智能无需真正有效便能产生影响。大型语言模型的准确性可能存疑,人工智能办公助手的效率可能只是宣称而非实证,但这一系列技术、公司和主张,仍可能深刻重塑新闻业、教育、医疗、服务行业以及更广泛的社会文化景观。
泡沫破裂
对于艾米丽·M·本德和亚历克斯·汉娜而言,人工智能的炒作泡沫亟需破裂。本德是华盛顿大学的语言学教授,已成为知名科技批评家。汉娜是社会学家,曾任职于谷歌,现任分布式人工智能研究学院(Distributed AI Research Institute)的研究总监。两人在热门播客《神秘人工智能炒作剧场3000》(Mystery AI Hype Theater 3000)中合作嘲讽人工智能吹捧者后,将洞见凝练成一本面向大众的书籍。他们以不可动摇的怀疑态度,对抗人工智能炒作的不可阻挡之势。

该计划的第一步是理解人工智能模型如何运作。本德尔和汉娜出色地解码了技术术语,并为普通读者揭开了机器学习的“黑箱”之谜。在《人工智能骗局》一书中,将炒作与现实、主张与操作之间的鸿沟拉开,是一个贯穿全书的主题,这一主题应逐渐动摇读者对科技行业的信任。该书揭露了强大企业为减少摩擦、积累资本而采用的战略性欺骗手段。尽管大量案例可能让人眼花缭乱,但技术胡说八道的氛围始终萦绕不去。
什么是智能?一篇著名且被广泛引用的论文由本德尔(Bender)等共同撰写,该论文指出大型语言模型本质上只是“随机鹦鹉”,它们通过训练数据预测在给定提示后最有可能出现的词汇(即单词)组合。通过爬取数百万个网站,模型可以复现“牛跳过月亮”后的“月亮”,尽管以更加复杂的变体形式呈现。大型语言模型并非真正理解概念在社会、文化和政治语境中的全部含义,而是进行模式匹配:一种思考的幻觉。
但我认为,在许多领域,思考的模拟已然足够,因为与之互动的用户会主动填补这一空白。用户通过广为人知的“伊丽莎效应”将能动性投射到模型上,从而赋予模拟以智能。管理层正将希望寄托于这种模拟。他们视自动化为精简组织、避免“被时代淘汰”的途径。这种早期采用者与灭绝恐龙的二元对立图景,在新技术出现时屡见不鲜——而这正是科技行业受益的逻辑。
从这个意义上说,质疑人工智能的“智能”是徒劳的,因为这忽视了推动这项技术发展的社会与财务投资。“从每个任务开始使用人工智能。无论任务多么微小,都先尝试使用人工智能工具,”Duolingo的首席工程官在最近致全体员工的一封信中命令道。Duolingo已加入Fiverr、Shopify、IBM等众多宣称采用“人工智能优先”策略的公司行列。

“大型语言模型进行模式匹配:一种思维的错觉。”
变形技术
当人工智能超越或绕过技术本身,关注其周围的生态系统时,其影响力最为强大。这种视角,我此前也曾论述过,具有极大的帮助。通过理解参与模型生产的企业、参与者、商业模式和利益相关者,我们可以评估其来源、目的、优缺点,以及这些因素可能对未来应用和影响产生的深远意义。“谁从这项技术中获益,谁受到伤害,他们有哪些救济途径?”是本德和汉娜建议的扎实起点。
这些基本但重要的问题使我们摆脱了技术争论的细节——人工智能如何运作、其准确性或“良好性”如何、非工程师如何理解这种复杂性——并赋予我们批判性视角。它们将解释的责任转移到行业身上,而非要求用户适应或被淘汰。
我们无需理解“反向传播”或“扩散”等技术概念,就能意识到人工智能技术可能破坏公平工作、强化种族和性别刻板印象、加剧环境危机。人工智能的炒作旨在转移我们对这些具体影响的注意力,将其轻描淡写,从而鼓励我们忽视这些问题。

艾米丽·M·本德。华盛顿大学
正如本德和汉娜所解释的,人工智能的拥护者和反对者其实是同一枚硬币的两面。无论是描绘自我复制的人工智能终结人类的噩梦场景,还是宣称有意识的机器将引领我们进入后人类天堂,最终都是同一回事。他们对技术能力的宗教式信仰主导了舆论,使科技公司得以继续掌控人工智能的未来发展。
人工智能的风险并非未来可能带来的末日灾难,比如冷战时期的核威胁,而是当下对真实人类造成的悄无声息却更为深远的伤害。作者解释说,人工智能更像是一个“全景监狱”,“允许一名监狱长同时监视数百名囚犯”,或是“西方社会用于追踪边缘群体的监控网络”,或是“超级基金网站上毒害土地的有害废物”, 或是“在雇主指示下跨越罢工纠察线的替工,向罢工者传递‘你们可有可无’的信号。被冠以人工智能之名的系统本质上就是这些要素的集合体。”
十年前,另一项“颠覆性”技术出现时,作者伊恩·博戈斯特曾观察到:“我们通常不会迎来乌托邦或反乌托邦,而是某种更平淡却更令人失望的现实。机器人既不侍奉人类主人,也不在戏剧性的种族灭绝中毁灭我们,而是缓慢地瓦解我们的生计,同时保留我们的生命。”
模式正在重复。随着人工智能(在一定程度上)成熟并被组织采用,它从创新转变为基础设施,从魔法转变为机制。宏伟的承诺从未实现。相反,社会承受着更加严酷、更加黯淡的未来。工人承受更大压力;监控成为常态;真相被后真相模糊;边缘群体愈发脆弱;地球愈发炎热。从这个意义上说,技术是变形者:外在形态不断变化,内在逻辑却始终如一。它剥削劳动力与自然,提取价值,集中财富,并维护既得利益者的权力与地位。
收编批判
在《资本主义的新精神》一书中,社会学家卢克·博尔坦斯基和埃夫·恰佩洛展示了资本主义如何随着时间的推移而变异,将批判重新融入其基因。在经历了20世纪60年代围绕异化和自动化的系列冲击后,资本主义从等级制的福特主义生产模式转向了更灵活的自我管理模式。它开始青睐“准时制”生产,由小型团队完成,表面上强调每个个体的创造力和智慧。新自由主义提供了“自由”,但代价高昂。组织适应了变化;让步被做出;批判被中和。

人工智能延续了这种收编模式。事实上,当前时刻可被视为批判性人工智能第一波浪潮的终结。过去五年间,科技巨头相继推出规模更大、更“先进”的模型,公众与学者主要聚焦于生成式和“基础”模型:ChatGPT、StableDiffusion、Midjourney、Gemini、DeepSeek等。
学者们对这些模型提出了严厉批评——我的研究就探讨了“真理主张”、生成性仇恨、伦理洗白等问题。大量研究聚焦于偏见:训练数据如何再现性别刻板印象、种族不平等、宗教偏见、西方认识论等。这些研究大多优秀且似乎已进入公众意识,这从我参加的研讨会和活动中的讨论可见一斑。然而,这些问题被指出后,科技公司得以进行“问题解决”实践。如果人脸识别系统的准确率在黑人面孔上较低,就向训练集添加更多黑人面孔。如果模型被指控存在英语主导问题,就拨款生产“低资源”语言的数据。
如今,像Anthropic这样的公司会定期开展“红队测试”(red teaming)练习,旨在揭示模型中的隐性偏见。公司随后会“修复”或缓解这些问题。但由于数据集规模庞大,这些解决方案往往只是治标不治本的权宜之计,而非结构性调整。例如,人工智能图像生成器在推出后不久就因“不够多样化”而受到压力。作为回应,OpenAI发明了一种技术来“更准确地反映世界人口的多样性”。研究人员发现,这种技术只是在用户提示中添加了额外的隐藏提示(例如“亚洲人”、“黑人”)。谷歌的Gemini模型似乎也采用了这种方法,结果在生成维京人或纳粹形象时出现了南亚或美洲原住民特征,引发了强烈反对。
关键不在于人工智能模型是否带有种族主义、历史不准确或“政治正确”,而是模型本身具有政治性且从未超然物外。关于“文化如何被计算化”或“作为社会我们希望追求何种真理”等更深层问题,从未被系统性探讨。这类问题无疑比偏见更广泛、更不具针对性,但也更难转化为程序员可解决的技术问题。

亚历克斯·汉娜。
接下来该怎么办?
那么,学术界以外的人应该如何回应人工智能?过去几年中,各种研讨会、研讨会和专业发展计划层出不穷。这些活动范围广泛,从为职场展示人工智能功能的“哇哦”式导览,到对风险和伦理的严肃讨论,再到仓促组织的全体会议,讨论如何应对当前问题,以及下个月和下下个月该如何应对。
本德和汉娜在书中以自己的回应收尾。其中许多问题,如他们对模型运作方式及受益者的质疑,虽简单却根本,为组织层面的参与提供了有力起点。对于这对技术怀疑论者而言,拒绝也是一个明确的选项,尽管个人在选择退出模型或抵制采用策略时,显然会面临截然不同的自主程度。与许多前辈技术一样,拒绝人工智能在一定程度上依赖于特权。年薪六位数的顾问或程序员拥有自由裁量权,而零工或服务行业工人则无法在不面临处罚的情况下行使这种权利。
如果拒绝在个体层面充满挑战,那么在文化层面似乎更具可行性和可持续性。本德和汉娜建议以嘲讽回应生成式人工智能:使用它的公司应被嘲笑为廉价或俗气。
针对人工智能的文化反扑已全面展开。YouTube上的配乐越来越多地标注为“No AI”。艺术家们发起了活动和标签,强调他们的作品是“100%人类创作”。这些举措旨在建立一种文化共识,即人工智能生成的内容是衍生品且具有剥削性。然而,尽管这些举措带来了一些希望,但它们正逆流而上,对抗着“垃圾化”的迅猛潮流。人工智能垃圾意味着更快速、更廉价的内容创作,而在线平台的技术和财务逻辑——病毒式传播、用户参与度、货币化——将永远催生一场向下竞争的赛跑。
大型科技公司所描绘的愿景将被接受到何种程度,人工智能技术将被整合或强制到何种程度,个人和社区将如何抵制这些技术——这些问题仍然开放。在许多方面,本德和汉娜成功地证明了人工智能是一个骗局。它在生产力和智能方面都失败了,而炒作则掩盖了一系列损害工人、加剧不平等和破坏环境的转变。
然而,此类后果伴随了此前技术的发展——化石燃料、私家车、工厂自动化——却并未阻碍它们的普及与社会转型。因此,尽管赞誉归于本德和汉娜撰写了揭露“如何对抗大型科技公司炒作并塑造我们想要的未来”的著作,但人工智能议题在我看来,与卡尔·马克思的观察如出一辙:人们“创造自己的历史,但他们并非随心所欲地创造”。