|
不是末日论者、悲观论者,也不是乐观论者—— |
面对AI前景,他将自己归入繁荣论者 |
|

《AI赋能》,[美]里德·霍夫曼、格雷格·贝亚托著,陆坚译,浙江教育出版社2025年5月出版,定价:109.9元
■段伟文
AI(人工智能)时代,有一众科技大咖亲自下场写书,表达他们对未来的前瞻性思考。领英联合创始人、前执行主席里德·霍夫曼领衔的新作《AI赋能》便是一例,该书颇具可读性,在亚马逊上的读者评分是4.7分,或许与其作者集互联网企业家、风险投资家、播客主持人和作家于一身有关。
有读者评论,该书提供了一幅路线图,即以包容、适应的方式,运用AI改善我们的生活。在美国《纽约时报》2025年2月非小说类畅销书排行榜上,该书位列第9。短短3个月,中文版也迅速面世。
把AI比作农业的繁荣论者
作者霍夫曼既是商界和科技界的意见领袖,在政界也颇具影响力。他主持的商业和金融播客“规模大师” 自2017年开播以来,采访了诸多商界及政界领袖。2023年,他与其幕僚长艾莉亚·芬格共同主持的播客“可能”开播,该播客旨在“勾勒出未来最光明的景象以及实现这一目标所需的条件”。
《AI赋能》是霍夫曼出版的第二本关于AI的畅销书。早在2023年3月,当时ChatGPT大火,霍夫曼就出版了《即兴发挥:通过人工智能放大人性》一书,并声称撰写该书时使用了大型语言模型GPT-4。次月,该书就登上了美国《华尔街日报》畅销书榜。
新出版的《AI赋能》体现了霍夫曼对AI发展及其社会影响的长期关注,包括“前言”“后记”及10章正文。从阅读策略上讲,读者可以先看“前言”的最后和“后记”的开头,这样就能大致把握全书的论述脉络。
“前言”的最后一段话体现了作者写这本书的宗旨和野心,他想通过这本书论述技术终将带来人类繁荣。原文是这么说的:“那些起初看似有明显缺陷,甚至被认为非人性化的技术,最终往往会被证明对人类大有裨益。”
“后记”的开头总结了该书阐述的4个核心原则,相当于全书的结论。可能是受此影响,中文版颇为“机智”地将1到10章的标题演绎为人工智能时代生存与发展的10大原则,这或许对中国的业界人士和一般读者更有吸引力。
再回头看第1章,可以从中找到全书的历史起点、问题实质、未来趋势和基本立场。不难发现,第1章的4节内容恰好分别对应着这些方面:“起点”将至,大模型崛起将引发巨变;大多数人对AI的担忧,其实是对人类能动性的担忧;全速前进,合成智能将让我们再次实现指数级飞跃;是服务、合作于人的AI,而非凌驾于人的AI。
在如何看待AI前景这一问题上,霍夫曼将自己归入繁荣论者,这使其立场有别于常见的末日论者、悲观论者和乐观论者。在他看来,虽然繁荣论者与乐观论者类似,认为AI能够在多个领域加速人类进步,但与以Z世代为代表的乐观论者不同的是,繁荣论者强调像AI这样具有变革性和多样性的技术不能也不应该单边开发和部署,而应在实际使用中不断优化AI系统,让具有不同背景、价值观和意图的用户共同参与,从而推动技术的安全性、公平性与实用性。他们不完全反对政府监管,但也认为快速有效发展的关键在于开放、多样化的实践。
相较于悲观论者将AI视为剥削性产业,繁荣论者更倾向于把AI比作农业——在种植、观察、适应中不断学习,通过反馈持续改进。这一过程虽非零风险,但通过经验积累和技术优化,最终能带来丰硕成果。
过于理想化的“合成智能”和“大知识”
本书有两个概念值得关注,即“合成智能”和“大知识”。
先谈合成智能。在作者看来,几个世纪以来,合成能源和工业化一直是极具人性化的力量,它们为人们走向更丰富多样和更有尊严且人性化的生活开辟了道路。
而当前AI的实质是一种人工合成的智能,其历史意义与驱动工业化的合成能源类似。“无论哪种方式,AI都在增强你的能动性,因为它在帮助你采取旨在实现你期望结果的行动。而且无论哪种方式,都有新的变革正在发生。有史以来第一次,合成智能(不仅仅是知识)变得像自18世纪蒸汽动力兴起以来的合成能源一样可灵活部署。现在,智慧本身也成了一种工具,一种可扩展、可配置、可自我增强的进步引擎。”“正如工业革命为人们创造了新的合作机会,并激发了人们在创新和生产力等方面的新潜能,AI导致的认知革命也将带来同样的变化……最终,合成智能可以像能源一样扩展人类的潜力,激发人类的能动性。这是一条让人类走向更充实、更人性化生活的道路。”
从这两段引文可见,作者的基本论述逻辑似乎是“无论过程如何,最终结果是好的”。但作为互联网和AI技术创新的亲历者,他应该了解网络沉迷、算法滥用的危害,也应该知道人们在这些颠覆性技术演进过程中可能付出的代价。
不过,第6章中,作者在回顾20世纪90年代以来网络和数字技术创新历史的基础上仍提出“创新是安全的”这一论点。对此,AI治理、AI伦理等方面的研究者可能很难认同。
书中还直白地提出,互联网和数字技术等高科技在过去30年间之所以成为美国最具活力的行业,在某种程度上得益于一种刻意的制度设计,即“无许可创新”为其创造的有利于创新的政策环境。亲历过中国互联网创新发展历程的人们也应有类似的经验。
更让AI治理、AI伦理研究者不适的是,作者还进一步论证了科技伦理和治理的“常规武器”预防性原则的不足,并指出“迭代部署”可能是更好的方法。
美国未来生命研究所等呼吁,在无法确定可能产生的负面影响之前,全面暂停AI大模型。针对这一呼吁,作者指出“这种做法不仅是缺乏实证基础的预测性执法,更是无实证的预测性量刑”。然后,板子直接打在了预防性原则身上:20世纪70年代预防性原则的产生源于数据的匮乏。
再谈“大知识”这一概念。作者提出该术语,意在回应并消解英国作家奥威尔笔下“老大哥”所代表的经典信息技术反乌托邦图景。回顾20世纪60年代美国提出建立国家数据中心的构想,正是因为被视作“老大哥”的雏形而最终遭到搁置。而如今,在AI迅猛发展的推动下,建设大型数据中心已成为时代潮流。在这一背景下,作者试图将“老大哥”转化为“大知识”,即通过技术治理和认知方式的转变,将对个人的监控图景转向海量普惠知识资源的共享与利用。
如何实现这一转化?除了人们常说的引入对AI系统的信任机制之外,作者还耐人寻味地指出:当年对联邦数据中心的抵制,削弱了公共数据资源更早地用于科研和政策制定的潜在益处;而当今人类的信息产出已远超自身的有效处理能力,甚至可以说,我们已经不知道我们知道什么。
因此,作者强调,我们该及早地认识到,越多地拥抱AI,就越能有效地利用我们所产生的数据和信息,从而在几乎所有的领域增强我们的能动性。一旦认清了这一趋势,就能在认知上实现从“老大哥”到“大知识”的格式塔转换,“我们可以将‘大数据’转化为‘大知识’,从而开启数据驱动的‘新光明时代’”。
为了打消人们对“老大哥”的疑虑,作者提出:“这是一个迈向更加多元和包容世界的起点。‘老大哥’,或者更确切地说是‘大企业’,与其说是在监控你,不如说是让你感到被关注。商业机构凭借对人们购买、消费信息和生活方式更深入的了解,更有效地为人们服务。”但这一观点是不是过于理想了?
AI赋能人类,还是人类沦为智能生态系统的“盲肠”?
还有两点值得关注,一是书中有些论述似乎不太流畅,二是有些内容从技术哲学角度可以作更深入的探讨。
如第6章中作者指出:“如今,得益于互联网的普及和参与度的提升,无许可创新的监管作用愈发强大。在21世纪,倡导在新的科技领域无须官方预先批准即可自由进行公开实验和反复尝试,并非逃避审查和民主式监督,而是主动拥抱。这种做法带来了更全面、更包容的反馈,缩短了产品周期,加速了产品改进,通常也会使产品更加安全可靠。”
问题是,人们在什么条件下才能接受这种主要靠创新者自觉向善的治理方式?它如何激励企业在创新应用中真正担负起防范风险的责任?怎样令可能的伤害等负面影响最小化?谁来对此作出评判?
又如书中第9章第1节“技术不断塑造着我们对自由的认知”,这一话题有待进一步挖掘。
其中谈到,AI会影响自由的概念,其巨大的并行处理能力可以释放我们的能力,让我们能够摆脱自身迟缓的神经结构的束缚,解决复杂问题。但就像汽车一样,AI可能会激发新的监管形式——不仅是对AI的监管,还包括对我们使用方式的监管。事实上,它甚至可能需要新的监管,才能让我们生活在一个与AI共存的世界中。
由此不难联想到,当前各国正在研究拟定新的政策法规,以应对AI对责任分配和知识产权的冲击。其中包括如何发展负责任的AI,消除导致问责困难的各种责任鸿沟。在理想状态下,若所有利益相关方都信任并拥抱AI,可能会出现主动分担风险责任的“背锅侠”。而实际上,医疗AI领域的一些使用者与部署者常通过合同约定分担主要的风险责任。这如同“安全气囊”,在客观上为开发者提供了“道德缓冲区”。这无疑是进行AI监管和治理创新时所应考虑的。
但真正的问题是,如果AI不仅像万有引力决定宇宙时空的弯曲程度那样成为框定人类自由的技术现实,还会进一步成为真正具有判断力的最终价值裁决者,AI未来所体现的还会是人的能动性的增强吗?人类会不会因其能动性相对于AI的差距越来越大,而沦为未来总体智能生态系统中的“盲肠”?
另外,有意思的是,在涉及相冲突的观点时,书中往往会用比较委婉的方式表达,如“并非说A观点不再适用,但B观点也有道理”等。再结合书中对一些对立观点的表达,加上作者有通过跟AI的多轮对话辅助写作的经验,似乎可以得出一个不完全是开玩笑的结论:这些论述风格和论证策略是否受到了大模型语言风格的影响或启发?
如果有这种可能性,那这一表达方式背后所蕴藏的或许就是大模型比人更有说服力的奥秘。而这一貌似有理却多少有些瞒天过海的表达,或许就是包括人类和AI在内的一般智能体的高级智能交互能力的基本特征。
(作者系中国社会科学院人工智能研究促进中心研究员)
《中国科学报》 (2025-06-20 第3版 读书)