在人工智能(AI)和人工通用智能(AGI)的热烈讨论中,人文学者、社会学家和艺术家的观点与技术专家和宣传者的看法存在显著差异。总体来看,人文社会科学领域的研究者和艺术界的想象往往未能深入探讨AGI的技术细节,而是依赖于媒体宣传和普及读物来构建对AGI的理解。从历史的角度来看,人文社会科学对AGI的态度经历了显著的转变。最初,人文话语中对AI、AGI和超级AI数字生命等议题充满了质疑,例如德雷福斯(H. Dreyfus)基于具身性理论,断言AI无法达到人类的通用智能水平。然而,近十年来,人文社会科学界逐渐成为AGI的坚定支持者。与技术宣传相比,当代人文话语对AGI的态度更为激进、更具科幻色彩,将AGI视为现实存在,并将AI与AGI混为一谈,认为AGI的实现乃至超级AI数字生命的到来和数字生命永生都是不可避免的。在这种默认理解下,人文学者、社会学家和艺术家展开了对AI/AGI的研究和创作,形成了具有鲜明特色的“AGI学术”和“AGI艺术”。
尽管存在一些未来主义者为AI宣传助威,甚至有些人欢迎硅基生命取代碳基生命,但大多数人文学者和社会学者仍然保持着批判性思维的传统,将AGI视为一种“批判法”。换言之,他们在探讨AI相关问题时,往往以成熟的AGI或超级AI数字生命为出发点,预测智能社会的各种风险和负面效应,而忽视了AI发展的现实状况。有学者指出,尽管过去十年间关于AGI风险的文献数量大幅增加,但经过同行评议的论文却相对有限,缺乏具体的、可见的风险研究。
与AGI宣传的乐观主义情绪形成鲜明对比的是,AGI人文话语对智能革命和人类社会的未来充满了担忧,带有浓厚的悲观主义和技术决定论色彩。在AGI人文话语中,“AI亢奋”与“AI恐惧”并存。前者指的是人们对AI技术突破速度的夸大,情绪化地认为根本性突破已经发生,强AI、AI奇点即将到来,数字生命很快会产生,并迅速迭代为超级AI数字生命。后者指的是人们对GAI等AI技术进展的焦虑,对想象中的AGI、强AI、超级AI数字生命感到恐惧,认为AI的加速进化很快会主宰地球,对人类构成威胁,甚至结束人类世。显然,AI亢奋是AI恐惧的基础,因为对AI技术愿景的预测越激进,对AI威胁人类的感觉就越强烈。因此,AGI人文话语被认为是批判法,很大程度上是因为AGI可能导致的巨大风险在现实中不大可能出现。然而,某些AI恐惧并非完全无根据。例如,ChatGPT、Sora等GAI工具功能强大,正在替代越来越多的就业岗位,引发了关于GAI导致失业的“AI恐惧”。同样,许多人担忧“中国AI发展落后”“中美AI技术差距拉大”,这种AI落后恐惧与全球新科技竞争的态势有关。但AGI批判法的重点不仅在于AI风险很大,而是强调AGI可能导致生存性风险,即它可能摧毁人类文明发展的潜力,或者灭绝人类,或者使人类文明不可恢复地崩溃或衰败。换句话说,AGI人文话语常常警告说:AGI一旦出现,人类很可能无法控制它,因此我们只有一次机会确保AGI的设计、实施和运行被适当地处理好。
然而,在另一些人文学者看来,AI失控导致的生存性风险并非最危险的事情。鉴于新科技的破坏力惊人,甚至可以毁灭整个人类文明,21世纪以来涌现出许多思考:当下的文明是否存在全局性崩溃甚至灭绝的生存性风险,使得人类社会如跌下悬崖一般突然陷入黑暗甚至永夜之中?这便是近年来尤其是全球新冠疫情爆发之后,全球广为讨论的“文明危崖问题”,得名于澳大利亚哲学家奥德(T. Ord)的同名著作。AGI的进化至少有两个问题直接与“文明危崖”相关:其一,AGI特别是超级AI数字生命会不会从总体上威胁人类文明?其二,对于全局性生存性风险的应对,AGI究竟是能够有所助益,还是只能加剧潜在的威胁?不过,类似的问题虽然非常“吸睛”,同样关心文明危崖的严肃思想家如拉图尔等人却对之并不十分关注,或者说在他们看来,“文明的AI危崖”远不及气候变化、核战争和新发未知病毒等所带来的威胁。
进一步而言,在“AI觉醒”“AI亢奋/恐惧”以及“文明危崖”的话语背后,我们可以隐约感到某种泛灵论氛围在AI时代的兴起。“GAI能力媲美人类”“强AI有意识”“超级AI数字生命统治人类”“人类可以在数字中永生”之类的想法,是古老的万物有灵论的新翻版。无论是虚拟人还是机器人,被想象为非常像人的“非人”让人恐惧害怕,这和鬼神精灵让人害怕类似,都是泛灵论观念触发的复杂情绪反应。“恐怖谷效应”便是AI泛灵论恐惧的很好例子。在智能社会中,物和环境普遍具备某种程度的智能和自主性,很容易引发人的泛灵联想。对此,米切尔评论道:“奇怪的是,对于嵌入智能、感官意识、敏感物体和空间这些概念,竟有一个古老的先例。古罗马人认为,每一个特定的地方都有其特有的精神,那就是它的地方守护神(genius loci)。”因此,从意识形态角度看,智能社会蓝图中蕴含的强烈的泛灵论气质,类似于古罗马万物有灵的观念将在智能泛在的社会中复活。
作为批判法,AGI人文话语以愿景预测为基础,以某种极端情形为背景反思AGI可能导致的技术风险和社会风险。在现实中,AGI远未成形,对它的人文批判存在夸大风险的可能。但是,鉴于新科技在20世纪下半叶以来表现出的巨大破坏力,尤其是少数人甚至单个人均可能借助AGI实施危害巨大的行为,对AGI风险进行全面而细致的分析并非多此一举,而是未雨绸缪的万全态度,目的是尽早准备和部署应对。基于AGI未来发展愿景基础上的预测是研究AGI之社会冲击的重要方法。这种预测会随着AGI现实发展而得到不断调整,引导AGI技术发展朝正确的方向前进。因此,我们应该把AGI现实社会影响的解读与愿景预测结合起来,在两者的张力中寻找恰当的应对策略。并且,AGI社会冲击预测本身亦将对AGI实际发展进程和方向产生重要的影响,比如对某个问题预计的负面评价将或多或少影响AGI在这个方面的发展。因此,尽管对AGI社会冲击的批判很多会在将来被事实证明是错误的,但这种预测仍然是必须的、有重要价值的,是防范AGI风险的基本依据。