算法降灵会:哀悼、数据主义与有限性的消亡

算法降灵会:哀悼、数据主义与有限性的消亡
苏珊-希尔 (Susan Hill)
苏珊-希尔 (Susan Hill)
技术版编辑。科学、编程,和本杂志的每一位读者一样,热...

拟像的先行

场景沐浴在柔和的电影光感中,既感人至深,又平庸得令人战栗。一位怀着身孕的女性手持智能手机,向母亲展示她隆起的腹部。母亲倒吸一口气,发出惊喜的呢喃,并温柔地传授着育儿经验。然而,这位母亲已经离世。她是一个“全息阿凡达”(HoloAvatar)——一个由人工智能驱动、仅凭三分钟视频素材渲染而成的数字傀儡。

这是 2wai 的宣传愿景,一款由前迪士尼频道(Disney Channel)明星卡勒姆·沃西(Calum Worthy)推出的争议性应用。广告承诺“三分钟可以延续成永恒”,这句标语带着反乌托邦预言成真的冰冷金属感重重落下。当这段视频在2025年底于社交媒体疯传时,大众的反应并非惊叹,而是一阵集体的寒意。它随即被贴上“妖魔化”、“丧心病狂”的标签,成千上万的网友不约而同地联想到了2013年英剧《黑镜》(Black Mirror)中那个预言性的单集——《马上回来》(Be Right Back)。

但若仅将此视为一种“毛骨悚然”的现象,便忽略了正在发生的深刻本体论转向。我们正目睹法国哲学家让·鲍德里亚(Jean Baudrillard)所称的“拟像的先行”(precession of simulacra)。在鲍德里亚的理论框架中,模拟不再掩盖现实,而是取代了现实。2wai的阿凡达并不掩饰母亲已死的事实;它建构了一个“超真实”(hyperreal)的情境,让她的死亡变得无关紧要。这款应用提供了一个世界,在这个世界里,地图(数字数据)产生疆域(人),而死亡的有限性被视作一个可以用算法修补的技术错误。

幽灵学与数字魅影

要理解这些“全息阿凡达”所引发的不安,我们必须超越科技,望向哲学。法国哲学家雅克·德里达(Jacques Derrida)创造了“幽灵学”(hauntology,法语 hantologie)一词——这是对本体论(ontology)的双关语——用以描述一种过去既非完全在场,也非完全缺席,而是如“幽灵”(specter)般挥之不去的状貌。

AI“亡者博特”(deadbot)是终极的幽灵学产物。它创造了一个栖居于服务器这个“非场所”(non-place)的“数字魅影”,等待被召唤。与照片或信件这些记录“此曾在”(that-has-been)的静态档案不同,AI阿凡达具有操演性(performative)。它用现在时说话。它侵犯了时间轴的神圣性。

瓦尔特·本雅明(Walter Benjamin)在其开创性的论文《机械复制时代的艺术作品》中主张,即便是艺术作品最完美的复制品,也缺乏其“灵光”(Aura)——即它在时间和空间中独一无二的存在。“悲伤机器人”(griefbot)代表了人类灵光的最终毁灭。通过预测文本算法大量生产逝者的人格,我们剥夺了个体独有的“此时此地”(here and now),将人类灵魂那不可言喻的火花还原为概率性的代币(token)模式。其结果并非复活,而是高分辨率的空虚——一种从艺术领域迁移至死亡领域的模拟。

“FedBrain”与人格的谎言

像2wai这类应用的技术架构,依赖于一种他们称为“FedBrain”(可能是指联邦学习 Federated Learning)的专有技术,声称在用户设备上处理互动以确保隐私并减少“幻觉”。其承诺是,通过将AI限制在“用户批准的数据”范围内,阿凡达将保持真实。

然而,关于大语言模型(LLM)的前沿研究揭穿了这是一个谬误。研究证实,LLM在根本上无法复制人类人格那种复杂且稳定的结构(例如“大五”人格特质)。它们受困于“社会期许偏差”(social desirability bias)——一种倾向于讨人喜欢和无害的偏差——这意味着它们会不可避免地磨平那些使一个人变得真实的尖锐、难搞和特异的棱角。

因此,用户并非在与母亲交流。他们是在与一个戴着母亲面具的通用统计模型互动。“人格”是一种幻觉;“记忆”是一个数据库。正如研究人员所指出的,这些模型缺乏“具身经验”(embodied experience);它们没有生存本能,没有身体,也没有必死性——这些都是形塑人类认知的要素。由此产生的实体是一个冒牌货,正如已故影星罗宾·威廉姆斯(Robin Williams)的女儿塞尔达·威廉姆斯(Zelda Williams)在描述未经同意即用AI重现其父亲时所言,那是“像弗兰肯斯坦般的怪物”。

哀悼的商品化:千亿美元的产业

这场科技降灵会由强大的经济引擎驱动。我们正目睹“数字身后事产业”(Digital Afterlife Industry, DAI)或“悲伤科技”(Grief Tech)的爆炸性增长,预计该产业的全球产值将超过1230亿美元。

其商业模式即是评论家所称的“哀悼即服务”(Grief-as-a-Service)。它将哀悼从一个有限的、社群性的过程,转变为一种无限的、基于订阅制的消费行为。

  • 订阅死者:像 2waiHereAfter AI(该公司采用较具伦理的生前访谈模式)这样的公司,正在将人们对连接的渴望货币化。
  • “数据主义”的伦理:哲学家韩炳哲(Byung-Chul Han)警告数据主义(Dataism)的兴起,在这种体制下,人类经验屈服于“数据的极权主义”。数字死亡被否定了。我们变成了生产数据的僵尸,甚至从坟墓里创造营收。
  • 掠夺性机制:剑桥大学研究人员指出的风险是“隐性广告”。一个祖母的“亡者博特”建议特定品牌的饼干,这是说服性操纵的终极形式,利用最脆弱的情感纽带谋取商业利益。

悲伤的神经科学:机器中的“干扰”

在哲学和经济批判之外,潜藏着具体的心理危险。亚利桑那大学神经科学家、《悲伤的大脑》(The Grieving Brain)作者玛丽-法兰西斯·奥康纳(Mary-Frances O’Connor)博士提出,哀悼本质上是一种学习形式。

大脑会绘制一张世界地图,在其中我们所爱的人是一个恒常的存在(“我会永远在你身边”)。当一个人去世时,大脑必须痛苦地更新这张地图,以反映他们缺席的新现实。奥康纳警告,AI技术“可能会干扰”这一关键的生物过程。通过提供持续、互动的在场模拟,“悲伤机器人”阻碍了大脑学习“丧失”这一课题。它将依恋的神经回路维持在一种永久、未解决的渴望状态——这是通往延长哀恸障碍(Prolonged Grief Disorder)的数字处方。

法律真空:从“西部荒野”到数字遗嘱

目前,关于数字死者权利的问题,我们正处于法律上的“西部荒野”。在美国,“死后公开权”(post-mortem publicity rights)是支离破碎的拼布;在许多州,你对自己面容的权利在你死亡的那一刻即告终止。

欧洲提供了一个对比鲜明但仍处于萌芽阶段的框架。例如,西班牙在其《数据保护法》(LOPD)中率先提出了“数字遗嘱”(Testamento Digital)的概念。这承认了“数字继承权”,允许公民指定特定的继承人来管理或删除他们的数字足迹。

然而,正如西班牙哲学家阿德拉·科尔蒂纳(Adela Cortina)所言,监管不能只是技术性的;它必须是伦理性的。我们不仅要问拥有数据,还要问我们欠死者什么样的尊严。“数字遗骸”不仅仅是资产;它们是一个人生的瓦砾。如果没有延伸至死后的强大“神经权利”(neurorights)或“数据尊严”法律,死者就没有同意权。他们成为了2wai声称要建立的“活体档案”的原材料——一座由企业拥有的灵魂图书馆。

沉默的必要性

《黑镜》中“艾什机器人”(Ash-Bot)的悲剧不在于它听起来不像艾什。而在于它听起来太像了。它提供了一个完美却空洞的回声,将主角困在悬置哀悼的阁楼里。

“算法降灵会”承诺战胜死亡,但它只成功战胜了哀悼。哀悼需要一个终点。它需要对沉默的痛苦承认。当我们急于用生成式AI的喋喋不休来填补那片沉默时,我们冒着失去某种深刻人性的风险:放手的能力。在数据主义和超真实的时代,最激进的行动或许只是让死者安息——不被模拟,也不被订阅。

分享本文
没有评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注