Limits of trust in medical AI


TL;DR

本文论证了医疗人工智能(AI)系统仅能被依赖(be relied upon),而不能被信任(be trusted),因为真正的信任需要善意、动机和道德责任等人类特有的能动性(agency)要素,而AI的广泛应用可能通过取代人类医生的认知权威,导致医疗实践中人际信任关系的缺失。

关键定义

本文的核心论证建立在对几个关键概念的区分和界定之上:

相关工作

本文旨在解决医疗AI发展中一个深刻的伦理问题:AI对医患信任关系的影响。

当前,人工智能,特别是深度学习技术,在医学诊断、预后和治疗选择等多个领域取得了显著进展,其表现在某些方面已经能与人类临床医生相媲美。这一趋势引发了关于AI在未来医疗实践中角色的讨论,形成了两种主要观点:

  1. 替代主义 (Substitutionism):认为AI最终将因其卓越性能而完全取代医生。
  2. 扩展主义 (Extensionism):认为AI将作为工具,扩展和增强医生的能力,但无法替代医生,因为医疗需要共情等AI不具备的人类特质。

尽管存在分歧,但两种观点都承认AI将对医疗实践产生颠覆性影响,并可能在关键临床任务中取代(displace)人类医生的角色。如果AI在性能上超越医生,医生将有认知上的义务去遵从AI的判断。这不仅是为了降低人为错误和医疗浪费,也是实现AI价值的关键。

本文的核心问题是:当医生在决策中必须让位于AI,从而使患者的依赖对象从医生转向AI系统时,这种认知权威的转移会对医患之间的信任关系造成何种影响?

本文方法

本文通过哲学思辨和概念分析,论证了AI系统不能成为真正“信任”的对象,其创新之处在于清晰地将“信任”与“依赖”进行了剥离,并指出了信任关系中不可或缺的人类能动性要素。

信任不仅仅是依赖

本文首先通过两个对比场景阐明了信任与依赖的区别:

  1. 依赖场景:一个小偷依赖一位富裕的房主按时出门,以便他实施盗窃。
  2. 信任场景:一位长期病患信任他的主治医生能帮助他缓解痛苦。

在这两个场景中,小偷和病人都对目标的行为有可靠的预期,但我们直观地认为只有后者才构成“信任”。本文认为,这种区别源于信任关系中存在的、而依赖关系中所缺乏的两个关键要素:正确的动机规范性义务

AI缺乏信任所需的“动机”

真正的信任关系包含对被信任方动机的信念。

因此,由于缺乏任何形式的动机——无论是封装的利益还是善意——AI系统无法成为这种丰富人际信任关系的对象。

AI无法承担信任所产生的“规范性义务”

信任与依赖的另一个区别在于,信任会产生规范性期望 (normative expectations) 和道德义务。当患者信任医生时,医生就承担了必须尽力履行其职责的道德责任。

综上所述,由于AI系统缺乏能动性 (agency),它既无法提供信任所需的动机基础,也无法承担信任关系所固有的道德责任。因此,说“信任”一个AI,在哲学意义上是不准确的,这实际上是把“依赖其可靠性”与真正的“人际信任”相混淆。

实验结论

本文是一篇哲学论证性质的文章,没有进行经验性实验,其结论是基于严密的逻辑推导得出的。