人工智能与事业前途顾虑
二十一世纪被誉为人工智能的黄金时代。海量的创新方法、突破性发现、层出不穷的新应用使我们目不暇接。
多少传统的商业模式、社交行为、资讯的获取方式乃至社会的方方面面都正面临革命性的改变,其中又以医疗领域尤其值得注意。
从家庭医生的日常看诊、专科医生的病情分析,到研究人员的药物研发,人工智能似乎都可以胜任有余。机器学习先驱、图灵奖得主辛顿(Geoffrey Hinton)指出:「现在已没有必要再培训放射科医生了。清晰可见的是,5年之内,深度学习将比他们做得更好。」正是对此一崭新发展的有力注脚。
然而,维珍尼亚大学和纽约大学的研究人员实地考察了人工智能在美国医院放射科的应用,在2022年发表的相关结果【注】显示,在肺癌、乳癌以及骨骼年龄判断3个实验组别中,人工智能所提供的诊断资讯仅在诊治肺癌一组常获放射科医生接纳,其余两组则未获青睐。这种情况或可简单地理解为医疗设备不够匹配、医生医术未精等因素所致;但根据大量管理学、心理学研究文献,即使人工智能诊断比医生准确,医生仍对它有所保留。这种现象被称为「人工智能厌恶」(AI aversion)或「演算法厌恶」(algorithm aversion)。
我们如何能由经济学的角度来理解「人工智能厌恶」现象?我们可否从中获得一些启示,找到方法来减低医生及其他决策者对人工智能的抗拒情绪?
诺贝尔经济学奖得主霍姆斯特伦(Bengt HolmstrÖm)所提出的「事业前途顾虑」(career concerns),可说为上述问题提供了解答的钥匙。一般来说,此概念指的是当个人能力难以直接观测时,希望通过特殊表现来印证一己能力的动机。假设某公司有两类雇员,一类能力高,一类则能力低,而能力高低只能从他们的工作表现、自信程度推测。一般来说,高能力的指标为工作表现佳、具自信心;低能力则与工作表现差、对上司唯唯诺诺挂钩。为求标榜自我能力,员工于是竭力提升个人工作表现,并且不轻易改变所作决策,以突显自信,甚至显得过度自信。
这样的行为往往坏事,让自己和周围的人都背负过多的成本压力。校内学生为了展现自己有天赋,期望在考试中拔得头筹,就得苦心钻研试题。无奈第一名只有一个,最终的结果自然是激烈的考试竞争与时间浪费:学生的精力没有用于增长知识,而是花在追求一两分造成的名次差异;更牺牲了身心健康。至于在政坛上,政客为了展现自己高瞻远瞩,纵然可能自知有误,却不惜一错到底,连累市民平白受苦。又如上述放射科医生的例子,为了在人工智能面前不甘示弱,医生就可能我行我素,而摒弃人工智能的建议。有时难免令病人付出病情延误的代价。
自从提出「事业前途顾虑」以来,经济学家已经发现了许多由此产生集体低效的个案。当然,他们也提供了相应的出路。这些解决办法基于同一特别理念:少即是多。把看似有用的资讯藏在暗处,有时足可取得意想不到的成效。
这个理念其实并不陌生。 《道德经》第58章云:「其政闷闷,其民淳淳;其政察察,其民缺缺。」这里不妨把「闷」理解为昏昏昧昧,一种不求获取资讯的状态;而把「察」理解为事无巨细,一种尽量公开资讯的状态。很多学校正是采用前者这一降低资讯精细程度的思路,以减轻学生之间的过度竞争,比如不彻底区分不同分数,而是用ABCD等较广泛的档次去评核学生。既然在同一档次里,学生没有第一、第二之分,自然不必为多争一两分而过度努力了。那么,可否通过少即是多的思路,协助医生更好地接受人工智能、应用人工智能呢?答案是肯定的,但必先了解医生与人工智能互动的更多细节。
假设一名放射科医生正在用X光检查机来诊断肺炎。他首先关心的是X光片上有没有出现白化、结节等异常迹象,这些病征在医学上早有定论。如有,医生就需要运用自己的主观理解,来断定这些迹象是否源于肺炎。最终,医生会按其医学知识和实际经验确定自己的看法,如果认为有来自于肺炎的异常迹象,便会作出肺炎的诊断;反之则会指出患者没有罹患肺炎。这样的诊断过程跟人工智能做预测的方法是相通的。
当人工智能与医生出现诊断上的分歧时,医生可以从不同的角度对分歧进行归因,其中会权衡两种可能性:究竟是我漏眼还是我和人工智能对这些迹象有着不同的理解?如果是前者,医生自然会大方地听从人工智能──毕竟,一时疏忽不属于医学本领的范畴;但若医生把分歧归因于理解上的偏差时,他就不会愿意听从人工智能了,以免暴露自己医术的短处,以免表明人工智能足以取而代之!
由此可见,为什么使用人工智能之际,有时候也可变为少即是多。在理解不同而产生分歧的情况下,如果人工智能揭示其诊断依据,医生有可能为了显示自己有足够能力独立诊断而不予以采纳。反过来说,如果人工智能并不出示它诊断的依据,只直接提供预测,医生便不能知道他们分歧的真正原因。在医生看来,人工智能可能注意到一个自己不小心忽略的异常迹象,形成彼此的诊断分歧。这种对分歧归因的方式,会让医生放下对自我专业形象的顾虑,而更心服口服地认同人工智能。简而言之,降低人工智能的资讯透明度,有助于医生主动地接受人工智能的建议。接受过程是医生自己通过对分歧进行归因,才得以实现。
从广义上说,归因可视为一种特殊的叙事(narrative)。前者着重于道出事件或现象的缘起,后者则还涵盖不同事件之间的联系。既然可透过医生对他和人工智能分歧的归因以减轻医生对人工智能的抗拒,从而加以接受,那么叙事作为一种说服方式,自然有更为广阔的应用场景。
毋庸置疑,叙事在人类社会中屡见不鲜,从战争动员、宏观政策调整、政治倾覆,到产品推销、人际合作与冲突等等大小事件中,都可以看到各种各样的叙事。
无怪乎诗人鲁基瑟(Muriel Rukeyser)的作品中有此名句:「说出来吧。说出来吧。构成宇宙的是故事,可不是原子。」(Say it. Say it. The universe is made of stories , not of atoms.)经济学的启示也都如是:让人们接受人工智能的不同意见,并不在于资讯的灌输,而在于让人们说出他们自己的归因,拥有自己的叙事。
【注】Lebovitz, S., Lifshitz-Assaf, H., & Levina, N. (2022). “To engage or not to engage with AI for critical judgments: How professionals deal with opacity when using AI for medical diagnosis”. Organization Science, 33(1), 126-148.
李韩哲先生
港大经管学院博士生
李晋教授
港大经管学院管理及商业策略、经济学教授
(本文同時於二零二三年十月二十五日載於《信報》「龍虎山下」專欄)