AI Adoption and Career Concerns
二十一世紀被譽為人工智能的黃金時代。海量的創新方法、突破性發現、層出不窮的新應用使我們目不暇接。
多少傳統的商業模式、社交行為、資訊的獲取方式乃至社會的方方面面都正面臨革命性的改變,其中又以醫療領域尤其值得注意。
從家庭醫生的日常看診、專科醫生的病情分析,到研究人員的藥物研發,人工智能似乎都可以勝任有餘。機器學習先驅、圖靈獎得主辛頓(Geoffrey Hinton)指出:「現在已沒有必要再培訓放射科醫生了。清晰可見的是,5年之內,深度學習將比他們做得更好。」正是對此一嶄新發展的有力註腳。
然而,維珍尼亞大學和紐約大學的研究人員實地考察了人工智能在美國醫院放射科的應用,在2022年發表的相關結果【註】顯示,在肺癌、乳癌以及骨骼年齡判斷3個實驗組別中,人工智能所提供的診斷資訊僅在診治肺癌一組常獲放射科醫生接納,其餘兩組則未獲青睞。這種情況或可簡單地理解為醫療設備不夠匹配、醫生醫術未精等因素所致;但根據大量管理學、心理學研究文獻,即使人工智能診斷比醫生準確,醫生仍對它有所保留。這種現象被稱為「人工智能厭惡」(AI aversion)或「演算法厭惡」(algorithm aversion)。
我們如何能由經濟學的角度來理解「人工智能厭惡」現象?我們可否從中獲得一些啟示,找到方法來減低醫生及其他決策者對人工智能的抗拒情緒?
諾貝爾經濟學獎得主霍姆斯特倫(Bengt HolmstrÖm)所提出的「事業前途顧慮」(career concerns),可說為上述問題提供了解答的鑰匙。一般來說,此概念指的是當個人能力難以直接觀測時,希望通過特殊表現來印證一己能力的動機。假設某公司有兩類僱員,一類能力高,一類則能力低,而能力高低只能從他們的工作表現、自信程度推測。一般來說,高能力的指標為工作表現佳、具自信心;低能力則與工作表現差、對上司唯唯諾諾掛鈎。為求標榜自我能力,員工於是竭力提升個人工作表現,並且不輕易改變所作決策,以突顯自信,甚至顯得過度自信。
這樣的行為往往壞事,讓自己和周圍的人都背負過多的成本壓力。校內學生為了展現自己有天賦,期望在考試中拔得頭籌,就得苦心鑽研試題。無奈第一名只有一個,最終的結果自然是激烈的考試競爭與時間浪費:學生的精力沒有用於增長知識,而是花在追求一兩分造成的名次差異;更犧牲了身心健康。至於在政壇上,政客為了展現自己高瞻遠矚,縱然可能自知有誤,卻不惜一錯到底,連累市民平白受苦。又如上述放射科醫生的例子,為了在人工智能面前不甘示弱,醫生就可能我行我素,而摒棄人工智能的建議。有時難免令病人付出病情延誤的代價。
自從提出「事業前途顧慮」以來,經濟學家已經發現了許多由此產生集體低效的個案。當然,他們也提供了相應的出路。這些解決辦法基於同一特別理念:少即是多。把看似有用的資訊藏在暗處,有時足可取得意想不到的成效。
這個理念其實並不陌生。《道德經》第58章云:「其政悶悶,其民淳淳;其政察察,其民缺缺。」這裏不妨把「悶」理解為昏昏昧昧,一種不求獲取資訊的狀態;而把「察」理解為事無巨細,一種盡量公開資訊的狀態。很多學校正是採用前者這一降低資訊精細程度的思路,以減輕學生之間的過度競爭,比如不徹底區分不同分數,而是用ABCD等較廣泛的檔次去評核學生。既然在同一檔次裏,學生沒有第一、第二之分,自然不必為多爭一兩分而過度努力了。那麼,可否通過少即是多的思路,協助醫生更好地接受人工智能、應用人工智能呢?答案是肯定的,但必先了解醫生與人工智能互動的更多細節。
假設一名放射科醫生正在用X光檢查機來診斷肺炎。他首先關心的是X光片上有沒有出現白化、結節等異常跡象,這些病徵在醫學上早有定論。如有,醫生就需要運用自己的主觀理解,來斷定這些跡象是否源於肺炎。最終,醫生會按其醫學知識和實際經驗確定自己的看法,如果認為有來自於肺炎的異常跡象,便會作出肺炎的診斷;反之則會指出患者沒有罹患肺炎。這樣的診斷過程跟人工智能做預測的方法是相通的。
當人工智能與醫生出現診斷上的分歧時,醫生可以從不同的角度對分歧進行歸因,其中會權衡兩種可能性:究竟是我漏眼還是我和人工智能對這些跡象有着不同的理解?如果是前者,醫生自然會大方地聽從人工智能──畢竟,一時疏忽不屬於醫學本領的範疇;但若醫生把分歧歸因於理解上的偏差時,他就不會願意聽從人工智能了,以免暴露自己醫術的短處,以免表明人工智能足以取而代之!
由此可見,為什麼使用人工智能之際,有時候也可變為少即是多。在理解不同而產生分歧的情況下,如果人工智能揭示其診斷依據,醫生有可能為了顯示自己有足夠能力獨立診斷而不予以採納。反過來說,如果人工智能並不出示它診斷的依據,只直接提供預測,醫生便不能知道他們分歧的真正原因。在醫生看來,人工智能可能注意到一個自己不小心忽略的異常跡象,形成彼此的診斷分歧。這種對分歧歸因的方式,會讓醫生放下對自我專業形象的顧慮,而更心服口服地認同人工智能。簡而言之,降低人工智能的資訊透明度,有助於醫生主動地接受人工智能的建議。接受過程是醫生自己通過對分歧進行歸因,才得以實現。
從廣義上說,歸因可視為一種特殊的敍事(narrative)。前者着重於道出事件或現象的緣起,後者則還涵蓋不同事件之間的聯繫。既然可透過醫生對他和人工智能分歧的歸因以減輕醫生對人工智能的抗拒,從而加以接受,那麼敍事作為一種說服方式,自然有更為廣闊的應用場景。
毋庸置疑,敍事在人類社會中屢見不鮮,從戰爭動員、宏觀政策調整、政治傾覆,到產品推銷、人際合作與衝突等等大小事件中,都可以看到各種各樣的敍事。
無怪乎詩人魯基瑟(Muriel Rukeyser)的作品中有此名句:「說出來吧。說出來吧。構成宇宙的是故事,可不是原子。」(Say it. Say it. The universe is made of stories, not of atoms.)經濟學的啟示也都如是:讓人們接受人工智能的不同意見,並不在於資訊的灌輸,而在於讓人們說出他們自己的歸因,擁有自己的敍事。
【註】Lebovitz, S., Lifshitz-Assaf, H., & Levina, N. (2022). “To engage or not to engage with AI for critical judgments: How professionals deal with opacity when using AI for medical diagnosis”. Organization Science, 33(1), 126-148.
李韓哲先生
港大經管學院博士生
李晉教授
港大經管學院管理及商業策略、經濟學教授
(本文同時於二零二三年十月二十五日載於《信報》「龍虎山下」專欄)