醫病平台/ ChatGPT對醫病關係的影響
編者按:本週的主題是「人工智慧聊天機器人(ChatGPT)對醫療與醫學教育的影響」。一位資深內科教授由多年的臨床經驗發表他對ChatGPT應用於醫療的隱憂,如果醫病雙方沒有互信的基礎,這種科技產物是否反而會更增加猜忌而破壞醫病關係。一位兼具多重身份的學者(醫師、醫學院基礎醫學教授、電腦工程師)與具有護理背景的腦科學研究生共同從科技面、人性面、產業面探討ChatGPT對醫病關係的影響。一位關心醫學教育的臨床醫學教授由淺入深地發表ChatGPT對醫學教育與醫學研究可能造成的困擾。讓我們不得不警惕,這樣發展下去,是否會影響學生的評估(作業、報告)以及學者的研究(論文內容及其原創性)。
延伸閱讀:醫病平台/ ChatGPT會改變醫病關係嗎?
醫療是人類最古老的服務業之一,到目前也是最難自動化的一個行業。由於醫療知識非常複雜難懂,當ChatGPT等人工智慧(AI)技術誕生後,人們自然會將它應用在醫療上,這的確也是醫療再進步的一個機會。筆者擬由三個面向來討論 ChatGPT會改變醫病關係嗎?
科技面
ChatGPT是目前工藝的極致,繼承了幾十年來資訊科技的精華。以前只能在電影上想像的情節,現在幾乎都實現了。它功能強大,給人有問必答無所不能的印象。但許多專業人士實際使用之後,發現它還不是一個真正有問必答的智者,更無法看穿你的心思,它目前的能力更像是「文字接龍大師」。ChatGPT已經跟人類學得很像,試著從字面中去「理解」問題,再從自己擁有的「知識」中找出相對應的答案,找出一段「機率」上最平順的回應。實際上,它並沒有自知之明(insight),意思就是無法感知自己的問題。另外,就算是人和人之間也常常出現問A答B雞同鴨講的情況,甚至會造成心結。一旦發現是誤會,往往又一笑置之。對於醫療健康的問題,何其複雜也,即使是一位有知識加同理心的醫師,回答起病人各式各樣問題,也有發生困難的時候。更何況是一位欠缺醫學知識的病人,跟一個欠缺自知之明的機器間的對話?即使機器所說的每個字都有所根據,還是會有誤解的「機率」。科技本來就不斷的追求進步,但一般大眾缺乏專業知識來了解,原來醫療AI還在進步中,錯誤難免。更甚者誤以為AI已經是什麼都會、甚至什麼都對,醫病誤解的種子就種下去了。人性面
人類對一件事的理解,往往會受到心情所影響,在生病無助的時候,尤其顯得脆弱。在這個當下,任何一個人所說的,甚至是機器所說的都可以變成金科玉律。我在醫學院剛畢業沒多久,遇到一位長輩。他說他心情很不好,人家說他有憂鬱症,就快死了。初生之犢的我,看了一眼就說:你不要聽人家亂講,實際上沒這麼嚴重啦,不要自己嚇自己。結果在那當下他的病情就好了一半,一直感謝我到現在,說我救了他!一個菜鳥醫師都有這種魔力了,ChatGPT這種科技巨著,影響一位無助病人的心情更是易如反掌,即使它不是故意的。病人就是這麼脆弱,這麼容易受影響。醫師受過專業訓練,有醫師執照把關,還發過誓,有醫師宣言隨時提醒著良心,不會利用這種人性脆弱的時機佔病人的便宜。其他的人或機器可不一定有這樣的專業跟良心,放棄操控人性的大好機會。以前筆者還在當醫學生的時候,就聽說在最先進的美國,有一個行業專門守在醫院門口等著,當病人出院之時,立刻積極的關心病人:你有沒有覺得醫療疏失?有沒有受到欺負?本公司專門來幫病人控告醫師主持正義,順便賺取合理服務費。有些病人想想:反正病都生了,有機會多賺一些貼補家用也不錯,就配合辦理。以前還是手翻病歷的時代,已經可以將醫院搞得人仰馬翻,現在 ChatGPT的出現,想必讓這類公司的營運效率升級不少。AI救人還是很難,即使到目前還只能出一張嘴,也無法實體下鄉服務。但是要找碴的話,透過巨量資料庫還有演算法,簡直是小菜一碟。
產業面
有沒有注意到,ChatGPT這類產品,在你第一次加入會員開始使用的那一刻,就要求你打勾一個同意書。這個同意書通常很長很長,長到你沒有那個眼力與時間去仔細看完,就先勾再說馬上使用。裡面的內容其實大同小異,意思是該產品對它所說的任何話,完全不負任何損害賠償責任。這些公司其實也沒那麼不負責任,這只是這個產業的特色。這些產品的開發都需要龐大的投資,動輒十億百億美金。主要的回收,來自使用者的會費或廣告收入。論單價實在不高,但憑藉者上億會員與使用量,積少成多成為一筆可觀的收入。說實在的,投資風險也不小,一個成本效益沒控制好就會「倒店」。經營者無不使出渾身解數,哪裡設法再降低一點點支出,哪裡再設法增加一點點收入。對於法律責任這種無法估算的恐怖支出黑洞,稱職的執行長一定會設法消除之。相對之下,我們去看病的時候,不少佛心的醫師甚至會讓病人錄音,只希望病人不要因為聽錯話而耽誤病情,絲毫不顧慮將自己暴露在法律風險中。這是「生財工具」跟「醫師」本質上的差異。醫療不可能沒風險,強大的ChatGPT越是發揮它的功能,跟病人的對話越多,風險自然跟著使用量與日遽增。根據能量不滅定律,如果運作的公司不願承擔這些風險,風險不會憑空消失,只會流向另外兩者:醫師與病人。
所有AI包括 ChatGPT的思考方式跟知識來源,主要都是從醫學複製來的。它的確用了超多的資源跟預算在收集資料與訓練AI,嚴格來說本身並沒有創造醫學新知。營運的廠商在降低成本與增加營收的壓力下,一方面不願意承擔任何法律責任,一方面追尋任何可以增加營收的機會,更樂於接收所有人類科技發展的榮耀,所有衍生的責任與風險只好順其自然的留給醫生與病人去承擔。醫生除了原本的服務外,還要額外替廠商解釋可能的問題,承擔廠商該負的責任,運氣不好時甚至莫名增加醫療糾紛的風險。這樣子權利義務的不對等,長久下去會出問題的,應趁早處理。
在完全沒管制之下,一般非醫療專業的大眾,真的有辦法駕馭這類結合AI跟醫療的高科技產品嗎?並在廠商的營運壓力下,維持單純的醫病關係嗎?在廠商願意承擔一點點責任之前,是否我們的政府,也應該對整個醫療服務的品質把關一下?目前連血壓機都禁止放在網路上販賣,為什麼一個實質的「臨床決策支持系統」(CDSS),可以這麼無極限的在網路上使用,而不受任何規範?難道AI診斷的影響力不如血壓計嗎?是否也可以藉此教育社會大眾負責任的習慣,尤其在面對生命的時候。
以下純聊天
台灣一向不缺一張「嘴」(Chat),好康的行業也不缺人手。台灣缺的是對弱勢族群的照護,缺的是偏鄉的醫生,缺的是辛苦科別的同志。在這種情況下,來一個「非醫療級聊天機器人」的超級「543」,發表完全不用負責任的醫療高見,到底是來亂的還是來幫忙的?知識當然是醫學的基礎,但在複雜的醫病關中,還有更多的人間互信,對疾病的戒慎恐懼,對生命的尊敬。一位醫師的墓碑上刻著 「To cure sometimes, to relieve often, to comfort always(有時去治癒,常常去幫助,總是去安慰。),然而 ChatGPT這類AI除了提供知識外,能治癒疾病(cure)?紓解病痛(relieve)? 還是安慰心靈(comfort)? 想了半天好像都不行!有興趣的人還可以看一下傳說中的「醫師宣言」,醫師大都不會跟你聊這個,但是會以一輩子的生命來實踐自己曾經許下的承諾。不敢說100%,很多醫師的確是佛心的。相對之下,ChatGPT 等AI產品100% 是商業產物,絕不是吃素的。醫生是一個古老的行業:拔苦與樂,服務利他,試著以有限的資源,全方面照顧人們的身心靈。而ChatGPT是時代的科技產物,背負著許多股東鉅額的投資跟夢想,有著非獲利不可的壓力。或許有些醫生真的有懸壺濟世的心懷,然而要求ChatGPT拯救世界就於過沉重。ChatGPT的確是一個很優秀的語言模型,在重寫、抓重點都有不錯表現,未來一定會陸續出現以這技術為基底的AI助手,減少醫師的文書工作,提高醫師的看病效率。ChatGPT等AI就像孫悟空有通天的本事,它如果能夠接受唐三藏(指醫生)的指揮,期待有機會為醫病關係做出貢獻。反過來,誰能想像那一天孫悟空變成唐三藏的老闆?再好的東西,擺錯位置也會變成災難。
總結
不論是科技的創新,人性的弱點,還是產業投資獲利的壓力,光是這三大外力的參與,根據力學上最基本的牛頓第二定律:力會改變運動!筆者預測醫病關係將會改變。推薦文章
-
糖尿病重擔/強化三高防治 AI神隊友 助糖尿病分級照護
-
醫病平台/變成病人後的醫師
-
院長講堂/馬偕兒童醫院院長陳銘仁 真誠照護小病患 常保赤子心
-
2024退休力論壇/陳亮恭:翻轉疾病定義與慢性病共存
-
如何告訴家屬,6歲孩可能一輩子臥床?病情告知先考量2件事