最新文章

more

大家都在看

more

疾病百科

more

我要投稿

內容提供合作、相關採訪活動,或是投稿邀約,歡迎來信:

udn/ 元氣網/ 焦點/ 杏林.診間

醫病平台/如何發展醫療AI:不傷為上

醫病平台

醫病平台

醫療AI的使用應聚焦四個主要目標:改善病人健康、提升醫療服務體驗、降低醫療成本並提高生產力、及在醫療勞動力短缺和職業倦怠的情況下支持醫療工作者。圖片來源/freepik。
醫療AI的使用應聚焦四個主要目標:改善病人健康、提升醫療服務體驗、降低醫療成本並提高生產力、及在醫療勞動力短缺和職業倦怠的情況下支持醫療工作者。圖片來源/freepik。

聽健康

00:00/00:00
【編者按】:本週再度以目前最夯的「人工智慧(AI)」為主題,討論對於醫療的影響。去年三月我們首次由幾位資深醫師討論Chat-GPT對醫病關係與醫學教育可能產生的問題。兩個月後三位年輕世代對這方面有心得的醫師,介紹這對病歷的書寫效率、醫病雙方攝取正確醫學常識都會有長足的幫忙,可以改善醫療工作的效率,甚至達到更理想的醫病關係。

本週一位年輕的實習醫師自問「醫師會被人工智能取代嗎?」,寫出他對此有所保留的想法。→想看本文

一位腫瘤內科醫師以ChatGPT如何幫助我們將非結構化的文字轉換為結構化的JSON格式的實例,闡述這可以成為對臨床研究非常有用的利器。→想看本文

一位醫療人工智慧核心實驗室博士後研究員介紹了最近國際注目的醫學倫理、政策及人工智慧專家討論如何確保醫療人工智慧的應用符合醫學倫理及社會利益,而「不要造成病人傷害」仍是醫學倫理的最高準則。

每位醫師在開始訓練之時都會宣誓希波克拉底誓詞(Hippocrates oath),其中最重要一句為Primum non nocere(First, do no harm),指導著醫者最高行事準則即是不要對病人造成傷害。隨著人工智慧(AI)的飛速發展,醫療相關之AI應用(AI in Healthcare, AIH)如雨後春筍般出現,同時在醫學倫理及法規政策面也產生巨大的挑戰:我們要如何確保強大的AI演算法在做臨床決策時符合醫學倫理?政府與社群要如何控管比所有人類都還聰明的AI?2024年二月初於醫界最著名之期刊New England Journal of Medicine (NEJM) 之AI子刊1及Nature Medicine2同步發表了標題為”To do no harm – and the most good – with AI in health care”之文章,我們可以透過此評論一窺當代醫界思想領導者對於醫療AI的思考。

此篇評論源自於2023年底舉辦之RAISE (Responsible AI for Social and Ethical Healthcare)會議,該會議由哈佛大學醫學院主辦,聚集了各國醫學倫理、政策及人工智慧專家討論如何確保醫療AI的應用符合醫學倫理及社會利益。如同該文標題所揭櫫,醫療AI的運用仍要遵守醫學倫理的最高準則:不要造成病人傷害,並在此範疇中達成最大福祉。會議中亦對幾個醫療AI的重要問題進行討論,筆者分述如下:

誰能受益?

醫療AI的使用應聚焦四個主要目標:改善病人健康、提升醫療服務體驗、降低醫療成本並提高生產力、及在醫療勞動力短缺和職業倦怠的情況下支持醫療工作者。會議成員建議醫療工作者及醫療社群審視並嘗試將醫療AI用於加強臨床業務。醫療AI馬上能發揮的功能包括協助病歷紀錄、排序並分析影像及實驗數據、協助鑑別診斷、提供治療計畫討論、病人衛教及約診。這些AI醫療服務必須搭配相稱的支付系統,確保收費的透明及公平性,同時醫療機構需要提供醫療人員完整的訓練及病人充分的教育。對於AI醫療服務所達到的成效,須有公開且清楚定義的衡量指標,而非只為達成私人醫療系統的營利或是公共醫療系統預算上的消化。

獨立之聲或最佳幫手?

是否應將AI醫療工具視為傳統醫病二元關係中獨立的另一個實體?這個問題會議上大多數參與者的回答是否定的。對於醫療提供者而言,目前詳細的法律仍在訂定中,但多數意見認為即使有AI工具協助決策,臨床醫師須為臨床決策負起法律責任。然而如果AI醫療工具被大規模的運用,開發該產品之科技公司終須負起部分責任。目前,醫療AI應被視為支持臨床醫生的工具或是病人自我管理的輔助,而不是新的實體。醫療AI是補充性的,而非替代性的,儘管在可預見的未來,這一情況可能會在適當的保護措施下發生變化。下一個世代的醫師必須學習如何使用AI醫療工具協助進行醫療行為,及其中可能涉及到的責任歸屬。

病人資料如何運用?

AI模型相當仰賴大量臨床照護過程中生成的數據,利用廣泛且多樣的數據來訓練醫療AI模型相當重要。會議參與者支持「選擇退出」而非「選擇加入」,這樣能減少資料產生偏見或代表性不足的問題,但必須非常明確告知病人有不讓自己的資料被用於訓練模型之選項。醫療AI的開發機構必須確保在運用病人資料過程中遵守現行之資料保護準則,且致力於確保訓練資料囊括不同群體,尤其是確保弱勢族群有足夠之代表性。

使用者參與:

監管機構應要求醫療AI公司揭露訓練之資料集(如同營養成分標籤)及相關指引,讓病人跟監管機構能清楚了解模型的運作方式。在開發醫療AI的每個步驟中都應該將病人、病人倡議團體、醫護人員之意見納入設計,確保醫療AI模型能受到各方使用者之信任。醫師應開始預期病人會拿著醫療AI提供的資訊前來諮詢,也應鼓勵病人於看診過後上網閱讀診斷之總結及治療計畫。病人可以直接使用的醫療AI系統一旦普及,也會造成許多看病行為的變化,病人可能會因為健康問題得到解答而開始減少看醫生,健康照護系統需對此轉變做出準備。

財務問題:

對於醫療AI軟體服務,會議成員較傾向訂閱或一次付清制而非按件計酬。支付應該與被解決的問題及照護的改善相對應。第三方機構(如學界、非營利機構)應建立起良好的評估系統(如學術期刊或報告),去評估醫療AI是否真的達成了減少成本、改善病人預後等效果,這個系統也應包括監管者的上市後評估及跨國交流。

醫療的發展日益複雜,醫療AI似乎成為此龐雜系統持續進步的一大希望。這項技術正在以驚人的速度進步,鑒於未來幾年它將如何發展存在巨大的不確定性,各界專業人士及病人需不間斷的討論相關的議題,以「不傷為上」為價值的核心,共同商討如何有效、公平地運用此強大的工具,真正地幫助到需要幫助的人。

參考資料

1.Goldberg CB, Adams L, Blumenthal D, et al. To do no harm — and the most good — with AI in health care. Nejm AI, 2024;1(3). https://doi.org/10.1056/aip2400036

2.Goldberg CB, Adams L, Blumenthal D, et al. To do no harm - and the most good - with AI in health care. Nat Med. 2024;30(3):623-627. doi:10.1038/s41591-024-02853-7

延伸閱讀:

2024/6/17 醫師會被人工智能取代嗎?一個實習醫學生的反思

2024/6/19 語言模型與臨床結構化資料

人工智慧 照護 工作 醫學教育 醫病關係

這篇文章對你有幫助嗎?

課程推薦

延伸閱讀

猜你喜歡

贊助廣告

商品推薦

猜你更喜歡