快訊

老公為何聽不到我講話?竟是50歲後這個能力最先下降所導致

最新文章

more

大家都在看

more

疾病百科

more

我要投稿

內容提供合作、相關採訪活動,或是投稿邀約,歡迎來信:

udn/ 元氣網/ 醫療/ 眼部

用ChatGPT查找的醫療資訊正確嗎?長庚眼科部醫師這麼說

元氣周報

ChatGPT示意圖。(報系資料照)
ChatGPT示意圖。(報系資料照)

聽健康

00:00/00:00
【本文重點】一些病患在診間會要求醫生直接開他們在谷歌上查到的藥物,谷歌搜索已經成為了醫療界的一大挑戰。

最近,元氣周報和元氣網編輯進行了一個小實驗,與 ChatGPT 聊天機器人進行了一場競賽,比較他們各自編寫的五篇眼科相關疾病介紹的品質,由林口長庚眼科部醫師進行評比,結果是由專業編輯產製的獲得了4.5顆星,而ChatGPT獲得了3顆星。裁判長黃奕修建議建立具權威性且經審核的訊息中心,以確認文章內容的真實性。--by ChatGPT

「醫師,我查谷歌說我的病應該吃這種藥,請你直接開給我就好!」這樣的對話在診間經常出現,醫界飽受「谷歌大夫」挑戰已非新鮮事,如今ChatGPT問世,民眾如何看待這個很會說話的聊天機器人提供的資訊?

元氣周報與元氣網編輯身為健康資訊的轉譯者,在林口長庚醫院眼科部提供強大的專業後盾為基礎下,進行了一個小實驗。

參賽者介紹/ChatGPT vs 元氣網編輯

ChatGPT能寫論文、劇本和小說,也能回答各種醫療問題;元氣網的「疾病百科」以疾病為主題,詳盡介紹有關疾病的成因、症狀、治療、預防等知識。元氣網是國內最早建置「疾病百科」的健康網站,透過強大的編採團隊整理,將艱澀的專業用語正確轉譯,所有內容皆經國內權威專家審閱,提供正確的疾病知識。

ChatGPT的出現,記者和編輯的工作可能因此不保嗎?透過編寫「疾病百科」,元氣網編輯與ChatGPT進行一場競賽,由林口長庚醫院眼科部醫師擔任裁判,來看看自己的飯碗端得穩不穩。

裁判長怎麼說/林口長庚醫院眼科部部長黃奕修

所有願意幫忙的人,所有可以產出的資訊,所有能夠使用的工具,都是資源。好壞資源的差別就是它的定位對不對。我們希望幫助ChatGPT在醫學臨床服務找到合適的定位。特別是當現在它的影響力正要出來,但是卻又錯誤百出的時候。

測試方法

1.由元氣網編輯與ChatGPT各自編輯整理數篇眼科疾病介紹。

2.由林口長庚眼科部醫師審稿,並且以一到五顆星(一顆是最差,五顆是最好)評定這篇疾病百科的品質,並判斷是由專業編輯產製,還是ChatGPT產製。

評比結果

初步在五篇眼科相關疾病百科中,有二篇是元氣編輯處理,三篇是ChatGPT產製,評審醫師全部答對,專業編輯獲得4.5顆星,ChatGPT獲得3顆星。

【延伸閱讀:ChatGPT內容是真的?還是假的?】

醫師評審感言

林口長庚醫院眼科部部長黃奕修:架構看似完整 細看不少錯誤訊息

建議:建立具權威性且經審核的訊息中心,確認文章內容的真實性。

ChatGPT建立在強大的資料庫與搜尋能力上,但它搜尋來源是網路資訊,當網路資訊真假難分,搜集出來的內容,真相更是令人質疑。最近這兩周,每天嘗試使用ChatGPT,問它許多醫療問題,但出錯率還滿高的。

林口長庚醫院眼科部部長黃奕修 圖/黃奕修提供
林口長庚醫院眼科部部長黃奕修 圖/黃奕修提供

以這次審查疾病百科為例,若沒有先告知這是ChatGPT撰寫的文章,乍看文章的邏輯與架構沒有問題,但仔細看就找到一些不妥之處。以飛蚊症舉例,ChatGPT撰寫的文章中,提及飛蚊症的發生與眼睛衛生有關,眼睛衛生很重要,但與飛蚊症的成因無關,這可能只是「小汙點」,但沒有專業知識背景的民眾恐怕難察覺並判斷。

黃奕修說,依照過去經驗,當一項工具變得方便,人類需求就會以「方便性」優先而非「正確性」,「谷歌大夫」就是一例。

未來也許會有醫療級的ChatGPT問世,但在ChatGPT的內容正確性尚未建立前,醫學界應該要先建立一套具權威性且經審核的訊息中心,無論由醫學會或醫院於官網建立,或設立認證單位確認文章內容的真實性,都應該開始著手,讓民眾在方便搜尋資料之下,還有第三方訊息可以確認正確性。

林口長庚醫院眼科部主治醫師康祐銓:出現非台灣用語、不存在的單位團體

建議:ChatGPT當工具可增加效率,但正確醫療知識需專家審核。

要發現文章是不是出自機器人之手,有幾個觀察重點,首先,有些說法或專有名詞並非台灣的慣用語,例如「激光」,我們通常說「雷射」,文章中出現激光,這不是台灣編輯會用的說法,那應該就是機器人寫的文章。

林口長庚醫院眼科部主治醫師康祐銓  圖/康祐銓提供
林口長庚醫院眼科部主治醫師康祐銓 圖/康祐銓提供

機器人使用資料庫回答問題,對自己非常有自信,所以會看到非常「唬爛」的說明,也就是明明是錯誤的、不相干的資訊,但還是說得煞有介事。關於這一點,根據維基百科,OpenAI承認,ChatGPT「有時會寫出看似合理但不正確或荒謬的答案」,這在大型語言模型中很常見,稱作「人工智慧幻覺」。

再來是元氣網的疾病百科中有特別註明專業單位,例如相關醫學會、病友團體,機器人寫的文章中會看到現實生活中沒有的單位。為何無中生有?推測有一種可能是直接把國外的團體翻譯成中文,但實際上台灣並沒有這個單位,或是翻譯錯誤。

ChatGPT可以節省一些行政文書消耗的時間,並且可以修正文法,同時也是快速收尋與整理的管道,但需要依賴專業知識。簡單來說,他可以是工具,使我們增加效率,但民眾若要了解健康與疾病相關知識,還是注意是否有專家審核。

責任編輯:辜子桓

護眼 飛蚊症 眼中風

這篇文章對你有幫助嗎?

課程推薦

延伸閱讀

猜你喜歡

贊助廣告

商品推薦

猜你更喜歡