醫病平台
醫病平台
內容提供合作、相關採訪活動,或是投稿邀約,歡迎來信:
醫病平台
醫病平台
聽健康
編者按:本週的主題是「人工智慧聊天機器人(ChatGPT)對醫療與醫學教育的影響」。一位資深內科教授由多年的臨床經驗發表他對ChatGPT應用於醫療的隱憂,如果醫病雙方沒有互信的基礎,這種科技產物是否反而會更增加猜忌而破壞醫病關係。一位兼具多重身份的學者(醫師、醫學院基礎醫學教授、電腦工程師)與具有護理背景的腦科學研究生共同從科技面、人性面、產業面探討ChatGPT對醫病關係的影響。一位關心醫學教育的臨床醫學教授由淺入深地發表ChatGPT對醫學教育與醫學研究可能造成的困擾。讓我們不得不警惕,這樣發展下去,是否會影響學生的評估(作業、報告)以及學者的研究(論文內容及其原創性)。
不到三秒,出現以下的一篇文章:「GPT的出現對醫學教育和醫學研究產生了深遠的影響,但同時也帶來了一些令人擔憂的問題。在書面作業方面,GPT可以幫助醫學生更加高效地完成作業,並提高作業質量,但也有可能使醫學生過分依賴機器人的智能生成功能,減少自主思考和研究的能力。在醫學研究方面,GPT可以幫助研究人員在較短時間內對大量文獻進行閱讀、分析和統整,從而提高研究效率。然而,GPT的生成內容並非全部真實可靠,因此研究人員需要對GPT生成的結果進行嚴格的驗證和比對,避免因GPT所生成內容的不正確性而導致研究結果的不準確性,進而對執行醫療產生不良影響。此外,GPT還存在著對隱私保護和倫理風險的威脅。由於GPT可以通過機器學習技術學習大量的個人數據和行為模式,因此存在著潛在的隱私泄露風險。同時,在使用GPT生成的內容時,也需要考慮到是否會觸犯倫理和道德準則,尤其是在醫學領域中。總之,GPT的出現對醫學教育和研究帶來了諸多的機會和挑戰,需要我們深入思考如何合理運用和管理。在醫學教育方面,我們需要加強對GPT的引導和培養學生獨立思考和研究的能力;在醫學研究方面,我們需要對GPT生成的內容進行嚴格的驗證和比對,並加強對隱私保護和倫理風險的關注和管理。這樣才能更好地發揮GPT的優勢,促進醫學教育和研究的進步。」
GPT是指「Generative Pre-trained Transformer」,它是一種自然語言處理模型,使用一種稱為人類反饋強化學習(RLHF)的機器學習技術進行訓練,運作原理基於深度學習和神經網絡技術,它使用大量的文本數據作為訓練資料,並透過學習這些數據中的模式和結構,來學習人類語言的規則和模式,模擬人類的語言能力,以生成新的文本。
ChatGPT實務上能夠理解人類語言,並且回答問題,就像對話聊天。無論是隨性聊天、或是交付任務,甚至協助畫圖,創作小說,修改論文或是寫電腦程式、解決各式難題等,都能像專家一樣,做得出色到位。相信在不久的未來,ChatGPT很可能會廣泛地用在我們生活周遭的每一方面, Google搜尋引擎的角色恐怕會被取代。
不假思索,機器人立馬回應:
「陽明大學與交通大學合併可以帶來多方面的好處,以下列舉幾個可能的優點:
1.提高學術水平:陽明大學和交通大學的學科領域有所重疊,合併後可以整合人力和物資資源,進一步加強學科研究能力,提高學術水平。
2.擴大研究領域:合併後,兩校可以進一步整合研究領域,拓展新的研究方向,加強學科間的合作與交流,從而提高研究成果和學術影響力。
3.優化師資隊伍:兩校合併後可以整合師資隊伍,提高教學質量和效率,並優化師資結構,引進更多優秀教師,提高教學水平和質量。
4.提供更多學術資源:合併後,學生可以享受到更多的學術資源,包括圖書館、實驗室、研究中心等,這將有助於學生的學術成長和發展。
5.提升校園文化:合併後,學校可以整合資源,提高校園設施水平,並整合兩校的校園文化,促進交流和融合,建立更加豐富多彩的校園文化,提升學校的知名度和聲譽。」
我接著又問:「還有呢?」
機器人隨即又答覆:
6.建立更強大的跨領域研究平台:合併後,可以整合兩校的優勢學科,建立更強大的跨領域研究平台,促進學科間的合作和交流,推動新興學科的發展。
7.提供更多學生交流機會:兩校合併後,可以提供更多學生交流的機會,包括學生交換計劃、跨校聯合課程等,這有助於拓展學生的國際視野和交流經驗。
8.提高學校的整體品質:合併後,可以整合資源,提高學校的整體品質和實力,進一步提升學校的學術聲譽和社會影響力。」
我繼續又問了兩次「還有呢?」
機器人洋洋灑灑地共給了我14個答案。
剛好陽明交大的林奇宏校長就坐我對面,我就將這些答案給他看,林校長說:「哇!寫得真好!麻煩轉寄給我參考!」
事實上,現在已經出現正式的發表文章將ChatGPT列為文章作者之一。
據陳亭瑋所轉述:「《自然》(Nature)與《科學》(Science)等重要學術出版社,均於今(2023)年針對大型語言模型制定相關的使用規則,並且已經正式列入現有的投稿指南。」
重點是:這些AI工具都不可被列入論文作者的行列,因為AI無法為作品負責。陳亭瑋寫道:「《科學》期刊的主編索普(Holden Thorp)也發表社論,認為根據《科學》系列期刊要求作者投稿時聲明「作品為原創」,投稿的文章原本就不可使用大型語言模型如ChatGPT的成品進行寫作,作者應全權為投稿文章中的文字負責。」
現階段, ChatGPT依然存在有一些破綻。常常這類AI技術會寫出看似合理但實際上完全不正確、甚至非常荒謬的答案。
教師會那天,我故意用我的名字但是搭配上錯誤的醫院名稱,請ChatGPT評價一下對這位醫師。結果它給的答案卻讓我哭笑不得。ChatGPT正經八百地把我描述成那家醫院的名醫,不但專長領域寫錯,連進修過的學校也是瞎掰的,簡直可說是胡說八道。我不信邪又再測試了幾位當天在場的醫師,結果也都出現錯得離譜的內容。
根據一些最近的報導,「此種AI技術是有可能在事實方面犯下許多錯誤,例如引用一些(甚至是捏造)不存在的參考資料。」
以下就是它的回覆:
「要鑑別學生所繳交的資料是否透過GPT的機器人所撰寫,需要從以下幾個方面進行比對:
•資料的一致性:GPT生成的內容通常會呈現出一定的模式和風格,如果資料內容在風格、用語和結構上呈現出過於一致的特徵,就有可能是由GPT所生成的內容。
•資料的內容和主題:GPT的生成內容通常是基於大量訓練數據和預設主題進行生成的,因此如果資料內容和主題與所申請的醫學專業無關或不符合常理,就可能是由GPT所生成的內容。
•資料的知識深度:GPT的生成內容通常只是從已有的資料中綜合、生成,因此資料的知識深度和創新性相對較低,而人類創作的資料通常具有更高的知識深度和創新性。
•資料的真實性:GPT生成的內容可能存在著虛構或不真實的情況,而人類創作的資料則更具有真實性和可信度。
綜合考慮以上幾點,可以對考生所繳交的資料進行綜合評估和鑑別,從而確定其是否為GPT所生成的內容。」
這部分,我覺得ChatGPT答的還算蠻好的。
這篇文章對你有幫助嗎?