“雖然我是個接受過大量信息訓練的語言模型,但我不是有執照的醫療專業人員,我無法提供醫療診斷、治療或建議?!痹诒粏柤啊笆欠駮〈t生”時,聊天機器人ChatGPT這樣回答美國有線電視新聞網。
不過,美國《紐約時報》發現,這款聊天機器人對醫生們頗有幫助,它提高了他們與患者進行同理心溝通的能力。
美國有線電視新聞網稱,6月底發布的一份研究表明, 面對患者提出的醫療診斷、護理需求等問題,ChatGPT的回復“比醫生的回復更受歡迎,在內容質量和同理心方面的評價明顯更高”。根據該研究,平均而言ChatGPT的回復質量比醫生高21%,同理心高41%。
舉例來說,同樣是回答“漂白劑濺入眼睛后是否有失明風險”的問題,ChatGPT在回復中先是對患者受到的驚嚇表示同情,隨后簡潔明了地給出并論證了“不太可能”的結論,最后給出了處理建議和鼓勵。相較之下,一位醫生的回答是“聽起來,你會沒事的”。對比一目了然?!都~約時報》稱,借助ChatGPT,醫生們可以找到更穩妥的方法來陳述壞消息,表達對患者痛苦的擔憂以及用更通俗的語言解釋醫療建議。
對此,有專家提出質疑。美國斯坦福醫療保健公司數據科學團隊成員德夫· 達什稱, 他和同事在測試ChatGPT等大型語言模型時,收到了一些無效、矛盾甚至錯誤的回答。他們對使用該類模型幫助醫生的前景持消極態度。
醫生是否有必要借助人工智能, 讓患者的就診體驗更好?
專家認為,好的態度不等于好的醫療建議。美國匹茲堡大學醫學院危重疾病倫理與決策項目主任道格拉斯·懷特解釋道,“大多數醫生對患者的感受重視不足,他們只是把病人的提問當作一系列需要解決的客觀問題,可能忽視了病人和家屬的情感問題?!?p>
有時,醫生非常清楚同理心的必要性,但很難找到合適的表達方式。格雷戈里·摩爾是美國微軟公司負責健康和生命科學的高級管理人員,他想幫助一位身患晚期癌癥的朋友。這位朋友的情況很糟糕,需要關于治療和未來的建議。摩爾決定把這些問題交給ChatGPT。
“結果令我大吃一驚?!蹦柛嬖V《紐約時報》。該人工智能給了他長長的、充滿同情的回答,讓他向朋友解釋缺乏有效治療方法的原因,給了他一些應對壞消息的方法,甚至建議他“在努力幫助朋友的同時,也要妥善應對自己的悲痛和壓力”。
摩爾驚訝于人工智能的幫助, 趕忙將其推薦給醫生同行,但他告訴《紐約時報》,大多數同行在猶豫,是否要使用ChatGPT來尋找更富同情心的表達。
耶魯大學醫學院結果研究和評估中心主任哈蘭·克魯姆霍爾茨說,“醫生承認這樣使用ChatGPT,就等于承認自己不知道如何與病人交談?!?/p>
盡管如此,那些嘗試過ChatGPT的人認為,醫生們應該多嘗試一下,看看人工智能能做些什么。
“該程序能夠在幾分鐘內,準確完成醫生通常需要一個月才能完成的工作?!惫鸫髮W教授、《新英格蘭醫學雜志》編輯科哈尼醫生告訴《紐約時報》,閱讀轉診信和病史,決定是否接受患者是一項很耗時的工作, 但ChatGPT能輕松、可靠地完成,極大地減輕了醫生的負擔。
美國得克薩斯州達拉斯市一家私人診所的風濕病學家理查德· 斯特恩表示,GPT-4已成為他的“忠實伙伴”。它會對病人的電子郵件做出善意的回復,為工作人員提供富有同情心的答案模板,可以接管繁重的文書工作,還可以為患者向保險公司撰寫申訴信。
“與其說ChatGPT是患者的指南,不如說它是對醫生的支持?!辈贿^,美國賓夕法尼亞大學醫學教授兼高級副院長大衛·阿什對美國有線電視新聞網強調,最好在對病人而言風險較低、“遠離臨床接觸”的情況下使用它。