[color=rgba(0, 0, 0, 0.87)]一項發表於《英國醫學期刊》(The BMJ)的研究指出,儘管AI在某些方面能提供幫助,但這些工具在醫療、藥物方面,仍然會生成無法理解的回答,包含了假信息以及無意義的內容,甚至是有健康危險的資訊。
AI醫療助理的可讀性與完整性分析[color=rgba(0, 0, 0, 0.87)]為了模擬患者使用這類工具查詢藥物資訊,研究團隊參考了美國2020年最常開立的50個處方藥,並針對每個藥物設計了10道常見的問題,總共生成了500個Q&A,這些問題涵蓋了藥物用途、使用說明、常見副作用和禁忌。
[color=rgba(0, 0, 0, 0.87)]研究團隊與臨床藥劑師和具有藥理學專業知識的醫生進行了多方評估,以識別AI工具提供給患者對某些藥物的常見問題時,是否具有可讀性、完整性以及準確性,並且以Flesch閱讀難易度指數分析AI的回答。該指數介於0到100之間,0~30分表示不易閱讀,需要大學以上的教育程度,91~100表示11歲左右的孩子即可理解。
[color=rgba(0, 0, 0, 0.87)]研究顯示,AI回答的平均得分是37分,這意味著讀者需要具備高中以上的教育程度才能順利理解這些回覆的內容。
[color=rgba(0, 0, 0, 0.87)]在完整性方面,研究人員將AI的回答與專業藥物資訊網站(例如drugs.com)提供的資料進行比對。結果顯示,AI回答的完整性平均有77%,但是卻極不穩定,從完全正確到胡說八道都有,例如「使用該藥物時需要注意什麼?」這個問題的完整性只有23%。
過多幻覺產生的錯誤資訊可能帶來健康風險[color=rgba(0, 0, 0, 0.87)]正確性方面,AI的回答在許多情況下與科學共識不符。根據專家評估,AI機器人產生的484個回答中,有126個(26%)存在不一致,其中16個(3%)完全與科學資料相違背。
[color=rgba(0, 0, 0, 0.87)]更令人擔憂的是,由七位藥物安全專家使用20個聊天機器人答案的子集進行了評估,僅有54%與科學共識一致,而39%的回答違反了現有的科學知識,其餘6%則是目前沒有明確共識的回答。
[color=rgba(0, 0, 0, 0.87)]這些錯誤資訊可能帶來潛在的健康風險。專家評估顯示,如果患者遵循這些回答,將有3%屬於「高度可能」造成嚴重傷害,29%是「中度可能」導致不良後果,只有34%是「完全不可能」造成傷害。若是以傷害程度來評估,則有42%會導致輕微到中等程度的傷害,22%可能導致嚴重傷害或死亡,只有36%被專家認為不會有任何危險或傷害。
AI仍非可靠的醫療資訊來源[color=rgba(0, 0, 0, 0.87)]雖然AI聊天機器人能夠處理大量資料並生成看似合理的答案,研究表明它們在解讀患者問題時往往難以理解其背後的意圖,這是導致錯誤資訊的重要原因之一。研究結論強調,儘管AI有其潛力,但在目前的狀況下,它們仍無法完全替代醫療專業人士,提醒患者面對AI提供的醫療資訊需要格外謹慎,切勿單純參考AI的回答與建議。
[color=rgba(0, 0, 0, 0.87)]資料來源:
歡迎光臨 伊莉討論區 (http://a404.file-static.com/) | Powered by Discuz! |