研究:ChatGPT 在回答病人用藥問題時,答案錯誤或不完整的情況達75%

根據站長之家12 月8 日報道,研究發現ChatGPT 在回答關於藥物的患者問題時,答案錯誤或不完整的情況達到了75%。研究建議醫療提供者要注意此生成式AI 模型並非始終提供可靠的醫學建議。在該研究中,對ChatGPT 的免費版本進行了測試,該版本擁有超過1 億用戶。研究警告提供者要警惕,因為許多患者可能依賴ChatGPT 來回答與健康相關的問題。研究由長島大學的藥學研究人員進行,他們首先收集了患者在2022 年和2023 年向大學藥物資訊服務提出的45 個問題,並為這些問題編寫了答案,每個答案都經過第二名研究人員的審查。研究團隊將相同的問題提供給ChatGPT,並將其答案與藥劑師製作的答案進行了比較。研究發現,只有四分之一的ChatGPT 答案令人滿意。具體而言,ChatGPT 未直接回答11 個問題,對10 個問題給出了錯誤答案,並對另外12 個問題提供了不完整的答案。在某些情況下,此AI 模型產生了虛假的科學參考以支持其答案。在每個提示中,研究人員要求ChatGPT 展示其答案中提供的資訊的參考文獻,但模型僅在八個答案中提供了參考文獻,而這些參考文獻全部是虛構的。

Total
0
Shares
Related Posts