危險的陷阱:用戶與AI聊天機器人爭奪健康建議


隨著世界具有人工智能的潛力,尤其是在金融和技術等領域,其在醫療保健中的應用也在引起關注。許多人正在探索AI工具,特別是AI聊天機器人,以獲取快速的健康信息,尤其是在長期等待傳統護理的情況下。但是,最近的一項研究強調了用戶在從這些系統中尋求有用的健康建議時面臨的重大挑戰。

為什麼很難從AI聊天機器人那裡獲得健康建議?

根據牛津研究人員領導的一項研究,當人們使用AI聊天機器人進行健康建議時,會有“雙向溝通分解”。用戶難以提供正確的信息,聊天機器人通常會提供很難理解或包含好建議和壞建議的答案。這意味著與使用傳統在線搜索或自己的知識的人相比,使用聊天機器人的人對潛在健康問題的決定並沒有做出更好的決定。

聊天機器人研究涉及什麼?

聊天機器人的研究包括英國約1,300名參與者。他們得到了醫生撰寫的醫療方案,並要求使用聊天機器人和其他方法確定可能的條件和行動。該研究測試了流行模型,例如GPT-4O,Cohere’s Command R+和Meta的Llama 3。

研究結果令人擔憂:

使用聊天機器人時,參與者不太可能識別相關的健康狀況。 他們更有可能低估了所確定的條件的嚴重程度。 在查詢聊天機器人時,用戶通常會忽略關鍵細節。 聊天機器人的響應經常將有用的信息與不良建議融合在一起。 醫療保健中醫療AI的推動力

儘管面臨這些挑戰,但主要科技公司仍在開發醫療AI應用程序中的醫療應用程序。據報導,蘋果正在從事運動,飲食和睡眠建議的工具。亞馬遜正在探索AI來分析社會健康因素的醫學數據。微軟正在協助建立AI,以管理護理提供者的患者消息。

但是,醫學界和人工智能公司本身表示謹慎。美國醫學協會建議醫生使用聊天機器人進行臨床決策,並警告Openai這樣的公司不要使用聊天機器人進行診斷。

依靠AI醫療保健工具進行自我診斷的風險

該研究強調了依靠當前的AI醫療保健工具進行自我診斷的風險。錯誤識別情況或低估其嚴重性會導致延遲或不正確的治療,從而惡化健康結果。專家建議使用可信賴的來源進行健康決策。

與AI健康一起前進

專家建議,像新藥物一樣,旨在醫療保健使用的AI系統應在廣泛部署之前在現實環境中進行徹底的測試。當前的評估方法並未完全捕獲與這些工具相互作用的複雜性。

結論

儘管醫療保健中AI的潛力很大,但此聊天機器人研究強調了AI聊天機器人提供可靠的健康建議的當前局限性。用戶在與這些工具有效互動時面臨困難,在尋求醫療AI進行AI醫療保健系統中的自我診斷時,可能會帶來潛在的危險結果。謹慎和對專業醫療指導的依賴仍然至關重要。

要了解有關最新AI醫療保健趨勢的更多信息,請探討我們有關塑造醫療AI功能的關鍵發展文章。

資訊來源:由0x資訊編譯自BITCOINWORLD。版權歸作者Editorial Team所有,未經許可,不得轉載

Total
0
Shares
Related Posts