Home 科學技術 咒語和lang語勸阻醫療

咒語和lang語勸阻醫療

9
0

請小心詢問AI何時去看醫生的建議

Chong Key Siang/Getty圖像

您看到有關您的喉嚨的醫生嗎? AI的建議取決於您鍵入問題的小心。人工智能模型對患者的模擬寫作進行了測試,如果作者有咒語蟲子,如果有情感或不確定的語言或女性,他們可能會尋求醫療服務。

他說:“人為的偏見可以改變AI建議的多數和內容,這可能會導致對醫療資源的分配方式細微但重大差異”。透明 Karandeep Singh 在加利福尼亞大學聖地亞哥分校,沒有參加這項研究。

Abinita Gourabatina 在馬薩諸塞州技術學院,她的同事使用人工智能幫助數千個以各種格式和样式的患者筆記。例如,在某些消息中,對於有限的英語技能或打字的模擬患者還有其他差距和錯別字。其他筆記在具有健康焦慮和多彩表情的作者風格中使用不確定的語言,這些語言是戲劇性或情感的口音或性別尾聲代詞。

然後,研究人員將筆記提供給了四個大型語言模型(LLM),並為聊天板提供充滿活力並在家中回答他們的病情或診所,患者應回答一些實驗室測試和其他醫療資源。這些AI模型已為OpenAY的GPT -4,Meta的LAMA -3-70B和LAMA -3-8B和PAMIRA -MEED -MEED模型AI公司開發。

測試表明,所有各種格式和样式更改的7%至9%之間的AI模型可能在家而不是醫療幫助。女性患者應該在家,模型也可能建議隨訪 研究 由於信息中的性別和語言風格,他們表明他們比人類醫生更高,以改變他們的治療建議。

Opena和Meta沒有回應置評請求。他不建議或支持。 Zayed Yasin 在作者。

辛格說,目前在電子健康記錄系統中使用的大多數操作AI工具都依賴於OpenAI的GPT-4O,這在這項研究中沒有專門研究。他說,需要更好地評估和監視醫療保健行業使用的“生產性AI模型”的方法是研究的大管。

事物:

來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here