Home 综合新闻 研究稱人工智能模型大約有一半的時間會扭曲新聞事件

研究稱人工智能模型大約有一半的時間會扭曲新聞事件

45
0

研究顯示,45% 的新聞相關問題回復中至少包含一個“重要”問題。

一項研究發現,ChatGPT 等人工智能模型經常會歪曲新聞事件,在幾乎一半的情況下為問題提供錯誤答案。

歐洲廣播聯盟 (EBU) 和 BBC 週三發布的這項研究評估了 OpenAI 的 ChatGPT、谷歌的 Gemini、微軟的 Copilot 和 Perplexity 提供的 2,700 多個答案的準確性。

推薦故事

4 項清單列表末尾

代表 18 個國家和 14 種語言的 22 家公共媒體在 5 月底至 6 月初期間向人工智能助手提出了一系列常見問題以進行這項研究。

研究顯示,總體而言,45% 的答案至少有一個“重要”問題。

確定來源是最常見的問題,31% 的答案包括引用來源不支持的信息、不正確或無法驗證的歸屬等問題。

缺乏準確性是導致錯誤答案的第二大因素,影響了 20% 的答案,其次是缺乏適當的上下文,佔 14%。

研究顯示,雙子座的問題最為嚴重,主要與來源有關,76% 的回复受到影響。

研究表明,所有研究的人工智能模型都犯了基本的事實錯誤。

引用的錯誤包括 Perplexity 聲稱代孕在捷克共和國是非法的,以及 ChatGPT 在教皇方濟各去世幾個月後任命他為現任教皇。

OpenAI、谷歌、微軟和 Perplexity 沒有立即回應置評請求。

在報告的介紹中,歐洲廣播聯盟總檢察長讓-菲利普·德泰德和BBC人工智能主管皮特·阿切爾呼籲科技公司採取更多措施減少產品中的錯誤。

“他們還沒有優先考慮這個問題,現在需要這樣做,”德泰德和阿切爾說。

“他們還必須通過定期按語言和市場發布結果來保持透明。”

來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here