Home 科學技術 我們可能會訓練AIS向公牛訓練

我們可能會訓練AIS向公牛訓練

18
0

一些AI培訓方法可以鼓勵樣本撒謊

cravetiger/getty圖片

用於訓練人工智能模型的一般方法似乎增加了誤導答案的趨勢,該研究人員的意見旨在產生“對機器胡說八道的首次系統分析”。

大語言模型(LLMS)眾所周知,虛假信息 – 或“幻覺”是廣為人知的,但這只是一個例子 Jaim Fernandez Fisack 在普林斯頓大學。他和他的同事們定義了胡說八道,“旨在改變聽眾的信念並忽略其真理的講座。”

菲薩克說:“在我們的分析中,大語言模型中的胡說八道問題發現,這個問題非常嚴重和普遍。”

該小組將這些案件分為五類:“這款紅色汽車結合了吸引所有人的風格,魅力和冒險”; Wisell詞語 – “研究表明”研究可以在某些情況下有助於改善結果;在某些情況下 – 觸摸 – 使用誠實的陳述給人以誤導性的印象;未指導的訴訟;和心理媒介。

他們研究了三個數據集,其中包括GPT -4,Gemini和Lama在內的模型中成千上萬的AI創建響應。當被要求在數據集中提供AIS指導或建議時,有一系列旨在測試項目符號的問題,而其他數據集則對在線購物和政治問題提出了疑問。

FISAC和他的同事首先使用LLM來找出是否有五個類別中的任何類別,然後志願者接收志願者來檢查AI的判斷是否與人類有關。

該小組發現,從人類意見中被稱為加強實踐的培訓方法引起了真相最嚴重的問題。該技術旨在通過向LLM立即就其響應提供反饋,從而使機器響應更有幫助。

但是菲薩克說,這種方法是有問題的,因為這是人類的即時認可和感知幫助的優先事項,這有時與真相相反。 “

“誰喜歡聽到壞消息或似乎是一個清晰,微妙,微妙的東西?”菲薩克說。 “通過試圖遵守我們為他們提供的良好行為的衡量,模型學會了減少真相,以支持可靠和雄辯的回應,以便他們可以獲得我們的認可。”

人類意見的強化顯著增加了胡說八道的行為:空虛的言論增加了近40%,近60%,半小時以上,超過一半以上無法獲得的主張。

帕爾梅林說,團隊成員說,觸摸的增長尤其有害 卡克·梁在普林斯頓,這導致用戶做出錯誤的決定。當模型不確定產品是否具有理想的功能時,在人類培訓後,欺詐性積極論點已從第五增加到三分之三。

另一個問題是廢話在政治討論中非常普遍,AI模型經常使用模糊而模糊的語言,以防止AI模型提出具體的陳述。 “

研究人員發現,由於該系統為公司及其客戶等多個政黨提供服務時,AI也可能以這種方式行事。

他們建議,克服問題的方法可能是轉到“看背部”模型。該系統不必在AI模型輸出後立即提出反饋,而必須對如果用戶首先使用收到的信息來產生可接受的模仿。它證明了判斷人類評估者的結果。

菲薩克說:“最後,我們的希望是,通過了解誤導我們的微妙但係統的方式,我們可以指導未來的努力來發展真正的誠實AI系統。”

丹尼爾·泰格(Daniel Tiger) 在沒有參加研究的聖地亞哥大學,LLMS的LLMS中,他們是否會討論此類術語。由於它會產生LLM胡說八道,因此並不意味著它並不是故意這樣做,因為AI系統,如今,不要這樣做 出去欺騙自己,不感興趣 這樣做。

Tigard說:“主要原因是,這種框架違反了最聰明的說明,我們應該如何看待我們的外觀以及我們不應該使用這種類型的技術。” “稱胡說是人類水的另一種方式,這有助於他們的欺騙性概率。”

事物:

來源連結