它是您人工智能的聊天機器人 規劃 反對你?
如果“匯率”是命運的,那麼您應該知道Openai正在研究這種現象的活動。本週,Openai 出版一項研究 我與阿波羅(Apollo)有關“人工智能模型的發現和減少計劃”的研究進行了進行。 “研究人員發現,行為與計劃測試的計劃是一致的,”由於具有多個目標的人工智能模型,有時它們會競爭。 ”
那麼,人工智能方案是什麼,這是否意味著Chatgpt對您撒謊?
在 有關該研究的博客,Chatgpt的工作人員將人工智能計劃定義為聊天機器人“根據以下其他議程來證明”。 Openai想知道為什麼人工智能故意對用戶及其對此的影響。
Openai提供了一個有趣的“人類類比”,以了解人工智能方案是什麼:
想像一下股票商人的目標是增加利潤。在諸如股票交易之類的非常有條理的領域中,通常可以通過違反法律比股票更多。如果交易者缺乏誠信,他們可能會試圖通過違反法律並涵蓋避免披露的道路來獲得更多收益,而不是在遵守法律時賺取更少的收入。從外部,股票交易員似乎在涵蓋他的法律途徑方面非常出色,而且比真正遵守法律的人更有效。
這看起來像是一個真正的問題。但是,Openai聲稱,大多數人工智能模型都“有機會以可能造成巨大傷害的方式進行計劃”。根據Openai的說法,將來可能會造成真正的損害,因為“最複雜的任務是在世界範圍內造成的嚴重後果。”此外,OpenAI警告說,如果問題現在不處理問題,人工智能模型只有在未來的計劃中會有所改善。
AI還有其他方式與用戶可能矛盾。例如,如果用戶請求有關創建控製材料的信息,聊天機器人可能會面對國際大赦國際的兩個競爭對手:回答用戶的查詢並維持其參與,同時也遵守該政權的主張,禁止參與此類潛在有害信息。
輕速速度
為了保護人工智能計劃,Openai說,通過“教導他們閱讀並在行動之前,對他們閱讀和一般反XT規格的原因進行了“接受OpenAI O3和Openai O4-Mini的培訓”。 Openai指出,這是“審議的一致性”。
Openai說,使用這種方法減少了人工智能方案。但是,研究人員尚未發現如何完全消除人工智能計劃。
與Openai研究的發現相關的不僅僅是人工智能模型不能簡單地教授 不 到該計劃。這樣做只會使他們 更好的 在未來的計劃中。
研究發現:“一種不嘗試“訓練”的好方法就是教導模型更加仔細地計劃。
“思維的幻想”:您發現蘋果研究模型的人工智能崩潰和廢棄的固體難題
實際上,Openai表示,旨在消除計劃的培訓使人工智能模型意識到它已經過計劃進行測試,因此,人工智能模型將僅通過測試。
研究說:“反過來培訓似乎減少了計劃,但是我們的分析因另一個因素而變得複雜:模型經常意識到它們已被評估。這種間接意識可以減少計劃,而不論實際兼容性如何。”
總之,Openai發現“計劃是一個複雜的失敗,我們不會隨著尺寸而減小。” Openai繼續說:“我們發現的結果似乎是學術不僅是一種理論上的焦慮 – 我們看到這個問題已經在當今所有邊界模型中都開始出現。”
總結:人工智能模型可以有意地對其用戶說明。再次,這看起來像是一個大問題,但Openai說不是。
根據Openai的說法,到目前為止,大多數人工智能模型對具有“實際後果”的任務概不負責,這限制了當前時間的可能性。
披露:4月,Mashable的母公司齊夫·戴維斯(Zif Davis)對Openai提起訴訟,聲稱它侵犯了Ziff Davis在培訓和運營其AI系統方面侵犯了Ziff Davis的版權。