Home 综合新闻 在Sudoku中,人工智能很糟糕。展示她的作品是更糟糕的

在Sudoku中,人工智能很糟糕。展示她的作品是更糟糕的

14
0

當您看到他們做好事,例如編寫電子郵件或創建奇怪而將來的圖像時,聊天機器人確實令人印象深刻。但是我請進口商智商在報紙後面解決這些難題之一,並且可以迅速推出。

這就是科羅拉多大學的研究人員在Bulder挑戰大型語言模型以解決Sudoku時發現的。甚至沒有標準的9×9難題。 6 x 6的難題通常沒有外部幫助的LLM功能(在這種情況下是指定的拼圖工具)。

ai ai

當要求模型展示他們的作品時,出現了一個更重要的發現。對於最大的部分,它們不能。有時他們撒謊。有時他們以毫無意義的方式解釋了事情。有時他們在問候,開始談論天氣。

Bulder科羅拉多大學計算機科學教授Ashotosh Trevidy,我們的一位作者說:“ 7月,它發表在彌撒協會的結果中。

特雷維迪說:“我們真的希望這些解釋是透明的,並反映了做出人工智能的原因。”


不要錯過任何非偏見的技術內容和基於實驗室的評論。 添加CNET 作為最喜歡的Google來源。


該論文是越來越多的大語言模型行為研究收集的一部分。例如,其他最近的研究發現,模型是部分侮辱性的,因為他們的培訓程序促使他們取得了用戶會喜歡的結果,而不是準確的東西,或者使用LLMS來幫助他們寫作的人不太可能記住他們所寫的內容。由於AI遠比我們的日常生活變得越來越多,因此該技術的工作方式以及使用它在使用時的行為的影響非常重要。

當您做出決定時,您可以嘗試證明它是合理的,或者至少解釋了您如何達到它。人工智能模型可能無法執行相同的準確或透明。你相信他嗎?

觀看以下內容: 我從頭開始構建了一台計算機

你為什麼與sudoku鬥爭

我們已經看到了以前在基本遊戲和難題中失敗的人工智能模型。 1979年,Atari的計算機折扣在國際象棋遊戲中完全從Openai粉碎了Chatgpt。 其他難題,例如河內塔

它可以實現LLMS的工作方式並填補信息的空白。這些模型試圖根據其培訓數據中的類似情況或他們過去所見過的其他事物來完成這些差距。對於Sudoku,問題是邏輯之一。人工智能可能會根據似乎是合理的答案來填補每個空白,但要正確地解決它,相反,它必須查看整個圖像,並找到從神秘變為神秘的邏輯安排。

閱讀更多: 根據我們的專家的說法,您可以為您提供29種AI的方法

出於類似原因,聊天機器人在國際象棋中很糟糕。他們發現以下邏輯動作,但他們不一定會認為三個,四或五個動作向前邁進,這是出現象棋所需的基本技能。聊天機器人還傾向於以不會真正遵守規則或將碎片陷入毫無意義的危險的方式移動國際象棋。

您可能希望LLMS能夠解決Sudoku,因為它們是計算機,而且神秘由數字組成,但是難題本身並不是真正的運動。這是像徵性的。 CU教授,研究論文的作者之一Fabio Sumanzi說:“ Sudoku以可以用任何不是數字的數字而聞名。”

我使用了從研究人員論文中指示的樣本,並將其交給了chatgpt。該工具向她展示了她的作品,她一再告訴我,在表現出謎團之前的答案沒有成功,然後返回並糾正它。好像機器人在演示文稿中繼續進行第二次修改:這是最終答案。不,實際上不在乎, 這是最終答案。她最終通過經驗和錯誤獲得了答案。但是,經驗和錯誤並不是在報紙上解決Sudoku的實際方法。這是擦除和破壞樂趣的數量。

一個機器人與一個人的象棋。

如果人工智能和機器人是用於操作的遊戲,則可以在遊戲中很好,但是諸如大語言模型之類的一般目的可以與邏輯難題作鬥爭。

huiying/彭博/蓋蒂圖片

大赦國際正在努力展示其工作

科羅拉多州的研究人員只想知道機器人是否可以解決難題。他們要求解釋機器人如何通過它們工作。事情進展不順利。

Openai的思維模型測試,研究人員認為,即使是針對正確解決的難題的解釋,也無法準確解釋或證明其動作和基本術語的合理性也降低了。

CU計算機助理教授Maria Pacico說:“他們擅長的一件事就是提供合理的解釋。” “他們與人類一致,因此他們學會說我們喜歡說話,但是如果他們是真誠的,那麼解決事物的實際步驟應該是我們面對的地方。”

有時,解釋是完全相關的。自從論文工作完成以來,研究人員繼續測試發布的新模型。 Sumanzi說,當他和Trevide是OpenAI中的Openai思維模型時,在某個時候,他似乎完全投降了。

他說:“我們問的下一個問題,答案是丹佛的天氣預報。”

(披露:母公司CNET的齊夫·戴維斯(Zif Davis)對Openai提起訴訟,聲稱它侵犯了Ziff Davis在培訓和操作人工智能係統中的版權。)

解釋自己是一項重要技能

當您解決難題時,您一定會以自己的思維方式走動另一個人。這些LLM在此基本功能中驚人地失敗的事實並不是一個微不足道的問題。在人工智能公司的情況下,您會不斷談論可以代表您採取行動的“人工智能代理人”,因此必須解釋自己的能力。

考慮現在授予人工智能的功能的類型,或在不久的將來計劃:駕駛,徵稅,設定工作策略和翻譯重要文件。想像一下,如果您,一個人,其中一件事情和錯誤發生的事情會發生什麼。

Suminzi說:“當人類不得不將面孔置於決定面前時,最好能夠解釋導致這一決定的原因。”

這不僅僅是獲得合理答案的問題。它應該是準確的。有一天,對人工智能的解釋本身可能被迫承受法院,但是如果知道它撒謊的話,如何認真對待其證詞呢?您不會相信一個未能解釋自己的人,也不會相信有人會發現他說您想听的話而不是真相。

特雷維迪說:“如果出於錯誤的理由進行操作,對操作有非常緊密的解釋。” “對於這些解釋的透明度,我們必須非常謹慎。”



來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here