Home 综合新闻 人工智能不思考,它預測:2025 年還剩下什麼以及關於下一部法律的辯論

人工智能不思考,它預測:2025 年還剩下什麼以及關於下一部法律的辯論

16
0

當人工智能只不過是一個隨機概率響應系統時,它就不能被組織成一個有意識的主體。

作者:Alejo Martín Cardoso,Ambito 報紙
2025 年,人工智能已經普及,但對其機制的實際了解仍然少得驚人。

單擊此處加入 DIARIO PANORAMA WHATSAPP 頻道並保持更新

普通用戶每天使用生成模型,就好像它們是理性主體一樣,而實際上它們是基於標記、上下文和算法微調來預測下一個單詞的概率系統。

人們賦予它們意圖、邏輯,甚至道德。這是中毒時代缺乏信息的悖論。沒有人深入或很少深入。技術越是隱形,它就越顯得人性化。

問題在於,公共政策和法律辯論建立在這種幻覺之上,這種幻覺並不與真正的機制進行溝通,而是通過隱藏的參與者精心設計的敘述。

全息幻覺或魔術師的把戲
讓我們明確一點:ChatGPT 不會考慮您的回复。根據在數万億個標記上訓練的 1750 億個參數計算下一個最可能的單詞。這沒有意義:它改善了。不要決定:尊重。我不知道:大約。它的所有操作都被簡化為以它們接收的上下文為條件的概率分佈。進展已經達到這樣的程度:一旦了解了用戶的使用環境,當前的模型就變得越來越主動(具有預測性)。

但事實是,當你提出問題時,模型並不“理解”這個問題。它對您的輸入進行編碼,處理文本片段之間的統計關係,並根據訓練期間獲取的模式返回最可能的單詞序列。沒有語義理解。沒有意圖。數學在工業規模上得到應用。

這個誤會並非小事。這是結構性的。這是一切的條件:如果我們從錯誤的前提開始,我們就會得到錯誤的結果,從如何立法到如何訴訟。

一般組織錯覺
雖然用戶認為他們正在與“情報”交談,但各國發現他們正在依賴“關鍵”供應鏈,他們需要控制這些供應鏈來贏得新的地緣政治競賽。

歐洲正在調查華為是否可以遠程關閉5G網絡。英國想知道中國是否可以停用深圳的電動公交車。美國用數十億美元拯救英特爾免於破產,使其不再完全依賴英偉達製造人工智能芯片。

模式很明確:公民將人工智能視為理性實體,只有一​​些政府在泡沫之下對實際控制權提出質疑。絕大多數人似乎都存在分歧:我們如何監管我們無法控制財務支持的工具?美國和中國已經對這場人工智能主導地位之戰發出警告,並陷入了一場新的地緣政治競賽。

混合概念的影響——生成人工智能、代理、聊天機器人、多模式模型、MLL,所有這些都混合在同一個袋子裡——冒著在不了解基礎設施的情況下使界面合法化的風險,所以唯一結構化的就是屏幕屬於我們的錯覺。

我們在這一年中看到,全球監管仍然局限於可以追溯到另一​​​​個十年前的爭論。布魯塞爾調查谷歌監管商業內容的方式;美國再次爭論這個搜索引擎是否壟斷;圍繞應用商店 30% 佣金的舊事再次浮出水面,彷彿未來仍以屏幕上的圖標掠過。

變化的速度使得對比變得殘酷:當組織者調整鏈接位置時,用戶已經停止搜索鏈接。它對生成模型提出了直接的問題,立法者和法官都無法認真審查生成模型的內部邏輯,因為被稱為黑匣子的數據集沒有立法或邊界。

當世界主要監管機構最近做出明顯矛盾的回應時,我們看到了諷刺。去年 11 月,在華盛頓和科技巨頭的壓力下,歐盟淡化了其人工智能法(世界上第一部人工智能法)的關鍵部分。就美國而言,它已提議將人工智能監管集中到聯邦政府手中,以避免出現 50 個不同的州級框架,但尚未制定全球框架。論點:“與中國競爭。”

事實是,兩個集團都不想被排除在加速創新之外,這些創新有望主導西方的金融、軍事和經濟體系,通過人工智能塑造全球敘事(美國),或控製本國公民(中國)。

也就是說,人工智能不能像一個有意識的參與者一樣組織起來,而它只不過是一個隨機的概率響應系統,其真正的力量集中在五六家全球公司手中,而這些公司今天與世界主要大國結盟。

阿根廷:在暗處監管人工智能
10月,阿根廷眾議院科學、技術和創新委員會提出了“阿根廷有效採用人工智能的路線圖”。該文件認識到人工智能的戰略重要性、其經濟影響以及避免減緩創新的監管的必要性。一切看起來都很合理。但它也表明了所缺少的東西:對其監管機制的清晰描述。

人工智能似乎被定義為一個廣泛的概念——能源、大數據、機器人、物聯網、機器學習,所有這些——最終強調了核心問題:我們正在談論混合人工智能的概念,而沒有完全理解它是如何工作的。人們堅持認為創造力不應該停止,但根本問題並沒有出現:我們到底應該監管什麼?

如果人工智能產生估計,而不是原因,那麼人類責任就不是道德上的突發奇想:它是唯一可能的技術結論。如果不了解這種差異,任何監管框架都會面臨立法隱喻的風險。

阿根廷文件提出在具體方面進行干預是正確的:更新個人數據法、對與合成材料相關的犯罪進行分類,以及定義深度偽造和惡意使用的規則。這個手術組織就是這樣的。尚未解決的是更根本的問題:阿根廷沒有能力組織一項大多數投票支持者都不知道其運作方式的文書。

治理經濟
在人工智能似乎能夠自動解決問題的世界裡,我們忘記了——或者不知道——人工智能沒有道德、倫理或人生計劃。放大您收到的內容。如果您給出標準,請擴展標準。如果你給他一個空白,他就會回答空白。這就是它的本質:它不是啟示,而是一面隨機的鏡子。

危險並不在設備中。正如研究員德瓦克什·帕特爾(Dwarkesh Patel)今年年中指出的那樣:雖然模型變得越來越強大,但收益本身並不巨大,而是取決於人類對系統的使用。這遠不是一個簡單的技術限制,而是完全重新定義了問題:沒有人類標準,人工智能就無法發展。它存在於那些在不了解機制的情況下委託思考的人。不檢查地點就複製答案的律師。法官認為概率結果等同於法律推理。立法者對他們無法精確描述或理解的現象施加標準。

挑戰2026
也許 2026 年真正的挑戰不是通過一項重大的人工智能法律。也許問題更深層:阻止法律在暗處立法,而不是規範機制。

只要我們不了解人工智能是什麼,我們就會在不損害其本質的情況下調節其影響。沒有人的標準,任何組織都只是一張被拋在風中的網。挑戰不是馴服它。這意味著不要將預測與思考混淆,也不要將標準委託給沒有標準的系統。

來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here