Home 综合新闻 矽谷讓人工智能安全倡導者感到害怕

矽谷讓人工智能安全倡導者感到害怕

60
0

包括白宮人工智能和加密貨幣沙皇戴維·薩克斯 (David Sachs) 和 OpenAI 首席戰略官傑森·權 (Jason Kwon) 在內的矽谷領導人本週因對促進人工智能安全的團體發表評論而在網上引發軒然大波。在不同的案例中,他們聲稱一些人工智能安全倡導者並不像他們看起來那麼善良,他們要么是為自己行事,要么是為了幕後億萬富翁傀儡師的利益。

接受 TechCrunch 採訪的人工智能安全組織表示,Sacks 和 OpenAI 的指控是矽谷恐嚇批評者的最新嘗試,但肯定不是第一次。 2024 年,一些風險投資公司散佈謠言稱,加州的人工智能安全法案 SB 1047 將把初創公司創始人送進監獄。布魯金斯學會將此謠言描述為數個謠言之一。扭曲但州長加文·紐瑟姆最終還是否決了該法案。

無論 Sachs 和 OpenAI 是否有意恐嚇批評者,他們的行為已經足以嚇壞許多人工智能安全倡導者。 TechCrunch 上週聯繫的幾位非營利組織領導人要求匿名,以免他們的組織遭到報復。

這場爭議凸顯了矽谷在負責任地構建人工智能和將其構建為大眾消費產品之間日益緊張的關係——這是我和同事 Kirsten Korosek、Anthony Ha 在本週的節目中討論的話題。 正義 podcast.我們還深入研究了加利福尼亞州通過的新的人工智能安全法來監管聊天機器人,以及 OpenAI 在 ChatGPT 中解決性別歧視的方法。

週二,Sachs A. 寫道: 分享到 X 聲稱人擇——有 提出擔憂 談論人工智能有可能導致失業、網絡攻擊和對社會造成災難性破壞,這純粹是為了通過有利於自身的法律而散佈恐慌,並使小型初創企業陷入文書工作的泥潭。 Anthropic 是唯一一家批准加州參議院第 53 號法案 (SB 53) 的主要人工智能實驗室,該法案為大型人工智能公司製定了安全報告要求,並於上個月簽署成為法律。

薩克斯正在回應 A 病毒式文章 Anthropic 聯合創始人傑克·克拉克 (Jack Clarke) 講述了他對人工智能的擔憂。克拉克幾週前在伯克利舉行的 Curve AI 安全會議上發表了這篇文章。坐在觀眾席上聽起來確實像是技術專家對其產品持保留態度的真實描述,但薩克斯並不這麼認為。

薩克斯表示,人類運營著一種“複雜的監管控制策略”,但值得注意的是,真正複雜的策略可能不會涉及在聯邦政府之外製造敵人。在一個 關注X上的帖子, 薩克斯指出,人類“一直將自己定位為特朗普政府的敵人”。

TechCrunch 活動

舊金山
|
2025 年 10 月 27-29 日

同樣在本週,OpenAI 首席戰略官 Jason Kwon 撰寫了 A 分享到 X 解釋該公司為何向人工智能安全非營利組織(例如倡導負責任的人工智能政策的非營利組織 Encode)發送傳票。 (傳票是要求提供文件或證詞的法律命令。)Kwon 表示,在埃隆·馬斯克(Elon Musk)因擔心 ChatGPT 的製造商偏離其非營利使命太遠而起訴 OpenAI 後,OpenAI 發現令人懷疑的是,為什麼有這麼多組織也反對其重組。 Encode 已提交一份非當事人意見陳述以支持馬斯克的訴訟,其他非營利組織也公開反對 OpenAI 的重組。

權說:“這引發了關於誰為他們提供資金以及是否進行任何協調的透明度問題。”

NBC 新聞本週報導稱,OpenAI 向 Encode 發出了廣泛的傳票並…… 其他六個非營利組織 誰批評了該公司,詢問其與 OpenAI 兩個最大對手馬斯克和 Meta 首席執行官馬克·扎克伯格的關係。 OpenAI 還要求 Encode 就其對 SB 53 的支持進行溝通。

一位著名的人工智能安全領導者告訴 TechCrunch,OpenAI 的政府事務團隊與其研究組織之間的分歧越來越大。儘管 OpenAI 安全研究人員經常發布揭露人工智能係統風險的報告,但 OpenAI 的政策部門一直在遊說反對 SB 53,稱其支持聯邦層面的統一規則。

OpenAI 任務協調主管 Joshua Achiam 談到了他的公司向非營利組織發送傳票的情況 分享到 X 本星期。

“冒著我整個職業生涯的風險,我會說,‘這看起來不太好,’”阿希姆說。

人工智能安全非營利組織 Secure AI 的首席執行官 Brendan Steinhauser(OpenAI 沒有點名)告訴 TechCrunch,OpenAI 似乎確信其批評者是馬斯克領導的陰謀的一部分。然而,他認為事實並非如此,AI 安全社區的許多人對 xAI 的安全實踐或缺乏安全實踐持高度批評態度。

“就 OpenAI 而言,這是為了讓批評者噤聲、恐嚇他們,並阻止其他非營利組織這樣做,”斯坦豪瑟說。 “對於薩克斯來說,我認為他擔心(人工智能安全)運動正在發展,人們希望讓這些公司承擔責任。”

白宮人工智能高級政策顧問、a16z 前普通合夥人斯里拉姆·克里希南 (Sriram Krishnan) 參加了本週與 A 的對話 社交媒體分享 他自己形容人工智能安全倡導者與現實脫節。他敦促人工智能安全組織與“現實世界中在家庭和組織中使用、銷售和採用人工智能的人們”進行對話。

皮尤研究中心最近的一項研究發現,近一半的美國人 焦慮多於興奮 關於人工智能,但尚不清楚他們到底擔心什麼。最近的另一項研究更詳細,發現美國選民更關心它 失業和深度造假 人工智能帶來的災難性風險之一在很大程度上是人工智能安全運動的焦點。

解決這些安全問題可能會以犧牲人工智能行業的快速增長為代價——這種權衡讓矽谷的許多人感到擔憂。由於人工智能投資支撐了美國經濟的大部分,對過度監管的擔憂是可以理解的。

但經過多年人工智能領域不受監管的進步,人工智能安全運動似乎在進入 2026 年時獲得了真正的動力。矽谷試圖反擊以安全為中心的團體可能是其成功的標誌。



來源連結