人工智能加入了大型複雜世界挑戰的清單,在本週的年度高級會議上,世界領導人和外交官將接近這些挑戰。
自AI繁榮從大約三年前的Chatgpt的開始開始以來,技術的令人嘆為觀止的能力使世界感到驚訝。技術公司已經開發了更大,更好的AI系統,即使專家警告自己的風險,包括工程大流行器和大規模虛假信息等存在威脅以及呼叫保證。
聯合國對新治理體系結構的採用是製動AI的最後和最大的努力。以前的多邊努力,包括大不列顛,韓國和法國組織的AI峰會的三次峰會,僅導致了無約束力的承諾。
上個月,大會採用了一項決議,旨在在AI(全球論壇和一個獨立的專家科學專家小組)上建立兩個關鍵組織,以過渡到世界治理技術的工作。
週三,聯合國安理會的一次會議將召集就此問題進行公開辯論。在要解決的問題中:建議如何幫助保證AI負責任地遵守國際法並支持和平進程和預防衝突?
週四,作為組織年會的一部分,聯合國安東尼奧·古特雷斯(AntónioGuterres)將舉行會議啟動論壇,稱為“全球AI治理對話”。
這是政府和“利益相關者”討論國際合作以及共享思想和解決方案的地方。他應明年在日內瓦正式見面,並於2027年在紐約開會。
同時,招聘應開始為科學小組找到40名專家,其中包括兩個CO -PRESIDENTS,一個來自一個發達國家和一個發展中國家。該小組與聯合國氣候變化小組及其旗艦年度COP會議進行了比較。
新機構代表“象徵性的勝利”。倫敦Chatham House Reflection Group的研究員伊莎貝拉·威爾金森(Isabella Wilkinson)在博客文章中寫道:“到目前為止,他們是統治AI的最具包容性方法”。
她補充說:“但是實際上,新機制似乎主要是無助的。”在可能的問題中,聯合國練習的管理是否能夠調節諸如AI之類的快速技術。
會議開始前,一群有影響力的專家呼籲政府就所謂的紅線達成共識,以便在明年年底之前生效AI,並聲稱技術需要“最低限度的欄杆”,以防止“最緊急,最不可接受的風險”。
該組織,包括Chatgpt Maker Openai的高級僱員,Google DeepMind的AI研究實驗室和聊天機器人人類製造商,希望政府簽署有關AI的國際約束力協議。他們強調,世界已經同意禁止核試驗和生物武器並保護高海的條約。
加利福尼亞大學伯克利分校的AI教授斯圖爾特·羅素(Stuart Russell)說:“這個想法非常簡單。” “就像我們在毒品和核電站上一樣,我們可以要求開發人員證明安全性是市場通道條件。”
羅素建議,聯合國治理可以類似於另一個未解決的機構國際民航組織的運作,該組織與不同國家的安全監管機構進行了協調,並確保它們都在同一頁面上工作。
他說,與其定義一套用石頭制定的規則,不如說,外交官可以撰寫“框架公約”,以反映AI的最新進展。