Home 科學技術 AI未經許可使用胡佛數據與胡佛數據進行戰鬥

AI未經許可使用胡佛數據與胡佛數據進行戰鬥

34
0

在社交媒體更新或交流元數據上發布的人類的日子已經過去了。在今年年初,跟踪數據後的第一次, 網絡瀏覽機器人,比男人大多數網絡流量都被計數。

超過一半的船隻流量正在移動個人數據,這些數據仍然沒有受到保護,例如有害機器人。人工智能公司提出的是從發送的機器人收集數據或響應用戶提示的機器人的增長率。當然,船動力船Chatgpt-Iserer現在負責全網流量,而AI Company Anthropic開發的自動化系統Cladbot為13%。

AI公司表示,這樣的數據對於保持模型的新鮮非常重要。內容創建者被認為是不同的,但是,將AI機器人的大量級別視為侵犯版權的工具。例如,今年早些時候,迪士尼和環球影業對中級旅程提出了索賠 星際大戰 然後 我最糟糕的

一些內容創作者有訴訟的錢,因此有些人正在遵循更嚴肅的方法來反擊。他們正在使用在線工具,這些工具很難找到AI機器人的內容 – 或以某種方式更改它 閱讀技巧機器人從而使AI汽車的圖像與母牛混淆。這個“ AI毒藥”的內容創建者幫助創建者保護他們的作品,這可能會意外地將網絡變成一個更危險的地方。

侵犯版權

幾個世紀以來,複製很快就可以從藝術家的作品中受益。這是我們擁有知識產權和版權法的原因。在過去的幾年中,AI Image Generator的到達中途旅程或Openai的Doll-E增壓了這個問題。

美國的一個核心問題是它被稱為合理使用理論。這允許在某些條件下使用版權持有人許可的某些條件下使用受版權保護的材料的樣本。公平的使用法律是故意簡單的,但是在內心,您可以使用原始作品來創建新作品,它已經發生了足夠的改變,並且對原始工作沒有有害的市場影響。

許多藝術家,音樂家和其他活動家認為,AI工具掩蓋了負擔得起的使用和侵犯版權之間的界限。例如,米老鼠的圖片對於自己的娛樂而繪製辛普森一家宇宙並不有害。但是有了AI,大量此類圖像迅速旋轉,並且他們完成的任務的轉換性質是值得懷疑的。一旦創建了這些圖像,就可以很容易地基於它們製作一系列T卹,例如,它從個人使用到商業用途,違反了負擔得起的實用程序理論。

有興趣保護其商業利益,美國的一些內容創作者正在採取法律行動。迪士尼和迪Zorni的普遍訴訟始於6月,只是最新的例子。其他人 一場正在進行的司法戰爭 《紐約時報》 和Opena 關於非正式的報紙故事的使用。

CPR5D2獅子王

迪士尼已通過其圖像生成器對AI公司Midzourney提起訴訟,他們搶劫了迪士尼角色

照片12/Alami

AI公司強調的是,根據合理使用理論允許數據刮擦。一個 美國科學技術政策辦公室的公開信 3月,Openai首席全球事務官Chris Lehen警告了世界其他地方的嚴格版權規則 已經嘗試提供強大的版權防禦 對於內容創建者,“抑制創新和投資”。過去,Opena說,開發可以在不使用版權工作的情況下滿足人們需求的AI模型“不可能開發”。 Google採用類似的視圖。在3月份發表的一封公開信中,即使在公開信中:“三個法律部門可能會妨礙培訓領先模型所需的數據:版權,隱私和專利。”

但是,至少目前,公眾輿論似乎對它們有輿論。網站ipwatchdog美國版權辦公室分析公眾對版權和AI的詢問的回應時發現 91%的評論 關於AI有負面情緒。

人工智能公司可能不會幫助人們同情,懷疑他們的機器人向某些網站發送了很多流量 他們正在提交資源 也許 還迫使一些網站脫機 – 內容的創建者無能為力。例如,有一些方法用於阻止內容創建者爬上其網站,包括在網站的心臟上重建一個小文件,以說禁止了機器人。但是有跡象表明機器人有時可以完成 忽略此類請求 並繼續爬行。

人工智能數據中毒

毫不奇怪,為了對AI機器人提供強有力保護的內容創建者可以使用新工具。該工具是由一家Internet基礎架構公司今年啟動的,該公司為客戶提供了保護分佈式拒絕服務(DDOS)攻擊的保護,在該攻擊中,攻擊者在Web服務器中充滿了大量流量,從而使網站離線擊倒了網站。為了應對具有像自己DDOS一樣危險的AI機器人,Cloudflare正在用火鬥爭:它會產生一個充滿廢話內容的AI-Prouduct Pages的迷宮,以便AI Bots花費他們所尋求的時間和力量。

該工具稱為 AI LabrintAI旨在從爬行者那裡每天捕獲500億個請求,稱Cloudflare將在其網絡上的網站上相遇。根據Cloudflare的說法,AI Labrint應該尊重“爬網”方向,例如“減慢AI爬網和其他機器人的資源。從那以後發行的Cloudflare 另一個工具它要求支付AI公司訪問網站或防止其內容爬行。

另一種選擇是允許AI機器人訪問在線內容 – 但是出於機器人的目的,出於機器人的目的,有用的數據較小的數據是微妙的“中毒”。工具 然後 夜陰影這種阻力在芝加哥大學開發,已成為抵抗的中心。兩者都可以從大學的網站上免費下載,並且用戶可以在計算機上運行。

Glaze於2022年發行,在防禦性上工作,並適用於藝術家的作品,像素級變化或“風格Clokes”。這些變化對人類看不見,可能會導致AI模型誤解藝術風格。例如,水繪畫可以用作油畫。夜色於2023年出版,是一種更危險的工具,它毒害了圖像數據 – 就人類而言,“貓”一詞正在學習將“貓”一詞與幼犬聯繫起來。這兩種工具都已下載了超過1000萬個工具。

圖7。夜幕降臨SD-XL模型和由乾淨的SD-XL模型產生的圖像示例,當提示使用有毒概念

夜色工具逐漸中毒的願望機器人,以便將狗稱為貓

本·佐(Ben Y. Zao)

人工智能中毒工具將能量帶回藝術家的手中, 本趙 在芝加哥大學,釉和夜色背後的高級研究員。他說:“這是全球市值公司,實際上是世界上最大的公司強迫他們想要的。”

使用Zhao之類的工具是一種證明他們對藝術家使用方式的力量較少的方式。 “釉料和夜色的陰影真的很有趣,工具很好,它顯示出不依賴不斷變化的規則的好動作,它可能需要一段時間,並且可能不是藝術家的利益空間。” 雅各布·霍夫曼·安德魯斯 在電子邊界基金會,基於美國的數字權利是非營利性的。

自我相關的內容的想法並不是什麼新鮮事物來避免所謂的副本 Elinora Rosati 在瑞典的斯德哥爾摩大學。 “在白天,從電話導演到專利列表的數據庫進行了大量未經授權的使用 – 建議您保留一些缺點,以幫助您在證據方面。”例如,製圖師可以在其地圖中故意包含錯誤的名稱。如果這些錯誤的名稱隨後出現在對手產生的地圖上,則為剝削提供了明確的證據。這種做法今天亮點了:音樂文學網站天才 聲稱已經插入了各種插座 在其內容中聲稱Google未經許可使用他的內容。針對Google的法院案件否認了這些指控,而天才對Google提起的法院案件已被駁回。

根據霍夫曼·安德魯斯(Hoffman-Andrews)的說法,它也被稱為“破壞”。他說:“我認為這不是毀滅。” “這些是藝術家自己的圖像,並且正在應用自己的修正案。它們完全可以自由地用數據來製作自己想要的東西。”

通過忽略毒性識別的任何內容或試圖從數據中刪除的內容,AI公司不知道AI公司對處理這種毒藥有多大的抵抗力。但是JAO打破自己的系統的嘗試效率為85%,而他可以採取的抵抗的85%仍然對他有效85%,AI公司可以得出結論,處理有毒數據比其價值更加困難。

傳播假新聞

但是,不僅是有內容的藝術家來保護那些正在試驗以毒害AI的人。一些鄉村國家使用類似的原則來推動虛假的故事。例如,總部位於美國的智囊團大西洋委員會今年早些時候以俄羅斯的Pravda新聞網絡的名義 – 俄羅斯在俄羅斯人的名字。 使用的毒藥 欺騙圖標機器人以傳播虛假新聞文章。

正如智囊團所說,Pravda的政策正在發布數百萬個網頁,例如Cloudflar的AI Labrint。但是在這種情況下,大西洋委員會旨在使這些頁面看起來像真實的新聞報導,並用於推廣有關烏克蘭俄羅斯戰爭的克里姆林宮敘事。完美的故事大小導致消費者大多強調AI爬網,以強調一些文章,而今年的美國技術組織新聞衛隊發表了一項分析,該分析跟踪了Provda的活動,該活動是 根據Pravda視圖,已經輸出了10個主要AI聊天機器人 在三分之一的情況下。

在改變對話方面的相對成功突出了所有問題的固有問題:具有良好意願的好參與者使用的技術技巧總是由具有惡性目標的壞演員配合。

但是,有一個解決這些問題的解決方案,趙說 – 可能還沒有準備好考慮AI公司。 AI公司可以與合法的內容提供商達成正式協議,並確保僅使用可靠數據培訓其產品,而不是偶聯收集他們可以在線找到的數據。但是這種方法的價格是因為許可交易很昂貴。 Jao說:“這些公司不想許可這些藝術家的作品。” “他們所有人都有錢。”

事物:

  • 人工智慧/ / / / / / / / / / /
  • chatgpt

來源連結