ChatGPT 正在使用 Grokipedia 作為來源而且它並不是唯一能做到這一點的人工智能工具。對埃隆·馬斯克人工智能創建的百科全書的引用也開始出現在谷歌的人工智能概述、人工智能模組和雙子座的答案中。數據表明,隨著馬斯克試圖改變他的形象的現實,人們對準確性和錯誤信息的擔憂與日俱增。
自從去年 10 月底推出扭曲的維基百科克隆版以來,Grokipedia 從技術上講仍然是所有信息的一個小來源。 SEO 公司 Ahrefs 營銷策略和研究主管 Glenn Alsop 說道 邊緣 該公司的測試發現,來自 1360 萬條提示的超過 263,000 條 ChatGPT 回復中引用了 Grokipedia,其中近 95,000 條引用了單獨的 Grokipedia 頁面。奧爾索普說,相比之下,英語維基百科有 290 萬條回复。 “它們還有很長的路要走,但它們的新穎性仍然令人印象深刻,”他說。
“它們還有很長的路要走,但它們的新穎性仍然令人印象深刻。”
營銷平台研究員 Sartaj Rajpal 表示,基於跟踪數十億次引用的數據集,Grokipedia 每天收到的 ChatGPT 引用量佔所有 ChatGPT 引用的 0.01% 至 0.02%,雖然份額很小,但自 11 月中旬以來穩步增長。
Semrush 通過 AI Visibility Toolkit 跟踪品牌在 Google Tools 的 AI 答案中的出現情況,發現自 12 月以來 Grokipedia 在 AI 答案中的可見度也有類似的提升,但表示與 Wikipedia 等成熟的參考平台相比,它仍然是一個非常次要的來源。
分析師在 ChatGPT 上的 Grokipedia 引用比在任何其他平台上都更明顯 邊緣 追踪。然而,SemRush 在 12 月份發現 Google 的 AI 產品(Gemini、AI Overviews 和 AI Mods)出現了類似的激增。 Ahrefs Alsop 表示,Grokipedia 在大約 950 萬、1.2 億、1400 萬和 1400 萬至 1400 萬個 Gemini 測試中分別有大約 8,600 個 Gemini 答案、567 個 AI Overviews 答案、7,700 個 Copilot 答案和 2 個 Perplexity 答案。前。沒有機構 邊緣 但 Anthropics 採訪了該進化枝的引用情況 許多 敘述 報告 社交媒體上的聊天機器人也引用 Grokipedia 作為來源。
在許多情況下,人工智能工具似乎引用 Grokipedia 來回答適當、模糊或高度具體的事實問題。 衛報 報導 上週晚些時候。分析師對此表示同意。分析公司 BrightEdge 首席執行官 Jim Yu 表示 邊緣 ChatGPT 和 AI Overview 使用 Grokipedia 進行“敏感查詢”,例如百科全書式查找和定義,儘管它們在獲得多少權力方面存在差異。對於人工智能的概述,Grokipedia 並不是獨立的,它“通常與許多其他來源一起被視為”“補充參考而不是主要來源”,Yu 說。當 ChatGPT 使用 Grokipedia 作為來源時,它賦予了它很大的權威,“通常將其顯示為查詢引用的第一個來源之一,”Yu 說。
專家警告說,即使對於相對普通的用途,使用 Grokipedia 作為來源也有傳播錯誤信息和宣傳有偏見內容的風險。與由人類在透明過程中編輯的維基百科不同,Grokipedia 由 xAI 的聊天機器人 Grok 提供支持。格羅克最出名的或許是他對納粹的崩潰,他稱自己為機甲希特勒,崇拜馬斯克,最近還以數字方式消滅了網上的人,包括未成年人。當它推出時,Grokipedia 的大部分文章都是維基百科的直接克隆,但許多文章反映了種族主義和跨性別者恐懼症的觀點。例如,有關馬斯克的故事很容易淡化他家族的財富和過去不愉快的方面(例如新納粹和支持種族隔離的觀點)並錯誤地輸入了“同性戀淫穢”。 鏈接 20 世紀 80 年代艾滋病毒/艾滋病流行不斷升級的根源。關於美國奴隸制的文章仍然有一個很長的章節涉及“意識形態理由”,包括“從必要的邪惡到積極的善的轉變”。剪輯工作也是由 Grok 監督的,也同樣存在缺陷。 Grokipedia 更容易受到所謂的“LLM 修飾”或數據中毒的影響。
在評論中 邊緣OpenAI 發言人 Shaokyi Amdo 表示:“當 ChatGPT 搜索網絡時,它的目的是從與用戶查詢相關的廣泛公開資源和觀點中獲取信息。” Amdo 還表示,用戶可以通過查看來源自行檢查來源:“我們應用安全過濾器來降低與高嚴重性漏洞相關的鏈接的風險,ChatGPT 清楚地顯示哪些來源通過引用進行了回應,允許用戶直接探索和評估。”
“ChatGPT 清楚地顯示了哪些來源通過引用提供了回應,允許用戶直接探索和評估來源的可信度。”
Perplexity 發言人 Bejoli Shah 不會就引用 LLM Grooming 或 Grokipedia 等人工智能生成材料的風險發表評論,但表示該公司“搜索的核心目的是準確性”。 Anthropic 拒絕公開回應。 xAI沒有回來 邊緣請求評論。谷歌拒絕發表評論。
問題是,Grokipedia 不能被可靠地引用為來源,無論它多麼罕見和可疑。 毫無根據的勝利圈 關於該百科全書據稱在谷歌搜索結果中取得的巨大成功。這是一個人工智能生成的系統,缺乏人工監督,通常依賴於不透明、難以驗證的材料,例如個人網站和博客文章, 有疑問的, 可能是圓形的,初級的。都柏林三一學院技術與社會系主任塔哈·亞塞里 (Taha Yasseri) 表示,引用 Grokipedia 之類的內容確實存在強化各種偏見、錯誤或框架問題的風險,並補充說“流暢性很容易被誤認為可信度”。
SemRush 在線知名度總監 Lee McKenzie 表示:“Growkipedia 感覺就像是可信度的角色扮演。” “它可能在自己的泡沫中發揮作用,但像 Google 或 OpenAI Grokipedia 這樣的東西將被視為大規模的嚴肅的默認參考層的想法是牽強的。”









