邏輯媒體,專注於兒童安全兒童的非營利評估已發布了對媒體和技術的評估和審查,他們在周五對Google Gemini AI產品的風險評估。雖然基金會發現Google Amnesty International清楚地告訴孩子們,它是一台計算機,而不是朋友 – 與駕駛的幫助有關 偽造的 思維 和 精神病 在暴露於情感的個人中 – 他指出,許多其他方面都有改進的餘地。
尤其是,常識說,雙子座“ 13歲”和“青少年經驗”的水平似乎是封面上的雙子座的兩個版本,並且僅增加了一些其他安全功能。該組織認為,為了使人工智能的產品更安全,應在考慮到兒童從A到Z的安全性時建造它們。
例如,她的分析發現,雙子座仍然可以與兒童共享“不適當和不安全”的材料,這些材料可能還沒有準備好,包括與性,毒品,酒精和其他不安全的健康建議有關的信息。
後者可能是父母的特別問題,因為據報導,大赦國際近幾個月來在一些少年自殺中發揮了作用。 Openai在與Chatgpt諮詢了幾個月有關他的計劃之後,他因自殺而死於自殺後,面臨第一次非法死亡訴訟,因為他成功地克服了聊天機器人的安全扶手。此前,提起訴訟,以針對AI伴侶製造商的個性提起訴訟。
此外,該分析是在新聞洩漏表明蘋果作為LLM模型(出色的語言模型)的時候進行的,該模型將有助於明年支持人工智能的即將到來的Siri。除非蘋果以某種方式減輕了安全問題,否則這可能會為更多的青少年帶來風險。
適當的邏輯還說,針對兒童和青少年的雙子座產品忽略了年輕用戶如何需要從該舊的舊說明和信息。結果,儘管安全過濾器是安全的,但它們倆在總分類中被歸類為“高風險”。
Ruby Tourney在一份關於TechCrunch正確看到的新評估的聲明中說:“雙子座正確地獲得了一些基本知識,但偶然發現了細節。” “兒童應該在兒童代理機構的國際國際機構中,而不是適合各個不同發展階段的每個人的一種方法。為了使人工智能對兒童安全有效,必須考慮到他們的需求和發展,而不僅僅是為成年人設計的產品的修改版本。”
TechRunch活動
舊金山
|
2025年10月27日至29日
Google再次推動了評估,並指出她的安全功能正在改善。
該公司TechCrunch告訴該公司,它對18歲以下的用戶具有特定的政策和特定的獎勵,以幫助防止有害產出,並且正在與外部專家進行諮詢以改善其保護。但是,他還承認,一些雙子座的回應不是打算的,因此增加了其他保證來解決這些問題。
該公司(正如我還注意到適當的邏輯)表明,它保證可以防止其模型參與可以提供真實關係的對話。此外,Google建議的是,常識報告似乎已提及18歲以下用戶無法使用的功能,但無法訪問基金會在其測試中使用的問題。
邏輯媒體已經執行了另一個表演 評估 人工智能服務,包括 Openai和 困惑和 克勞德和 大赦國際死亡, 和 更多的。發現元AI和 工藝 這是“不可接受的” – 這意味著危險是嚴重的,而不僅僅是高。迷惑被認為是高風險的,Chatgpt“中等”已被分類,Claude(18歲及以上的用戶目標)發現最小風險。








