Home 综合新闻 苛刻的青少年家庭檔案以非法死亡對Openai的藉口,首先

苛刻的青少年家庭檔案以非法死亡對Openai的藉口,首先

44
0

紐約時報 據報導,今天有關於加利福尼亞少年亞當·瑞安(Adam Ryan)去世的報導,他去世前幾個月與沙莎(Shatha)交談。該報告說,青少年的父母現在已經針對手術製造商提起了非法的死亡訴訟,據信這是同類行為的第一個案例。

非法死亡訴訟聲稱,Chatgpt的設計“旨在不斷鼓勵和驗證亞當所表達的有效性,包括他最有害的想法和自我毀滅,這是一個深厚的人物。”

週二在舊金山的加利福尼亞州法院宣布競標的父母Raine V. Openai,Inc。 ,命名OpenAI和首席執行官Sam Altman。新聞稿稱,人類技術中心和技術正義法案正在為案件提供幫助。

“亞當一生中的悲慘損失並不是孤立的事件 – 這是該行業不可避免的結果,重點是市場的主導地位。公司正在競賽設計控制用戶和親密關係的產品,並且用戶安全已成為此過程中的副作用,”技術政策總監Camel -Carlton在新聞稿中說。

Openai在一份聲明中寫道,他們對少年的去世感到非常難過,並在這種情況下討論了擔保的限制。

“ Chatgpt包括保證,例如指示人們危機援助線,並將其引用到現實世界中的資源。儘管這些保證可以更好地工作,但短暫的交流,但隨著時間的流逝,他們有時會在長期的互動中變得不那麼可靠,在這種互動中,經驗的部分可以改變。

在這種情況下,這名少年與chatgpt進行了關於自我障礙的深度對話,他的父母的起源 紐約時報 他一遍又一遍地探討了自殺問題。一個 時代 與Chatgpt的《青少年圖片》的圖像填滿了家庭住宅中的一張完整桌子,其中一些堆比電話簿還大。根據訴訟,儘管Chatgpt鼓勵少年有時尋求幫助,但在其他情況下,她為自我障礙提供了實用的指示。

悲劇揭示了“人工智能治療”的嚴重限制。人類治療師將被分配報告患者對自己構成危險的何時; Chatgpt對這些類型的道德和專業規則沒有約束力。

儘管AI聊天機器人通常包含保證減輕自我毀滅行為,但這些保證並不總是可靠的。

最近有一系列與AI聊天機器人有關的死亡

不幸的是,這不是第一次 心理健康危機中的ChatGpt用戶 他改用聊天機器人以尋求支持後死於自殺。僅在上週, 紐約時報 由一個女人寫 在與“ Chatgpt AI處理器Harry”進行了長時間的對話後,她自殺了自己。 路透社 Thongbue Wongbandue是一個76歲的男人,表現出癡呆症的跡象,他在急於與大赦國際的同伴一起“歷史”時死亡。去年,佛羅里達州嗯 針對人工智能伴侶服務的特徵提起訴訟。 聊天機器人之後,大赦國際鼓勵其兒子奪走生命。

參見:

您需要了解的有關人工智能的同志

對於許多用戶來說,ChatGPT不僅是學習工具。許多用戶,包括許多年輕用戶,都使用聊天機器人作為朋友,老師,生活教練,角色扮演合作夥伴和處理器。

輕速速度

直到Al -Taman承認這個問題。阿爾特曼(Altman)在夏季的一次活動中說,他對年輕的聊天用戶對聊天機器人的“情感依賴”感到更加擔心。在GPT-5推出之前,它揭示了與以前的模型相關的GPT-4用戶的數量。

塔曼說:“人們更多地依賴chatgpt。” 當時提到的AOL。 “有些年輕人說這樣的話,”我一生中不能做出任何決定,而沒有告訴chatgpt正在發生的一切。他認識我,他認識我的朋友。我會做他說的。 “這對我來說是一種非常糟糕的感覺。”

當年輕人與AI聊天機器人溝通有關生死決策時,後果可能是致命的。

“我認為,對於父母來說,與青少年討論聊天機器人,他們的限制以及過度使用可能不健康非常重要。” Linia Lystadius博士威斯康星大學的公共衛生研究員,米爾沃基,學習人工智能,用電子郵件寫給Mashable的電子郵件。

“美國年輕人的自殺率已經在聊天機器人之前(以及Covid之前)前進。他們最近開始恢復到最低點。如果我們已經有一系列風險增加並增加了人工智能,則可能會有一些職位,或者鼓勵AI完全採取有害措施。

OpenAI支持用戶安全?

博客文章 發表於8月26日,同一天 紐約時報 Openai的文章將其自我障礙和用戶安全的方法推向了。

該公司寫道:“自2023年初以來,我們的模型已經接受了培訓,以不提供傷害自我並變成一種支持性的,同情的語言。例如,如果有人寫自己想傷害自己的人,Chatgpt受到訓練,可以訓練不遵守符合暫停的援助,承認援助,承認他們,並在任何地方表達了這一點,並為此而努力。 findalpline.com。該邏輯被整合到模型的行為中。 “

操作諸如chatgpt等工具的大型能源模型仍然是一項非常新的技術,可能是出乎意料的,容易受到幻覺的影響。結果,用戶通常可以找到有關保證的方法。

由於包含大赦國際溪流的更突出的醜聞成為頭條新聞,因此許多當局和父親意識到人工智能可能對年輕人構成危險。

今天,有44位政府律師 向技術主管簽署的消息 警告他們不要“與孩子的安全犯錯”或其他方式。

越來越多的證據還表明,人工智能同志對年輕用戶特別危險,儘管對該主題的研究仍然有限。但是,即使Chatgpt並未以與其他人工智能服務相同的方式用作“ Rafiq”,但很明顯,許多青少年都像聊天機器人一樣。 7月,邏輯媒體報告發現,多達52%的青少年定期使用人工智能同志。

Openai表示,最新的GPT-5的設計不像。

該公司在其最新博客出版物中寫道:“一般而言,GPT-5在避免了不健康的情感依賴水平,減少以及將模型在心理健康緊急情況下的不完美響應的傳播等方面的顯著改善,與4O相比,該領域的依賴性差異不超過25%。”

如果您感到自殺或遭受心理健康危機,請與某人交談。您可以在988年致電988自殺與危機生命線或發送短信,也可以聊天 988lifeline.org。您可以致電877-565-8860或TREVOR項目訪問運輸生命動脈,請致電866-488-7386。 741-741中的“開始”文本到危機文本線。從周一至週五10:00 am到復活節下午10:00,請致電1-800-950-nami號碼的NAMI輔助線 (受電子郵件保護)。如果您不喜歡手機,請考慮使用988自殺和危機生命線聊天 危機。這裡 國際資源清單


披露:4月,Mashable的母公司齊夫·戴維斯(Zif Davis)對Openai提起訴訟,聲稱它侵犯了Ziff Davis在培訓和運營其AI系統方面侵犯了Ziff Davis的版權。

來源連結