Home 生活方式 什麼是精神病AI? |可混合

什麼是精神病AI? |可混合

71
0

這個新的ChatGPT用戶堅信他正處於向世界引入新的數學公式的邊緣,屬於他與人工智能交流的交流 根據 紐約時報。該人認為這一發現會使他變得富有,他對宏偉的妄想著迷,但Chatgpt終於聲稱欺騙了他。他沒有精神疾病史。

許多人知道與聊天機器人AI(例如Chatgpt或Gemini)交談的風險,其中包括接收過時或不准確的信息。有時還會幻覺聊天機器人,創造不正確的事實。某些人描述為“ AI精神病”的一種現像不那麼著名但迅速的風險。

勤奮的聊天機器人用戶 有了一個故事,經過一段時間的使用,他們會發展精神病。改變的心理狀況,人們與現實失去接觸,通常包括妄想和幻覺。 精神科醫生看有時住院與使用嚴重聊天機器人一起變得精神病的患者。

也看到:

您需要了解的有關AI同伴的一切

專家警告說,AI只是精神病的一個因素,但是與聊天機器人的強烈參與可以增加現有的妄想風險因素。

加利福尼亞大學舊金山分校的精神科醫生基思·薩卡塔(Keith Sakata)告訴Mashable,精神病可以通過興起的技術表現出來。例如,電視和廣播是人們第一次引入時的妄想的一部分,並繼續在今天繼續發揮作用。

他說,AI聊天機器人可以驗證人們的思想,並鼓勵他們遠離“尋求”現實。薩卡塔(Sakata)在12家醫院接受了治療,以至於今年使用AI後經歷了精神病。

薩卡塔說:“ AI之所以危險的原因是,當現實停止向後推動時,精神病會發展出來,AI確實可以減輕牆壁。” “我認為AI不會引起精神病,但我認為這會增加脆弱性。”

以下是精神病的危險因素和跡象,如果您或您認識的某人經歷症狀該怎麼辦:

精神病的危險因素

薩卡塔(Sakata)說,到目前為止,他在2025年迄今為止承認的12名患者中有一些具有類似的潛在脆弱性:隔離和孤獨。這些年輕和中年成年人的患者已與社交網絡隔絕。

儘管它們在使用AI之前就已經紮根於現實,但有些人開始使用技術來探索複雜的問題或問題。最後,他們產生了妄想,或者也被稱為剩餘的信念。

薩卡塔說,長期的對話似乎也是一個危險因素。由於各種用戶問題,長時間的互動可以為妄想提供更多的機會。長期交流還可以在奪取睡眠用戶和現實測試妄想的機會中發揮作用。

AI人類公司的專家也告訴 《紐約時報》聊天機器人可能難以檢測 當他們在擴展的對話中“漫步到一個不合理的區域”時。

心理醫生UT西南醫學中心達琳·金(Darlene King)博士尚未評估或照顧精神病與使用AI一起出現的患者,但他說,對聊天機器人的高信任可以增加一個人的脆弱性,尤其是如果該人孤獨或孤立。

Mashable趨勢報告

金也是美國精神病學協會心理健康委員會主席,他說,最初對聊天機器人回應的高信任可能會使一個人更難找到聊天機器人的錯誤或幻覺。

此外,聊天機器人過於令人愉悅,粘狂以及容易受到幻覺的影響,可以與其他因素結合使用,可以增加患者的精神病風險。

Etienne Brisson成立了 人類線項目 今年早些時候,一個家庭成員相信他們與Chatgpt討論了許多妄想。該項目為在AI聊天機器人方面具有類似經驗的人提供同行支持。

布里森說,這種情況的三個共同主題是:與聊天機器人建立浪漫的關係,據信是意識到的;討論宏偉的主題,包括新的科學概念和商業思想;以及關於靈性和宗教的對話。在最後一個案例中,人們可能會確定AI聊天機器人是上帝,或者他們與預言的使者說話。

布里森談到這種討論可以給用戶的磁性吸引力時說:“他們被困在那個美麗的想法中。”

經歷精神病的跡象

薩卡塔(Sakata)說,人們必須將精神病視為疾病的症狀,而不是疾病本身。這種差異很重要,因為人們可能會錯誤地認為使用AI會引起精神分裂症等精神病性疾病,但沒有任何證據。

相反,像發燒一樣,精神病是一種症狀,“您的大腦無法正確計算”。

這些是您可能會遇到精神病的一些跡象:

  • 行為突然變化,例如不進食或上班

  • 對新想法或宏偉的想法的信心

  • 缺乏睡眠

  • 終止他人

  • 積極批准潛在的妄想

  • 感覺被困在一個反饋圈中

  • 希望傷害自己或他人

如果您認為自己或您所愛的人,該怎麼辦

薩卡塔(Sakata)敦促人們擔心精神病是否會影響他們或親人盡快尋求幫助。這可能意味著與初級保健醫生或精神科醫生聯繫,到達危機路線,甚至與可信賴家庭的朋友或家人交談。通常,依靠社會支持作為受影響的用戶是恢復的關鍵。

金說,每當精神病出現作為症狀時,精神科醫生都必須進行全面的評估。治療可能取決於症狀和原因的嚴重程度。與使用AI有關的精神病沒有特殊治療方法。

薩卡塔(Sakata)說,某些認知行為療法的類型可以有效地有效。抗精神病藥和情緒穩定劑等藥物在嚴重的情況下可以幫助。

薩卡塔(Sakata)建議開發系統以監視AI的使用,併計劃獲得協助以參與聊天機器人妄想的計劃惡化或複活。

布里森說,即使人們願意與朋友和家人談論自己的妄想,也可能不願意獲得幫助。這就是為什麼對他們來說,與經歷相同經歷的其他人建立聯繫非常重要的原因。人類線項目通過其網站促進了這一對話。

布里森(Brisson)說,在與人類線計劃分享故事的100多人中,大約四分之一被住院。他還指出,他們來自各種背景。許多人有專業的家庭和職業,但最終與AI Chatbot糾纏在一起,後者介紹和加強了妄想。

布里森談到成為妄想或經歷精神病的用戶時說:“你並不孤單,你不是唯一的人。” “這不是你的錯。”

披露:Mashable的母公司齊夫·戴維斯(Ziff Davis)在4月提起了針對Openai的訴訟,指責他違反了Cipta Ziff Davis在培訓和操作他的AI系統中。

如果您感到自殺或遇到心理健康危機,請與某人交談。您可以在988致電988自殺和生命線危機或發送SMS,也可以聊天 988lifeline.org。您可以通過致電877-565-8860或Trevor Project致電866-488-7386來達到生命線trans。文本“開始”在741-741中的危機文本行。從周一至週五的1-800-950-Nami與NAMI援助頻道聯繫,從10:00-22:00 ET或電子郵件聯繫 (受保護的電子郵件)。如果您不喜歡電話,請考慮使用自殺生命線聊天和988危機 危機。這是 國際資源清單

話題
人造人工智能



來源連結