金·卡戴珊 (Kim Kardashian) 在依靠 ChatGPT 尋求法律建議後未能通過關鍵法律考試,這再次引發了關於在高風險專業環境中使用生成人工智能 (AI) 危險性的爭論。隨著人工智能在法律、醫療和其他領域的應用不斷增加,真人秀明星的經歷凸顯了人們的擔憂,即人工智能引發的幻覺可能會損害公眾信心、產生法律責任並誤導學生和執業專業人士。
新聞周刊 週五,她通過電子郵件聯繫了卡戴珊的代表徵求意見。
金·卡戴珊 (Kim Kardashian) 未能通過律師資格考試
卡戴珊——SKIMS 的聯合創始人,也是一位有抱負的律師——在一份… 虛榮畫廊 在本月早些時候的一次採訪中,她說她在準備法學院考試時使用 ChatGPT 來回答法律問題。卡戴珊表示,人工智能聊天機器人經常提供錯誤的答案,這導致她未能通過多項法律測試。
“我使用 ChatGPT 尋求法律建議,所以當我需要知道問題的答案時,我會拍張照片,拍下來然後放在那裡。他們總是錯的。這讓我無法通過測試。” 一切都是公平的 這位女演員說道,並描述了該工具自信但不精確的反應如何直接導致她舊病復發。
這位 45 歲的坦率讓公眾關註一個更廣泛的趨勢:學生和法律專業人士越來越多地使用 ChatGPT 等生成式人工智能工具進行研究、起草摘要和備考。儘管這些工具被設計為預測機器而不是現實世界的數據庫,但它們通常提供看似合理但實際上不正確的信息。法律界記錄了多起案件,其中律師向法庭提交的文件中包含不存在的人工智能生成的引文,並在美國和國際上受到紀律處分和處罰。
卡戴珊仍然沒有阻止她的法律野心,她宣布計劃重新參加加州律師考試並繼續她的法律學習,但她的故事促使專家對人工智能在法律環境中的局限性發出新的警告。
ChatGPT 風險
“金·卡戴珊 (Kim Kardashian) 說她使用 ChatGPT 尋求法律建議,就像說你聘請了 Magic 8 Ball 作為聯合律師一樣,”前檢察官、哈佛大學法律講師鄧肯·萊文 (Duncan Levin) 說。 “人工智能聽起來很自信,但實際上是完全錯誤的,在法律上,這是一個危險的組合。” 新聞周刊。
他補充說,“危險不在於她接受技術教育”,而在於她的數百萬追隨者“可能認為法律專業知識只是他們立即獲得的東西。”
“通過標準需要判斷力、道德和經驗:算法沒有這三樣東西,”萊文說。 “ChatGPT 可能會寫出很好的結案陳詞,但它不能讓你免於牢獄之災。”
埃默里大學法學院法學教授馬修·塞奇在一份聲明中證實 新聞周刊 “生成式人工智能對於律師來說是一個非常有用的工具,但僅限於已經了解法律的人手中。
“ChatGPT 告訴你的有關法律的一切看起來都是合理的,但如果你沒有一些經驗或背景來了解它遺漏了什麼以及它產生了幻覺,這就是危險的,”他說。
根據 ChatGPT 的製造商 OpenAI 的說法,幻覺是“模型自信地生成錯誤答案的情況”。
律師兼人工智能專家洛根·布朗說道 新聞周刊 “ChatGPT(和其他人工智能工具)可能而且經常是錯誤的。”
“這些系統即使在關閉時也顯得自信,如果人們依靠它們來處理法律建議等嚴重問題,那可能會很危險,”她說。 “在沒有可信指導的情況下,使用 ChatGPT 作為法律選擇的權威實際上是有風險的。這正是我們擁有律師協會的原因。”
科羅拉多大學法學院法學教授 Harry Sorden 補充道:“當有人遇到法律問題時,最好的選擇是詢問律師(如果有的話)。然而,研究表明,近 80% 的美國人遇到法律問題,但卻無法聯繫或負擔不起律師。在這種情況下,ChatGPT 可能會比這些替代方案有所改進。雖然人工智能在解決法律問題時肯定不是完美的,而且肯定不如律師,但現代人工智能工具,例如ChatGPT 一般會在基本法律問題上提供非常合理的答案。”
“需要明確的是,我不建議將人工智能用於復雜的法律事務,在這種情況下,人們應該始終尋求律師的建議,”他解釋道。 “但對於無法選擇律師的基本法律事務,人工智能往往比其他選擇更好,後者通常是猜測或來自朋友和家人的糟糕法律建議。”
過度依賴的後果
布法羅大學法學院法學教授兼負責研究和師資發展的副院長馬克·巴塞洛繆 (Mark Bartholomew) 表示 新聞周刊 卡戴珊所做的事情是“好的”,但“危險在於過度依賴”。
“與其他領域一樣,人工智能正在顛覆法學教育。沒有辦法將法學教育與人工智能完全隔離,”他解釋道。 “人工智能會產生幻覺,它會編造案件,並可能弄錯法律。因此,任何法學院學生或負責任的律師都需要仔細檢查聊天機器人對他們問題的答案。而且,成為一名律師不僅僅是尋找答案。律師必須通過閱讀大量案例、分析法律、建立論據等來培養自己的技能。我擔心的是,學習法律的人過度依賴人工智能可能會阻礙他們作為律師的發展。有時,別無選擇,只能自己做這項工作。”
德雷克塞爾大學托馬斯·R·克萊因法學院的法學副教授阿納特·利奧爾 (Anat Lior) 博士回應了有關依賴的警告:“當卡戴珊討論採訪的這一部分時,她立即說‘他們總是錯的’,並暗示使用該工具導致了她的失敗。她對工具的依賴以及她反复提供錯誤答案的事實,對於任何在高風險情況下使用 ChatGPT 的人來說是一個重要的警告,例如學習或任何對現實世界產生影響的考試。”
新興的人工智能“問題”。
康奈爾理工學院和康奈爾法學院的法學教授弗蘭克·帕斯誇爾指出,人工智能生成的不正確的法律文件“確實是一個大問題”。
他補充道:“許多律師因引用虛假案件而受到懲罰,包括在美國和澳大利亞。這個問題不會隨著人工智能的傳播而變得更糟。”
Bartholomew 表示同意,他說:“我們已經看到使用人工智能創建法律文件存在很多問題。問題在於律師依賴聊天機器人的答案而不進行檢查,然後提交包含捏造廢話的法律備忘錄。法官開始對這種懶惰的律師行為實施制裁,並製定自己的規則,以在法律實踐中正確使用人工智能。”
接下來會發生什麼?
儘管存在風險,法律專家一致認為,生成式人工智能可能仍將是專業實踐的主要內容。
人們的共識是,人工智能工具只能作為一個起點——經過仔細的人工驗證——而不是替代合格的法律建議。對於學生、專業人士和廣大公眾來說,卡戴珊的經歷強調了迫切需要以懷疑的態度對待人工智能的輸出,並在生命和生計受到威脅時維持傳統的職業責任標準。










