我們傾向於將技術視為一種非常中立的 – 不思考,不是在增加,因此不會擁抱人類偏見的趨勢 – 而是使用人工智能,情況恰恰相反。不幸的是,也許現在比以往任何時候都更加充斥著反映人類不寬容的內容,不僅可以掌握人工智能,而且還會在其內容的內容中煽動它。
AI Tawylidi,尤其是專注於消費者的大型模型,對來自所有互聯網角度的損壞數據進行了培訓 – 文章,視頻,書籍,推文,社交媒體等。
當然,這是有可能與目睹敵對敵對的任何人在過去幾年中成為社交媒體同義的任何人的警告 – 我們最近與檢查點計劃的負責人夏洛特·威爾遜(Charlotte Wilson)進行了交談。 互聯網指揮官的峰會 了解更多。
你想看什麼
產科人工智能是有用的 – 如果模型不有用,它們將不常見。但是,這些模型相互競爭,如果沒有模型告訴您您想听的內容,那麼另一力量 – 即它們幾乎變成了糊狀的。
威爾遜解釋說:“不要優先考慮準確性,它優先考慮她所知道的,她學到的知識以及您想看到的東西。因此,不僅在這方面不准確,而且還為您提供了您想听到的東西的範圍。”
該模型學到的知識及其在本質上所知道的是被人類偏見污染的。但是chatgpt不再只是有趣 人們與他們一起玩的聊天機器人。公司在就業,數據分析,人力資源及其日常工作中使用這些模型。
威爾遜認為,與人類打交道時,人工智能不能留給自己的設備,在這裡將出現“ AI Checkers”的新功能作用,並且對問題的任何偏見和處理的模型結果評估;
“我認為有人工智能的空間,有些組織從事這項工作。他們已經實現,您是否安全?您受到影響嗎?您受傷了嗎?想想 – 如果這是關於影響該人的事情,我認為您必須檢查它。”
持續的責任
但是,如果這還不夠,會發生什麼?我正在考慮返回 我與工作日進行的對話,認為人類不一定是最好的標準“因為它沒有偏見,並且那些明確表示責任和責任感應該留在人類中的人。
不幸的是,它面臨著現在工作的一天 套裝 在公司使用的指控中,該公司用來檢查申請人的申請人,以應對老年候選人的工作 – 要求工作日當然會反對沖突。但是,有了這樣的污染複合物,人工智能中的歧視真的可以避免嗎?
威爾遜承認:“我不知道,因為我認為您不會確定我們必須提供數據的事實。我認為我們不會修復互聯網。”
“因此,如果您的真相來源是互聯網,我們將永遠不會解決這個問題。我們永遠不會糾正它,因為我們的對手在這個充滿不良****的地方泵送了這個地方。因此,我們永遠不會解決這個問題。”
“你不能統治這一點,這意味著您可能無法判斷何時獲得幻覺。實際上,您可能必須看著它們並去,看來沒有,讓我們檢查一下並檢查事物。”
解決方案?檢查,雙重實現並再次實現。這應該是為了使人工智能的喜怒無常的情緒發展成為一個全新的行業,我們希望其中一個將足夠大,可以取代人工智能在初學者目前遭受的工作的折扣。
變化
考慮到當前的政治氣候,這裡有一個令人不安的問題“房間裡的大象”。已經有糾正偏見的胃口嗎?
特朗普政府拒絕了DEI政策,儘管許多技術公司在全球範圍內運營,但許多技術公司在美國境內。
“由於 Microsoft Global,AWS Global,Acceneture是通用的,(您可以)稱呼所有拒絕DEI或完全消除它們的公司。 ”
我問,當然,在擁有全面和打擊法律的國家運營的公司仍然遵守規則?
“他們不這樣做,不會違反規則,不會違反法律,但是他們不再有一支團隊的團隊,他們的工作只是確保他們提供財產權。因此,他們仍然不能說:“您不能因為您是女人而無法工作,因為您是一份女性,您不能因為您是黑人而沒有工作,因為您是一個黑人 – 他們不再遵守規則,但他們在開始時就不再有股票的限制。 “
這表明可能沒有很多動機來糾正招聘過程中的不平等,並且不平等可能會繼續擴大人工智能模型,除非在技術及其他地區進行全面的更改。
威爾遜(Wilson)對公司的最終建議是針對您發布的人工智能,並始終意識到可能在公司內部擁有您的模型的人類影響力等等。
她說:“想想您使用的東西。” “當您嘗試解決時,要非常清楚,因為它不會取代一切,而且人們仍然有一個非常好的地方。”
“如果您試圖改善這件事會影響某人的決定,那麼您將對治理進行考驗,並確保IT理事會包括他們唯一工作的人就是從人類公平的角度看待它。”