Demis Hasabis,Google Deepmind的首席執行官和 諾貝爾獎文納 因為他在開發αAldAI算法以評估蛋白質結構方面的作用,這是一個驚喜 60分鐘 在四月份演出。在AI的幫助下,例如Alphaold,所有疾病的結束都可以使用,“也許在未來十年或更早的時間裡”。隨之而來的是採訪。
對於那些實際上從事發展和治癒疾病的人來說,這套西裝可以笑。 根據 Hasabis的陳述是“我想花一些時間離開窗戶”,這是數十年來一直從事毒品發明工作的Inal Shada化學家Derek Lowe。但是,您不必成為專家來檢測倍bol:所有疾病在十年內結束的想法都是荒謬的。
Hassabis評論是技術領導者宣傳的另一個例子,也許是為了吸引投資者和資金。就像埃隆·馬斯克(Elon Musk)對馬丁殖民地(Martin Colonies)的瘋狂跡像一樣,還是Openai的Sam Altman的人工通用情報(AGI)正好在拐角處?這種憤世嫉俗的觀點可能具有一定的真實性,這使這些專業人員從鉤子中降低並低估了問題。
噹噹局在其熟練區域之外提出極大的爭論時,這是一回事(請參閱AI,Aliens和Space Travel上的Stephen Hawking)。但是哈薩比斯似乎在他的角落裡。他的諾貝爾提到的是苜蓿期望的期望的潛在好處,算法的發布伴隨著關於毒品沙達發現革命性變化的無盡媒體亮點。
同樣,他的2024年諾貝爾獎獲得者Zafri Hinton是Google的AI顧問, 宣稱 大型語言模型(LLM)幫助創造了類似於人類實踐的工作,似乎是從深刻的知識中說話。所以無論如何 哭了 抗議那些調查人類知識的人 – 在某些情況下, 人工智慧 非常。
這些案例已經揭示的是,其中一些AI專業人員看起來像反映了他們的產品:他們能夠提供最佳效果,但最好的皮膚是深而脆弱的。
這是另一個例子:對AGI和現在在加利福尼亞州AI期貨項目的執行董事Daniel Cocotaz的努力以及離開OpenA的研究人員的擔憂 他說:“我們持有我們的謊言,他們知道自己在說什麼。” LLMS確實以他的知識,意圖和欺詐語言來展示Cocotaz中的LLMS。
這些專家是眾所周知的事故是Hinton在2016年發表評論的最佳例子,這要歸功於AI,“人們現在應該停止培訓放射科醫生”。幸運的是,放射學專家不相信他, 雖然有些人懷疑 一個。 他的評論之間的聯繫 以及醫學生對放射學工作機會的日益擔憂。欣頓是 由於該索賠已修改 – 但是,如果您已經得到了諾貝爾語,想像一下更強大。這適用於Hasabis對這種疾病的評論:當我們需要完全相反的情況時,AI使AI繁重的想法令人滿意和政治。
這些“專家”先知幾乎沒有從媒體那裡得到推動,我可以親自確認一些聰明的科學家相信他們。許多政府領導人還對技術首席執行官和矽谷老師的炒作進行了看法。但是我建議將它們像LLM一樣對待,例如LLM。
菲利普·鮑爾(Philip Ball)是位於倫敦的科學作者。他的最新書 生活如何運作
事物:
- 人工智慧/ / / / / / / / / / /
- 技術