2024諾貝爾物理學得主:以神經(jīng)網(wǎng)絡為筆 書寫AI時代新篇章
當?shù)貢r間周二(10月8日),瑞典皇家科學院宣布,將2024年諾貝爾物理學獎授予約翰·J·霍普菲爾德(John J. Hopfield)和杰弗里·E·辛頓(Geoffrey E. Hinton)。
本文引用地址:http://www.2s4d.com/article/202410/463467.htm霍普菲爾德和辛頓將平分1100萬瑞典克朗(約合110萬美元)的獎金,以表彰他們在使用人工神經(jīng)網(wǎng)絡進行機器學習的基礎性發(fā)現(xiàn)和發(fā)明,這些發(fā)現(xiàn)為當今的機器學習應用奠定基礎。
1982年,霍普菲爾德在論文中提出了“霍普菲爾德網(wǎng)絡”,旨在模擬人腦記憶的存儲和檢索過程。這個自聯(lián)想記憶網(wǎng)絡能夠在部分或不完整輸入下,通過動態(tài)調(diào)整神經(jīng)元狀態(tài),恢復完整的存儲模式。
霍普菲爾德網(wǎng)絡的提出推動了神經(jīng)網(wǎng)絡領域的發(fā)展,尤其是在理解記憶如何在大腦中存儲和檢索的機制上提供了理論框架。且它的“能量最小化”思想影響了后續(xù)許多神經(jīng)網(wǎng)絡模型的發(fā)展。
霍普菲爾德網(wǎng)絡被廣泛應用于神經(jīng)科學、計算機科學和優(yōu)化問題等領域,尤其是在模式識別、聯(lián)想記憶和優(yōu)化算法方面發(fā)揮了重要作用,在推動現(xiàn)代人工智能和神經(jīng)計算理論的發(fā)展上起到了關鍵作用。
霍普菲爾德還對生物物理學和分子生物學做出了重要貢獻,特別是在蛋白質(zhì)折疊和生物系統(tǒng)的計算功能方面。他提出的“Hopfield Barrier”概念解釋了蛋白質(zhì)如何有效找到其折疊的最低能量狀態(tài)。
霍普菲爾德網(wǎng)絡的發(fā)現(xiàn)吸引了一些理論物理學家參與到神經(jīng)網(wǎng)絡的研究當中。而辛頓就將霍普菲爾德網(wǎng)絡的想法應用于一種新網(wǎng)絡,這種新網(wǎng)絡使用另一種方法:玻爾茲曼機(Boltzmann Machine)。
玻爾茲曼機是第一個能夠?qū)W習不屬于輸入或輸出的神經(jīng)元內(nèi)部表示的神經(jīng)網(wǎng)絡,可以學習給定數(shù)據(jù)類型的特征元素,可以用來分類圖像或創(chuàng)建新材料,幫助推動了當今機器學習的快速發(fā)展。
辛頓的貢獻為深度學習的復興奠定了基礎,使得神經(jīng)網(wǎng)絡得以在更復雜、更大規(guī)模的數(shù)據(jù)集上進行訓練,從而在圖像識別、語音識別、自然語言處理等任務中取得了巨大的成功。
辛頓在神經(jīng)網(wǎng)絡方面的開創(chuàng)性工作塑造了為當今許多產(chǎn)品提供動力的人工智能系統(tǒng)。2018年,辛頓與楊立昆(Yann LeCun)和約書亞·本吉奧(Yoshua Bengio)共同獲得了當年的圖靈獎。
值得一提的是,辛頓的團隊很早就開始利用英偉達的CUDA平臺訓練神經(jīng)網(wǎng)絡模型。2012年,辛頓與他的學生Alex Krizhevsky和Ilya Sutskever在CUDA平臺上訓練了一個視覺識別神經(jīng)網(wǎng)絡“AlexNet”。
在當年著名的ImageNet競賽中,AlexNet幾乎將對象識別的錯誤率減少一半,重塑了計算機視覺領域。這也讓英偉達GPU+CUDA組合在深度學習領域一鳴驚人,為十年后股價的爆發(fā)奠定了理論基礎。
2012年底,辛頓團隊三人創(chuàng)建了DNNresearch公司,次年該公司被谷歌買下。2016年,谷歌推出AlphaGo,在圍棋上橫掃了人類棋手,成為當時公認的最強AI大廠。而在前一年,Sutskever離開了谷歌,參與創(chuàng)立了OpenAI并擔任首席科學家。
去年,辛頓在社交媒體上證實他離開谷歌。在接受媒體采訪時,他表示,“我對我畢生所研究的東西感到后悔了。”杰弗里形容稱,AI聊天機器人所帶來的某些危險“相當恐怖”。
評論