3 月 27 日,ACM 官網(wǎng)發(fā)布消息, 2018 年圖靈獎頒給 3 位深度學(xué)習(xí)之父 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun,以表揚他們在人工智能(AI)做出的重大貢獻。
圖靈獎由美國計算機協(xié)會(ACM)于 1966 年設(shè)立,專門獎勵那些對計算機事業(yè)作出重要貢獻的個人。其名稱取自計算機科學(xué)的先驅(qū)、英國科學(xué)家艾倫•麥席森•圖靈(Alan M. Turing)。
由于圖靈獎對獲獎條件要求極高,評獎程序又是極嚴(yán),一般每年只獎勵一名計算機科學(xué)家,只有極少數(shù)年度有兩名合作者或在同一方向作出貢獻的科學(xué)家共享此獎。因此它是計算機界最負(fù)盛名、最崇高的一個獎項,有“計算機界的諾貝爾獎”之稱。ACM 約在每年三四月份評出上一年的圖靈獎。
圖靈獎初期獎金為 20 萬美元,1989 年起增到 25 萬美元
商企信息,獎金通常由計算機界的一些大企業(yè)提供(通過與 ACM 簽訂協(xié)議)。目前圖靈獎由 Google 公司贊助,獎金為 100 萬美元。
ACM 官網(wǎng)列舉了 3 位大佬的技術(shù)成就,一起來看看。
三位AI大佬獲2018年圖靈獎
Geoffrey Hinton(杰弗里•辛頓)
1、反向傳播:1986 年他與 David Rumelhart 和 Ronald Williams 合著了一篇論文、《學(xué)習(xí)誤差傳播內(nèi)部表示 | Learning Internal Representations by Error Propagation》,Hinton 證明神經(jīng)網(wǎng)絡(luò)反向傳播算法可以發(fā)現(xiàn)自己的內(nèi)部表示的數(shù)據(jù),使其可以用神經(jīng)網(wǎng)絡(luò)來解決問題。在這之前
北京強國者,認(rèn)為是是做不到的。反向傳播算法是目前大多數(shù)神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)算法。
2、玻爾茲曼機(Boltzmann Machines):1983年,Hinton 與特倫斯•塞諾斯基(Terrence Sejnowski)一起發(fā)明了玻爾茲曼機器,這是第一個能夠?qū)W習(xí)不屬于輸入或輸出的神經(jīng)元內(nèi)部表征的神經(jīng)網(wǎng)絡(luò)。
3、卷積神經(jīng)網(wǎng)絡(luò)的改進:2012 年,Hinton 和他的學(xué)生亞歷克斯•克里日夫斯基(Alex Krizhevsky)和伊利亞•蘇斯基弗(Ilya Sutskever)一起,利用校正的線性神經(jīng)元和dropout 正則化改進了卷積神經(jīng)網(wǎng)絡(luò)。在著名的 ImageNe t比賽中,Hinton和他的學(xué)生幾乎將物體識別的錯誤率減半,重塑了計算機視覺領(lǐng)域。
Yoshua Bengio(約書亞•本吉奧)
1、序列的概率模型:20世紀(jì)90年代,Bengio將神經(jīng)網(wǎng)絡(luò)與序列的概率模型相結(jié)合,如隱馬爾可夫模型。這些想法被納入 AT&T/NCR 用于閱讀手寫支票的系統(tǒng),被認(rèn)為是20世紀(jì)90年代神經(jīng)網(wǎng)絡(luò)研究的巔峰,現(xiàn)代深度學(xué)習(xí)語音識別系統(tǒng)正在擴展這些概念。
2、高維詞嵌入與注意力:2000年,Bengio發(fā)表了具有里程碑意義的論文《神經(jīng)概率語言模型 | A Neural Probabilistic Language Model》,引入高維詞嵌入作為詞的意義表示。Bengio 的見解對自然語言處理任務(wù)產(chǎn)生了巨大而持久的影響,包括語言翻譯、問題回答和視覺問題回答。他的團隊還引入了一種注意力機制,這種注意力機制在機器翻譯方面取得了突破,成為深度學(xué)習(xí)的順序處理的關(guān)鍵組成部分。
3、生成對抗網(wǎng)絡(luò):自2010年以來,Bengio 關(guān)于生成深度學(xué)習(xí)的論文,特別是與 Ian Goodfellow 共同開發(fā)的生成對抗網(wǎng)絡(luò)(GANs),在計算機視覺和計算機圖形學(xué)領(lǐng)域引發(fā)了一場革命。在這項工作的一個引人入勝的應(yīng)用中,電腦實際上可以創(chuàng)造原始圖像,讓人想起被認(rèn)為是人類智慧標(biāo)志的創(chuàng)造力。
Yann LeCun
1、卷積神經(jīng)網(wǎng)絡(luò)(CNN):在 20 世紀(jì) 80 年代,LeCun 開發(fā)了卷積神經(jīng)網(wǎng)絡(luò),這是領(lǐng)域中一個基本原理。CNN 的優(yōu)勢之一,提高了深度學(xué)習(xí)的效率。上世紀(jì) 80 年代末,LeCun 在多倫多大學(xué)和貝爾實驗室(Bell Labs)工作時,他是第一個訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)處理手寫數(shù)字圖像的人。如今,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)成為計算機視覺以及語音識別、語音合成、圖像合成和自然語言處理領(lǐng)域的行業(yè)標(biāo)準(zhǔn)。它們被廣泛應(yīng)用于各種應(yīng)用中,包括自動駕駛、醫(yī)學(xué)圖像分析、聲控助手和信息過濾。
2、改進后的反向傳播算法:LeCun 提出了早期版本的反向傳播算法(backprop),并基于變分原理對其進行了清晰的推導(dǎo)。他的工作加速了反向傳播算法,包括描述了兩種加速學(xué)習(xí)時間的簡單方法。
3、拓寬神經(jīng)網(wǎng)絡(luò)的應(yīng)用:LeCun 還被譽為給神經(jīng)網(wǎng)絡(luò)開發(fā)了更廣闊的視野,將其作為一種計算模型用于廣泛的任務(wù)。他在早期的工作中,引入了一些現(xiàn)在在 AI 中的基本概念。例如,在識別圖像的背景下,他研究了如何在神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)分層特征表示——這一概念現(xiàn)在經(jīng)常用于許多識別任務(wù)。他和 Leon Bottou 一起提出了一個理念,這個理念被應(yīng)用于每一個現(xiàn)代深度學(xué)習(xí)軟件中,即學(xué)習(xí)系統(tǒng)可以被構(gòu)建為復(fù)雜的模塊網(wǎng)絡(luò)
響應(yīng)式網(wǎng)站,在這個網(wǎng)絡(luò)中,反向傳播通過自動分化來執(zhí)行。他們還提出了能夠操作結(jié)構(gòu)化數(shù)據(jù)(如 graph)的深度學(xué)習(xí)體系結(jié)構(gòu)。,