剛剛,諾貝爾物理學獎頒給AI教父!

編輯部 發自 凹非寺

量子位 | 公眾號 QbitAI

諾貝爾物理學獎,今年頒給AI!

機器學習先驅Hinton、Hopfield共同獲獎,出乎所有人意料。

沒錯,不是事前預測中熱門的凝聚態或量子物理等方向,就是AI,是機器學習,更具體來說,神經網絡。

以表彰他們為利用人工神經網絡進行機器學習做出的基礎性發現和發明”。

那麼,他們的貢獻與物理關聯何在呢?

諾貝爾獎委員會揭秘:

他們利用瞭物理學方法來尋找信息的特征,構建瞭為當今強大的機器學習奠定基礎的方法。

Hopfield提出的“Hopfield神經網絡”,以相當於物理學中自旋系統能量的方式進行描述。

Hinton提出的“玻爾茲曼機”,則使用瞭統計物理學中的工具。

後來Hinton在這項工作的基礎上,幫助啟動瞭當前機器學習的爆炸性發展,也就是我們熟知的深度學習革命瞭。

人工神經網絡的第一塊重要基石

約翰·霍普菲爾德(John Joseph Hopfield)出生於1933年7月15日。

1954年獲得斯沃斯莫爾學院物理學學士學位。1958年在康奈爾大學獲得博士學位。

他早期聚焦於物理化學和凝聚態領域研究。後來在貝爾實驗室工作期間,對分子生物學產生瞭濃厚興趣。

從20世紀40年代起,研究人員開始推理大腦神經元和突觸網絡背後的數學邏輯。

後來,人們便開始嘗試利用計算機來模擬大腦網絡功能。也就是開始構建人工神經網絡。

在這些網絡中,大腦的神經元被賦予不同值的節點所模仿,突觸由節點之間的連接表示,這些連接可以變得更強或更弱。唐納德·赫佈的假設仍然被用作通過稱為訓練的過程更新人工網絡的基本規則之一。

之後很長一段時間裡,學界都在嘗試用數學、物理的方法來探索生物神經學。

比如Hopfield,他曾利用他在物理學的背景來探索分子生物學的理論問題。

當他被邀請參加一個關於神經科學的會議時,他遇到瞭關於大腦結構的研究。他對所學到的東西感到著迷,並開始思考簡單神經網絡的動態。

當神經元一起作用時,它們可以產生新的和強大的特性,這些特性對於隻觀察網絡單獨組件的人來說並不明顯。

1980年,Hopfield離開瞭他在普林斯頓大學的職位,他的研究興趣已經超出瞭他在物理學的同事們工作的領域,他跨越大陸搬到瞭加利福尼亞州帕薩迪納的加州理工學院(Caltech),那裡他可以免費使用計算機資源進行實驗,並發展他對神經網絡的想法。

然而,他並沒有放棄他在物理學方面的基礎,並在其中找到瞭靈感,理解瞭如何系統地使用許多小組件一起工作可以產生新的和有趣的現象。

他特別受益於對磁性材料的學習,這些材料由於它們的原子自旋——一種使每個原子成為微小磁鐵的屬性——具有特殊特性。

鄰近原子的自旋相互影響;這可以允許形成自旋方向相同的域。他能夠通過使用描述材料如何發展的物理學來構建一個具有節點和連接的模型網絡,當自旋相互影響時。

大腦的神經網絡是由具有先進內部機制的活細胞神經元構成的。它們可以通過突觸向彼此發送信號。當我們學習事物時,一些神經元之間的連接變得更強,而其他連接變得更弱。

人工神經網絡是由編碼有值的節點構建的。節點相互連接,當網絡被訓練時,同時活躍的節點之間的連接變得更強,否則它們變得更弱。

Hopfield構建的網絡節點通過不同強度的連接相互連接。

每個節點可以存儲一個單獨的值——在Hopfield的第一次工作中,這可以是0或1,就像黑白圖片中的像素格一樣。

Hopfield用一個屬性來描述網絡的總體狀態,這相當於物理學中自旋系統中的能量;能量是使用一個公式計算的,該公式使用所有節點的值和它們之間所有連接的強度。霍普菲爾德網絡通過將圖像輸入到節點,賦予它們黑色(0)或白色(1)的值來編程。

然後,網絡的連接使用能量公式進行調整,以便保存的圖像獲得低能量。當另一個模式輸入到網絡時,有一個規則是逐個檢查節點,看看如果改變該節點的值,網絡的能量是否會降低。

如果發現如果黑色像素是白色,能量會降低,它就會改變顏色。這個過程繼續進行,直到無法找到進一步的改進。

當達到這一點時,網絡通常已經在它被訓練的原始圖像上復制瞭自己。

如果隻保存一個模式,這可能看起來並不那麼引人註目。

也許你想知道為什麼你不隻是保存圖像本身並與正在測試的另一個圖像進行比較,但Hopfield的方法之所以特別,是因為可以同時保存多張圖片,網絡通常可以在它們之間進行區分。

Hopfield將搜索網絡以尋找保存的狀態比作在有摩擦減緩其運動的山峰和山谷景觀中滾動一個球。

如果球被放在一個特定的位置,它會滾進最近的山谷並在那裡停止。如果網絡被給予一個接近保存模式之一的模式,它將以同樣的方式繼續前進,直到它最終到達能量景觀中的山谷底部,從而找到記憶中最接近的模式。

Hopfield等人之後更進一步深入研究霍普菲爾德網絡,包括可以存儲任何值的節點,不僅僅是0或1。

如果將節點視為圖片中的像素,它們可以有不同的顏色,不僅僅是黑色或白色。

改進的方法使得保存更多圖片成為可能,並且即使它們非常相似,也能區分它們。同樣可以識別或重建任何信息,隻要它由許多數據點構建。

不過記住一個圖像是一回事,解釋它所代表的內容是另一回事。

即使是非常小的孩子也可以指向不同的動物,並自信地說它是狗、貓還是松鼠。

他們可能偶爾出錯,但是能很快正確分辨。孩子甚至可以在沒有看到任何圖表或解釋物種或哺乳動物等概念的情況下學習這一點。在遇到每種動物的幾個例子後,不同的類別在孩子的腦海中形成瞭。人們通過體驗周圍的環境來學習識別貓,或理解一個詞,或進入一個房間並註意到有些事情已經改變。

當Hopfield發表他的聯想記憶文章時,Hinton正在卡內基梅隆大學工作。

他之前在英國和蘇格蘭學習實驗心理學和人工智能,並想知道機器是否能夠以類似於人類的方式學習處理模式,為排序和解釋信息找到自己的類別。

Hinton:現在是圖靈諾貝爾雙料得主

Hinton的研究正是建立在霍普菲爾德神經網絡之上。

當時Hinton在卡內基梅隆大學工作,他之前曾在英國研究過實驗心理學和人工智能,想知道機器是否可以學習,是否可以與人類類似的方式處理信息。

他與同事Terrence Sejnowski一起,利用統計物理學的思想擴展霍普菲爾德網絡。

統計物理學描述由許多相似元素組成的系統,例如氣體中的分子。

追蹤氣體中的所有單獨分子是困難或不可能的,但可以將它們集中考慮以確定氣體的壓力或溫度等總體特性。

氣體分子有許多潛在的方式以各自的速度在其體積中擴散,可以使用統計物理學來分析各個組件可以共同存在的狀態,並計算它們發生的概率。

十九世紀物理學傢路德維希·玻爾茲曼用方程描述瞭有些狀態比其他狀態更有可能發生。

Hinton利用瞭該方程,提出玻爾茲曼機。

玻爾茲曼機與今天的深度神經網絡一樣,可以從例子中學習,通過更新網絡連接中的值來進行訓練。

最初版本的玻爾茲曼機效率相當低,到20世紀90年代,許多研究人員對人工神經網絡失去瞭興趣,Hinton是少數堅持下來的人。

到2006年,他和同事們一起在玻爾茲曼機的基礎上開發瞭“深度信念網絡”(Deep Belief Nets),其中提出瞭無監督的逐層訓練方法,後來成為深度學習的基礎。

在最後,諾貝爾獎委員會提到,Hopfield和Hinton兩人在80年代的工作為2010年左右開始的機器學習革命奠定瞭基礎。

物理學為機器學習的發展貢獻瞭工具,相應的,現在機器學習也惠及瞭物理研究。

例如,機器學習長期應用於希格斯粒子發現等諾獎領域,用於處理海量數據;它還可用於減少引力波測量中的噪聲,或搜尋系外行星。

近年來,這項技術還開始被用於計算和預測分子及材料的性質,如計算決定蛋白質功能的分子結構,或設計性能更佳、可用於高效太陽能電池的新型材料。

One More Thing

眾所周知,作為深度學習三巨頭之一的Hinton,也是2018年圖靈獎得主。

往前看,在Hinton之前,同樣一手諾貝爾獎一手圖靈獎的科學傢,有且僅有一位。

赫伯特·亞歷山大·西蒙(Herbert Alexander Simon,中文名司馬賀)。

與Hinton一樣,西蒙也是先拿圖靈獎,再拿諾貝爾獎——

1975年,西蒙和艾倫·紐厄爾(Allen Newell)因在人工智能、人類心理識別和列表處理等方面進行的基礎研究,榮獲圖靈獎。

(他倆是符號主義的創始人和代表人物,提出瞭物理符號系統假說)

1978年,西蒙因為“有限理性說”和“決策理論”獲諾貝爾經濟學獎。

參考鏈接:[1]https://www.nobelprize.org/[2]https://www.cs.toronto.edu/~fritz/absps/ncfast.pdf

— 完 —

量子位 QbitAI · 頭條號簽約

關註我們,第一時間獲知前沿科技動態