理解神經網絡是否有更好的姿勢?
雷鋒網按:DeepMind 研究科學家 Timothy P. Lillicrap,賓夕法尼亞大學教授 Konrad P. Kording 近期發表了一篇文章《What does it mean to understand a neural network?》(arxiv.org/abs/1907.06374)。正如文章標題提出的,「理解神經網絡」到底意味著什么?我們當前的研究是否走入了誤區以至于忽略了某些很有價值的東西?這是一篇視角獨特的討論,文章主要內容介紹如下。
本文引用地址:http://www.j9360.com/article/201907/402977.htm神經網絡可解釋性之路面臨困境
自從現代神經網絡被證明能解決復雜問題并開始蓬勃發展以來,如何理解這些網絡就一直是一個未解之謎。網絡中少則數千、多則數萬的連接和權重都分別如何影響網絡的表現、如何理解對抗性樣本之類的意外行為,有許多問題目前都還沒有完整的理論可以說清。
但毫無疑問,我們對神經網絡是有高度的掌控能力的。即便 AlphaGo、OpenAI Five 等已經在游戲中展現出了超人類水平的神經網絡,它們也只是來源于人類編寫的上百行代碼而已。我們理解這些代碼,我們知道它們將會如何轉化為計算流程,在網絡訓練完畢以后也能夠知道網絡的所有權重。
從這個意義上說,我們對網絡的結構和其中的運算都有完全的了解。但我們真正希望獲得的是一種介于人類思維語言以及計算機運算細節之間的中轉語言,我們可以借助這種語言直接構建可以分類 ImageNet 圖像或者能夠下圍棋的神經網絡,而不需要經過繁瑣、消耗資源的迭代學習過程;可以借助這種語言直接獲得網絡表現的清晰完整的描述,而不需要通過反復的測試進行經驗總結。目前我們還沒有找到這樣的中轉語言,甚至都不確定是否存在這樣的語言。
神經網絡能被緊湊地表達嗎?
一個值得深入思考的角度是,在機器學習的理論框架下設計的人工智能系統,都是一些「學習系統」,它們在人類編寫的學習規則下學習(從數據中提取信息)。這些學習規則的表達非常緊湊,幾十、幾百行高級編程語言代碼(比如 Pytorch 代碼)就足以描述。
對于我們廣大的機器學習科研和應用人員來說,這種緊湊的表達顯然能幫助我們獲得一些有價值的理解。這樣的緊湊表達也給我們提供了許多便利:我們可以為同一個想法創造許許多多的不同變體,然后用它們解決一大批問題。
既然學習規則可以被緊湊地表達,那么神經網絡本身可以被緊湊地表達嗎?不見得。近幾年隨著知識蒸餾和計算復雜度的研究增多,我們對數據和網絡的可壓縮性的理解也在增加。我們已經知道,在 ImageNet 上訓練完畢的網絡是無法被壓縮到 10 萬個獨立參數之內的;即便是用來識別 MNIST 數字的網絡也無法被壓縮為人類可以理解的格式。但同時,能存儲超過三萬個類別的知識并進行分辨的人類大腦,作為一類十分高級的神經網絡,想要在其中找到,或者想要壓縮為某種緊湊的表征,也是幾乎不可能的事情。
跳出壓縮技巧之外,我們其實可以問這樣一個問題:在任務中表現出了人類水準的網絡,應當是容易壓縮的嗎?不難得到答案:越是處理復雜任務、能存儲并處理越多信息的網絡,就越難以壓縮。
更重要、也更長遠的一件事是,完全掌握某一個可以正常工作的 AI 系統的網絡架構和權重、但不了解學習規則和執行技巧,對于解決其它的任務就起不到任何幫助。也就是說,了解訓練系統用到的學習規則、網絡架構、損失函數,對于后續的更改和拓展要遠比了解直接存在于網絡之中的連接權重重要。
與神經科學的類比
雖然人腦的神經網絡和如今的人工神經網絡有諸多不同,但是相同點也不少,尤其是極高的可塑性以及難以準確了解網絡內的表征。說到底,人腦在具有極強的持續學習能力、有高超的任務解決能力的同時,可解釋性并不比人工神經網絡好到哪里去,但同時人類在學習和發展方面有諸多理論研究成果和實用技巧,不僅容易理解,也能切實起到幫助改善個人狀況、提升個人能力的作用。我們似乎可以說,為神經網絡(不論人腦還是人工神經網絡)找到人類可以理解的緊湊表達不僅不是唯一的目標,甚至它的作用也不如網絡架構、學習規則、發展規律的研究的作用更大。
正如 Hinton 等人在 AlexNet 論文中,以及 DeepMind 在 AlphaGo 論文中展示的,一個人工神經網絡可以被清晰地分成先天(原理)與后天(參數)兩部分:為網絡提供任務和有關的數據源(供網絡從其中提取出絕大部分無法壓縮也難以描述的參數值),同時記錄下使用的網絡架構(卷積網絡 / 殘差網絡)、損失函數(L2 / 交叉熵)、學習規則(SGD / Adam)、優化手段(蒙特卡洛樹搜索)。后面的這四點可以簡單且嚴謹地表達為人類能夠理解的方程,而且可以指導我們開發未來更多的人工神經網絡系統。
在統計物理中,一團氣體可以由溫度、壓強等不多的幾個變量描述,然后在這幾個變量基礎之上繼續進行的預測和控制也都可以準確地進行。神經科學研究中也傾向于相信人類大腦中也存在這樣的描述方式。但氣體分子互相都是一樣的、可交換的、只有短期記憶,而人類大腦中的細胞是各自具有獨特性、具有長期記憶能力的(這也從另一個角度印證了上文提到的「難以被壓縮」)。所以,神經科學研究中期待的這種描述方法很可能起到了誤導的作用。
總結
看起來可行的事情到了最后才證明此路不通,這樣的故事在歷史上反復重演。也許以后我們會發現人工神經網絡便于實驗所以更容易理解,也有可能我們首先證明了人類大腦的強模態性、近似線性和高噪聲特性;也有可能我們最終都無法完全理解任一種網絡。
目前熱門的研究大腦的方法已經可以單獨研究其中的先天成分;從行為學的角度講,我們也可以提問學習是如何改變了行動的。當我們研究表征的時候,我們可以研究是哪個損失函數、哪個網絡架構、哪個學習特性可能導致了檢測到的表征的變化。當我們嘗試研究大腦如何運行而遇到困難的時候,我們完全可以研究大腦是如何學習運行的。
閱讀原論文見:https://arxiv.org/abs/1907.06374
PS:谷歌大腦研究員 Adam Gaier 和 David Ha 近期也對神經網絡的結構和可解釋性做出了新的探索,他們嘗試避開難以解釋的連接權重,直接創建具有可理解的結構的網絡。這也是非常有趣的研究思路,詳細介紹請見《神經網絡的氣宗與劍宗之爭:先驗強大的網絡甚至不需要訓練》。
本文轉自雷鋒網,如需轉載請至雷鋒網官網申請授權。
原文章地址為理解神經網絡是否有更好的姿勢?
評論