http://bangqu.com/3ZM9Pf.html
這篇最後的重點,那場辯論:「可解釋性在機器學習中是必要的」
正方一辯 Rich Caruana 觀點陳述:
Caruana 舉了一個例子:醫院用深度神經網絡來決定肺炎病人的住院順序,死亡率高的優先入院。但是,模型通過某項數據發現,患哮喘的人肺炎的死亡率比較低,因爲他們經常會去醫院配藥、做診斷等等,所以很多病情發現的早。那麼按照這個模型的設定,同樣患肺炎的人,患哮喘的人是不是應該排在隊伍的後面。
Caruana 想用這個例子說明,社會中很多基於數據的模型做決定,但往往沒有正確地評估這個模型是否預測出正確的結果。解決的方法有,就是可解釋模型。通過在可解釋機器學習上的研究,他們發現不只是哮喘,心臟病也會降低肺炎病人的死亡率,道理是一樣的。如果不解決可解釋性,根本無法預料這些問題的存在。
反方一辯 Yann LeCun 觀點陳述:那麼,如果以AlphaZero對HiFi音響來個深度學習呢?其學習的素材是internet上所有與音響直接相關的資訊,但一如絕大多數音響迷一般不深究到電路學、電子學、電磁學、數位電路、DSP這種基礎背景知識,你想最後AlphaZero會變成?
LeCun 的觀點非常直接:世界上有這麼多應用、網站,你每天用 Facebook、Google 的時候,你也沒有想着要尋求它們背後的可解釋性。人類的大腦有限,我們沒有那麼多腦容量去研究所有東西的可解釋性。有些東西是需要解釋的,比如法律,但大多數情況,它們沒有你想象中那麼重要。
LeCun 也舉了個例子:他多年前和一羣經濟學家做了一個模型預測房價。第一個用的簡單的線性預測模型,經濟學家也能解釋清楚其中的原理;第二個用的是複雜的神經網絡,但是效果比第一個好上不少。最後,當這羣經濟學家想要做預測房價的公司時,你猜他們會選擇哪一個?
LeCun 表示,任何時候在這兩種裏做選擇,絕大多數人都會選擇效果好的那一個。很多年裏,我們不知道藥物裏有什麼成分,我們一直在用。最後,LeCun 認爲,整個有關神經網絡是黑箱的故事,事實上,你可以看到,它並不是黑箱,你可以看到所有的參數,你可以做靈敏度分析。我們常常被解釋性所催眠,因爲它讓我們放心。
講起音響頭頭是道、秘技滿滿,一如音響迷?
還是被各種互相矛盾的觀點搞得張口結舌?
如果再給AlphaZero一副機器人身軀與一張千萬元額度信用卡,能組出一套人人稱讚的音響嗎?
諸位音響迷,你的學習力不可能比AlphaZero好吧?那麼,採取深度學習這招的你最多就是做到AlphaZero能做到的極限,那極限會是?
沒有留言:
張貼留言