AI是如何忘記你的臉的
2019-06-22 16:45

AI是如何忘記你的臉的

來源 | 大數據文摘(ID:BigDataDigest)

作者 | 宋欣儀


我們都會遺忘,但是遺忘的過程是什么樣子的?從一閉眼就能浮現的那張清晰的臉龐到那一團模糊不清的影子,是眉毛先消失還是眼睛先不見?


最近,一位藝術家想用AI展現這個過程。


她創建了一張算法生成的臉,然后通過逐漸關閉個別神經元,讓AI慢慢忘記這張臉,并把這個過程可視化為了一段視頻。


一層一層撥開AI的心


忘記的過程可能是丑陋的


視頻的名字叫做 What I saw before the darkness ,為我們展示了一個AI的心靈運作過程。


視頻中最開始展現的面孔由生成對抗網絡(GAN)生成,GAN是一種機器學習程序,可以從現有照片中學習以產生新事物。通過這種方式GAN訓練了數以百萬計的肖像,可以生成逼真的人臉。


網絡相互連接的神經元決定了這張臉的特征:眼睛,膚色,形狀,頭發,類似于人類大腦使用神經元網絡來構建面部的心理圖像。


而項目的創作者試圖教會AI忘記。通過逐漸關閉個別神經元,然后重復這個過程,直到AI完全“忘記”這張臉。


視頻展現的效果有點讓人毛骨悚然。起初看起來好像是生成的人臉正在迅速老化。無數細小的線條出現在她的眼睛下方和臉部周圍,她的頭發開始變薄和變淡。



幾秒鐘后,出現了一些完全不同的東西。她的皮膚逐漸變成綠色的色調,而隨著神經元繼續變暗,她的特征開始消失。



60秒內,這張臉完全腐爛了,只剩下一些白色和棕色的色調。



最后會變成線條然后完全變黑。



通過AI看人類腦海中的橡皮擦


創作者介紹這個項目的靈感是源于對人類感知的思考,人類所看到的一切其實都是大腦對周圍世界的再解釋。一個人無法直接進入外部現實,只能通過在大腦再構建一個圖像的方式接觸世界。


印象派畫家莫奈的代表畫作《議會大廈》


克勞德·莫奈的畫作在他的晚年風格發生了變化,他晚期的畫筆觸逐漸變得模糊,而且色調會偏向混亂的綠色和黃色。人類的眼睛和大腦以及連接它們的網絡隨時間會經歷變化或者說是惡化,而通常我們人類不會注意到這一變化。


雖然說大腦里有一個全新的被建構的世界,但是它不是空中樓閣,憑空捏造的。在某些方面,深度神經網絡與視覺系統非常相似,神經網絡是非常神秘的東西,他們作出的一些決定可能連創造它們的專家都無法解釋。



這個項目可以幫助模擬世界在人們心中發生變化的過程,通過倒推神經網絡的工作步驟,通過系統地刪除神經元,看看哪些圖片對AI的世界是重要的,也許可以成為揭開人工智能的面紗,打開黑匣子的一個辦法。


關于記憶


遺忘是一種能力


一個比較流行的比喻解釋了為什么人們會忘記:人們的大腦的容量會飽和,因此,我們需要忘記一些東西給大腦騰出更多的存儲空間。


遺忘不僅僅是一次失敗的記憶,這是一個積極的過程,可以幫助大腦獲取新信息并更有效地做出決策,遺忘是人的能力。



記憶幫助我們了解這個世界,而不僅僅是記住它。用這種方法,我們似乎保留了有用的、有價值的和相關的記憶,同時忘記了低價值的信息。對于人類而言,遺忘可以通過減少過時信息對我們決策的影響來增強靈活性。還可以防止過度擬合特定的過去事件,促進概括(神經元)有效值。為了地適應生活,人類需要能夠戰略性地忘記。


忘記可能是AI進步的關鍵



盡管忘記有時候會使我們感到沮喪,但人類忘記的能力正是我們優于人工智能的地方。計算機記憶即電腦內存,通常是指存儲信息和找回信息的容量,以及存儲這些信息的計算機物理組件。當計算機的某些內存不再被任務需要時,計算機將“忘記”這些數據,釋放空間供其他任務源。


AI存儲記憶的一種方法是象征性的記憶表征,其中,知識是由邏輯事實來表示的(如“鳥會飛”,“Tweety是鳥”,因此“Tweety可以飛”)。這些高度結構化的人造表示雖然可以很容易地刪除,就像在電腦上刪除一個文件。但是機器學習算法不知道需要什么時候保留舊信息,什么時候拋棄過時的信息。不僅如此,它還會面臨著與“遺忘”有關的幾個問題。


一個是“過學習”的問題。“過學習”指的是當一個學習機器存儲了源于以往經驗的過于詳細的信息時,阻礙了其概括和預測未來事件的能力。另外有時人造神經網絡的神經元在學習過程的早期采用不良的激活模式,會損害AI的未來學習能力。


還有一個問題是“災難性遺忘”。 比如如果教一個說英語的孩子學習西班牙語,孩子會很容易把學習英語的方法應用到西班牙語的學習中,比如名詞,動詞時態,句子構建,同時忘記那些不相關,比如口音,喃喃自語,語調。人類可以同時進行遺忘和學習。


相反,如果訓練神經網絡學習英語,則參數需要適用于英語。如果還想同時教它西班牙語,對西班牙語的新改編將覆蓋神經網絡以前為英語獲得的知識,有效地刪除所有內容并重新開始。這被稱為“ 災難遺忘 ”,也是神經網絡的一個局限。


倫理方面的考量也是一個問題。人類死后他們的數據要怎么處理?一旦那個人死了,是否能夠用這些數據再訓練AI然后復制出另一個他?缺乏適用的法律、規則,沒有設定好的邊界,我們留下了一個沒有人控制的分散系統。算法不能選擇忘記什么,而負責它們的人可能沒有權利或解決問題的能力。


廉價的信息存儲代價和AI無窮的容量相結合,打造出了一個看似非常有吸引力的工具,但背后的問題是大量數據持續的收集,而沒有簡單的方法來“忘記”數據。


教會AI遺忘


要創造更好的人工智能,首先要了解我們的大腦在關于什么是值得記住的,什么是要遺忘的方面是如何做決定的。


然后應用到AI,就像人一樣,人工智能應該記住重要和有用的信息,同時忘記低價值,無關緊要的知識。然而,確定什么是相關和有價值的信息,除了手頭的任務之外,還加入包括如倫理,法律和隱私問題等因素。


學會遺忘是人工智能面臨的重大挑戰之一。雖然它仍然是一個新的領域,但科學家最近已經探索了一些關于如何克服這一局限的常識性理論,比如循環神經網絡LSTM,它使用特定的學習機制來決定要記住哪些信息,要更新哪些信息,以及在任何時候注意。


還有谷歌DeepMind的研究人員提出的EWC算法,該算法模仿突觸合并的神經運作過程。在神經網絡中,使用多個連接(如神經元)來執行任務。EWC將某些連接編碼為關鍵,從而保護它們不被覆蓋/遺忘。


藍線=標準深度學習,紅色和棕色線=在EWC的幫助下進行改進


但是未來真正的轉變還需要領導人工智能開發,技術專家,倫理學家,研究人員,學者,社會學家,政策制定者和政府的私人實體的共同合作。


相關報道:

https://futurism.com/how-to-make-ai-forget/ 

https://hackernoon.com/machine-un-learning-why-forgetting-might-be-the-key-to-ai-406445177a80

https://www.vice.com/en_us/article/evym4m/ai-told-me-human-face-neural-networks

https://www.wired.com/story/the-next-big-privacy-hurdle-teaching-ai-to-forget/ 


本內容為作者獨立觀點,不代表虎嗅立場。未經允許不得轉載,授權事宜請聯系[email protected]

正在改變與想要改變世界的人,都在虎嗅APP

贊賞
關閉贊賞 開啟贊賞

支持一下 ??修改

確定

讀了這篇文章的人還讀了...

回頂部
收藏
評論2
點贊13
七星彩走势图