科技 新浪科技 ​深度學習先驅被罵退推特:你們都很懂,從此我不說話了

​深度學習先驅被罵退推特:你們都很懂,從此我不說話了

新浪科技 2020-06-30 06:54

原標題:​深度學習先驅被罵退推特:你們都很懂,從此我不說話了

原創 Synced 機器之心

機器之心報道

作者:澤南、蛋醬

在長達兩周的「罵戰」之後,圖靈獎得主、Facebook 首席 AI 科學家 Yann Lecun 宣布,自己將退出推特。

「我請求社交網路上的所有人不要再互相攻擊了,特別是對於 Timnit Gebru 的攻擊,以及對於我之前一些言論的攻擊。」Yann LeCun 剛剛在推特上發出了這樣的呼籲。「無論是口頭還是其他方式的衝突,都只能獲得傷害和相反的結果。我反對一切形式的歧視。這裡有一篇關於我核心價值觀的文章。」

「這是我在推特上最後一篇有內容的帖子,大家再見。」

2a86-ivrxcex4971188.jpg

看起來 2018 年圖靈獎得主、人工智慧領軍人物 Yann LeCun 已經下定決心想對長達兩周的激烈討論畫上句號。而這場鬧得沸沸揚揚的罵戰,起因正是被指「嚴重種族歧視」的 PULSE 演算法。

這一工作由杜克大學推出,其人工智慧演算法可以將模糊的照片秒變清晰,效果極佳。這項研究的論文已在 CVPR 2020 上發表(論文《》)。

ec8d-ivrxcex4969302.jpg

PULSE 在 CVPR 大會期間引來了人們的關注,進而引發了 AI 社區的廣泛爭議。首先,這種方法所產出的圖像清晰度更高,細節也更加豐富:PULSE 能夠在幾秒內將一張 16×16 像素的圖片提升至 1024×1024 解析度,提升高達 64 倍。目前該演算法僅針對人臉照片,演算法生成的照片清晰到可以呈現出人臉上的毛孔、皺紋甚至一縷頭髮。

但本質上看,PULSE 並不是在消除馬賽克,而是「生成」了看上去真實卻並不存在的人臉。超解析度演算法一直是計算機科學的熱門研究領域,以往科學家們提出的還原方法是在低解析度圖片中添加像素點。但 PULSE 使用 GAN 的思路,先利用深度學習演算法生成一些高清圖片,再降低它們的解析度,並與模糊的原圖對比,從中找出匹配程度最高、最接近原圖的高清圖像隨後輸出。

問題就出在這裏,有網友試用了 PULSE 之後,發現美國前總統奧巴馬的高糊照片經過去碼處理以後,生成的是一張「白人面孔」:

9f35-ivrxcex4969565.jpg

有網友質疑該方法生成結果存在偏見,對此項目作者也給出了回應,表示這一偏見很可能來自於 StyleGAN 的訓練數據集,可能還有其他未知因素。

「我們意識到偏見是機器學習和計算機視覺領域的重要問題,並就此問題聯繫了 StyleGAN 和 FFHQ 數據集的創建者。我們希望這能夠促進不具備此類偏見行為的方法的誕生。」

但這件事還沒完,鑒於美國目前 BLM 的輿論環境,人們很快就開始深入討論機器學習研究結果缺乏多樣性的問題。在這其中,種族偏見和性別偏見的問題一直存在,迄今為止卻沒人給出一個好的解決辦法。

也就在這個時候,Yann LeCun 發布了一條推特,來解釋為什麼 PULSE 會出現這樣的偏見。

2123-ivrxcex4973794.jpg

「機器學習系統的偏差是因為數據的偏差。這一人臉上採樣系統其結果傾向於白人是因為神經網路是在 FlickFaceHQ 上預訓練的,其中的大部分圖片基本是白人照片,」Yann LeCun 說道。「如果這一系統用塞內加爾的數據集訓練,那肯定所有結果看起來都像非洲人。」

Yann LeCun 的說法本身沒有錯,但可能是因為過於直白了,一下子讓大量 AI 從業者和研究人員炸了鍋。LeCun 希望將人們的注意力引向數據集的偏差,但推特網友不買帳,並指責他「用這種陳舊的理由來掩蓋問題本質」。

之後,Yann LeCun 又在多條推文來解釋自己關於偏見的立場,但彷彿已經沒有用了。

617e-ivrxcex4976519.jpg

「與學術論文相比,這種偏見在已經部署的產品中產生的後果會更加可怕。」這句話的含義被解讀為「不必為此特例而過分擔心」,引發了諸多同行的質疑。

斯坦福 AI Lab 成員、Google AI 科學家 Timnit Gebru(她是一名非洲裔美國人),對 LeCun 的言論表示「失望」。

Yann LeCun 甚至在 Timnit Gebru 的推特評論區連寫 17 條回復:

840e-ivrxcex4969887.jpg

當然,需要討論的也不只是機器學習中的偏見問題:

de58-ivrxcex4977454.jpg

「同樣需要避免的是在對話中產生惡意,它只會激起情緒,傷害到所有人,掩蓋實際問題,推遲解決方案的出現。」

793b-ivrxcex4970191.jpg

從事數據科學領域超過十年的 Luca Massaron 認為,儘管從技術角度來看 Yann LeCun 是完全正確的,但看看這種觀點被拋出之後公眾的反應,你就會知道談論它是多麼的敏感。

「人們總是害怕自己會被不公平的規則控制,進而無條件地,有時甚至毫無理由地懼怕 AI 剝奪人們的自由,而不僅僅是工作,」Luca Massaron 說道。「我個人並不擔心 Face Depixelizer 這類研究,我所害怕的是在應用之後,我們無法識別和挑戰偏見。」

9cdb-ivrxcex4977883.jpg

如今,越來越多的機器學習自動化技術正在進入我們的生活,立法者在這裏扮演的角色非常重要。在歐盟國家,為了確保數據使用的透明度和責任,GDPR 條例要求互聯網公司保證演算法的可解釋性,以及用戶對於自身數據的控制力。

如果我們希望 AI 能夠朝著正確的方向發展,我們需要追求的或許不是無偏見,而是透明度。Luca 認為,如果演算法是有偏見的,我們可以挑戰它的推斷結果並解決問題。但如果演算法的推理機制不可知,或許其中還隱藏著更大的問題。

4134-ivrxcex4978053.jpg

不可否認的是,人類社會存在著各種偏見,但因此而認為機器傾向於更「流行」的答案是理所應當的,或許不是一個正確的觀點。

ba09-ivrxcex4978104.jpg

人們對於 PULSE 的討論,以及 LeCun 的攻擊,有很多已脫離了 LeCun 的本意。

作為這場爭議的起因,杜克大學的研究者們已在 PULSE 網站中表示將會修正有關偏見的問題。目前論文中已經增加了一個新的部分,並附加了可以解決偏差的模型卡。

為了達成沒有偏見的目標,我們必須讓整個人工智慧社區行動起來。但在有關技術的討論之中讓技術大牛心灰意冷,是大多數人都不想看到的結果。Yann LeCun 此前一直以直言不諱著稱,他在社交網路上經常會對熱門的深度學習研究發表評論,也可以直面其他人工智慧著名研究者的批評。

機器學習模型中的偏見可能會使得推理的專業性受到侵害,導致大量業務遭受影響卻不為人所知。我們還沒有解決這個問題一勞永逸的方法。

參考內容:

https://analyticsindiamag.com/yann-lecun-machine-learning-bias-debate/

原標題:《​深度學習先驅Yann LeCun被罵退推特:你們都很懂,從此我不說話了》