新冠疫情是一個警鐘,提醒我們要去構建信任度 90% 以上的 AI。
當人類第一次仰望星空的時候,離文明就不遠了。對于當下的 AI 來說,也是如此。席卷全球的疫情釋放出信號和警告,我們需要一個新的 AI 劇本。
過去我們花了太多時間開發(fā)銷售廣告的 AI,從現(xiàn)在開始,不妨重新評估未來幾十年,我們到底需要打造一個什么樣的 AI?如何以我們想要的方式實現(xiàn)更為美好的 AI?對這一 「重啟(reboot)」 問題的多維思考,串連起 「圍爐夜話」 的所有環(huán)節(jié)與亮點。
7 月 10 日晚間八點,WAIC· 開發(fā)者日正式啟動,作為開場的特色環(huán)節(jié),機器之心與上海交通大學人工智能研究院聯(lián)合邀請到了奇績創(chuàng)壇創(chuàng)始人兼 CEO 陸奇和 Robots.AI CEO 兼創(chuàng)始人 Gary Marcus 進行高峰對話。
此外,在「Demo Day」環(huán)節(jié),一系列優(yōu)質的開源項目陸續(xù)登場,除對主流開源工具及框架的探討外,還有實踐中的熱門方向,比如人臉圖像、熱門游戲開源項目等。企業(yè)內部的開源及技術框架也成亮點之一,比如阿里巴巴的淘系技術部無限開發(fā)專家吳子奇分享路關于 MNN 的部署實踐。
而當我們將目光從技術角度轉移到整個 AI 產(chǎn)業(yè),會發(fā)現(xiàn) AI 尚處于無法被完全信任的狀態(tài),這無疑將阻擋 AI 應用開發(fā)的腳步。
比如,深度學習主導下的機器無法靈活的處理不可預知事件,隱私、偏見、版權等倫理問題一次次引發(fā)輿論風暴。放眼學界和業(yè)界,可復制性審查的缺失和巨頭重度壟斷的市場都在阻礙行業(yè)往前進。
針對這些問題,陸奇和 Gary Marcus 帶來了不少精彩觀點。
對話首先探討了深度學習的局限性。在 Gary Marcus 看來,現(xiàn)有的深度學習訓練方式是在用數(shù)據(jù)代替機器本身的思考,無法讓其對世界有更深層的感知和推理。相比深度學習,「常識推理」是訓練 AI 更有效的方法,可從思維方式上改變機器的認知水平。
在 AI 倫理方面,對話直面了近日陷入輿論漩渦的隱私和偏見問題。Gary Marcus 認為,利用分布式學習框架的「聯(lián)邦學習」可以有效解決數(shù)據(jù)獲取和隱私保護間的矛盾。而 AI 的偏見是由數(shù)據(jù)本身的不平衡產(chǎn)生,除非能訓練 AI 理解數(shù)據(jù)背后的含義,否則偏見問題還無法解決。
在大多數(shù)人的觀念中,要解決這些倫理問題,AI 應該朝著 Artificial General Intelligence(通用人工智能)努力。但 AGI 太遙不可及,Gary 認為目前我們的目標應該是「穩(wěn)健的人工智能」,比如創(chuàng)造一個可以對物理世界進行推理的系統(tǒng)。
如何創(chuàng)建?從學術屆的角度來說,應當改革激勵機制,鼓勵「可復現(xiàn)性」的項目研究;而從 AI 市場來看,則需要改變壟斷現(xiàn)狀,將巨頭公司拆分為多個創(chuàng)業(yè)項目,激發(fā)市場活力。
一、技術重啟:深度學習做的遠遠不夠
當陸奇問到「人工智能在疫情中的應用潛力時」,Gary 的回答是,「AI 做的遠遠不夠?!?/P>
在 Gary 的設想中,人工智能的未來方向是在更深層的科研方面幫助人類,它應當可以閱讀文獻,學習醫(yī)學、生物學和化學,幫助人類篩查藥物,在無需人體測試的情況下通過計算機模擬了解藥物安全性,或者篩查新冠病毒論文并判斷研究價值。但目前機器最多只可以根據(jù)關鍵詞篩選論文。
在深度學習成為人工智能主導的這些年里,機器感知世界的方式就是數(shù)據(jù),它需要大量的數(shù)據(jù)認知物體,行動也需要依靠設定好的程序。
所以,當碰見新冠病毒者這類缺乏龐大數(shù)據(jù)庫的新型疾病時,機器的作用就會非常有限。
學界一直存在對深度學習的批判,如果一直用大量數(shù)據(jù)代替真正的思考,機器將永遠無法像人類一樣進行感知和推理。
Gary 舉例說,「我現(xiàn)在看見的畫面中間有一個紅色的水瓶,我沒有看見任何支持它的東西,但用物理學常識預測,它肯定不是漂浮在空中,我可以猜測他是穩(wěn)定的,但是機器不能?!?/P>
同樣的,機器也無法處理突發(fā)情況,正如 AlphaGo 擊敗人類圍棋大師時流傳的那則笑話,「當房間著火的時候,我們的機器人可以下出超人一般的圍棋棋步?!埂祟悡碛嘘P于這個世界的基本知識(火很危險),同時還有推理的能力(應該遠離火),但機器沒有。
如何做到?Gary 給出的回答是,「用常識推理訓練機器」,機器不聰明的關鍵是其不像人類一樣擁有世界的常識。
回望 20 世紀 60、70 年代,當時的科學家們并非用數(shù)據(jù)訓練機器,而是嘗試教給機器關于世界的常識,讓其用邏輯做一些簡單的推理。
比如,麥卡錫提出的 Advice Taker 是世界上第一個解決常識知識的人工智能程序,它想讓機器做的推理是,「因為想讓別人吃蛋糕而去烤蛋糕?!埂敢驗?tweety 是一只鳥,所以 tweety 會飛。」
「任何想要進入人工智能領域的人都需要透過現(xiàn)在回望過去。」Gary 說。在當今時代,尤其是當今的中國,我們擁有極其龐大人類交互數(shù)據(jù)庫,比如微軟小冰,每月有上億人與之聊天,如何利用這些數(shù)據(jù)庫讓機器了解世界的常識,進而擁有思想,才是現(xiàn)代科學家應該做的事情。
Gary 所說的機器理解常識在現(xiàn)階段還無法做到,但已經(jīng)有一些公司在往這個方向努力。比如 Gary 創(chuàng)建的公司 Robust.AI 一直在將深度學習與符號人工智能結合,培養(yǎng)機器的邏輯思維。
Cyc 項目沿用的傳統(tǒng)的常識教授方法,雇傭了來編寫 2500 萬條常識性規(guī)則,比如「水是濕的」或者「大多數(shù)人都知道他們朋友的名字」。這讓 Cyc 能夠推斷:「如果你的襯衫濕了,所以你可能是在雨中。」
二、倫理重啟:隱私、偏見與版權,AI 會走向何方?
談及 AI,一個不可忽視的問題就是倫理,人工智能的發(fā)展似乎一直伴隨著倫理爭議。在新冠疫情肆虐的背景下,AI 引發(fā)的倫理似乎更加嚴重。
陸奇和 Gary 的對話并沒有回避這個敏感問題,而是就隱私、偏見、版權侵犯等極受爭議的領域進行了反思與探討。
聯(lián)邦學習:數(shù)據(jù)與隱私的兩全法
在新冠肆虐的背景下,許多組織都開發(fā)了追蹤者應用程序,但受到了不少隱私捍衛(wèi)者的反對,最后蘋果和谷歌聯(lián)手推出了藍牙追蹤項目,利用藍牙將用戶信息匿名傳播到云上。
但關于人工智能與隱私問題的討論從未停止。西方有《歐盟通用數(shù)據(jù)保護條例》,今年 4 月,國務院也在《關于構建更加完善的要素市場化配置體制機制的意見》里,強調了數(shù)據(jù)的共享、數(shù)據(jù)資源的整合和安全保護。
不管是個人應用還是 2B 項目,都面臨著隱私保護與數(shù)據(jù)孤島問題?!溉绾慰创斯ぶ悄芘c隱私保護的矛盾?」陸奇問到。
這方面的技術也的確迎來不少突破,Gary 認為,「聯(lián)邦學習」是解決隱私問題的一個可行的辦法。
聯(lián)邦學習的本質是用分布式機器學習技術,從群體中抽離個體信息。
在聯(lián)邦學習框架中,參與者的邊緣設備產(chǎn)生的數(shù)據(jù)會保存在本地,設備會根據(jù)本地數(shù)據(jù)訓練本地機器模型,然后根據(jù)一定的通信機制向中央服務器傳輸模型參數(shù)等數(shù)據(jù),(模型參數(shù)并非客戶端原始數(shù)據(jù)。)由此一來,中央處理器就可以在邊緣設備不貢獻數(shù)據(jù)的情況下訓練構建全局模型。
「如果我們走到符號層面,你可以抽想出需要了解到場景,而不侵犯特定個體到個人隱私?!笹ary 說。
不會思考機器:傲慢與偏見如何解?
隱私之外,一個更受爭議的倫理話題是偏見。今年的弗洛伊德事件、杜克大學 PULSE 算法事件以及巨頭紛紛下架人臉識別應用等都將人工智能偏見推到了輿論漩渦中。
「在你看來,是否可能存在不帶偏見的人工智能應用算法或系統(tǒng)?」陸奇問。
「現(xiàn)在沒有,也許最終會有?!笹ary 說。在他看來,人工智能存在偏見的原因是,機器只是在反饋過去的事情。
「如果你有一個根據(jù)過往信息獲取優(yōu)秀程序員的系統(tǒng),你輸入一個芭蕾舞演員,由于系統(tǒng)中沒有芭蕾舞演員信息,最后得出的結論便是此人不適合成為程序員。這其中更深層次的原因是以往的教育是芭蕾舞演員不應進入編程領域?!?/P>
社會觀念在進步,但機器只會機械性的按照歷史數(shù)據(jù)做出判斷,但歷史數(shù)據(jù)本身就是帶有偏見的。
「唯一的補救方法就是常識推理?!笹ary 認為,只有常識推理才能讓機器具備更深層次的理解能力,思考他們正在處理的問題。
「我不認為這是無法解決的,但我認為這至少需要十年。我們目前所掌握的技術距離這一目標相去甚遠?!?/P>
被輕易篡改的真相:技術與版權如何平衡?
隱私和偏見是目前爭議較大的兩個倫理問題,除此之外,人工智能還有一些未被重視但同樣有隱患的問題,如版權侵犯。
這類問題容易通常發(fā)生在生成模型中,比如 AI 換臉。2017 年 deepfake 橫空出世,隨之而來是各類倫理問題,不少女明星的臉被換到色情電影中,2019 年 ZAO 的出現(xiàn)降低了換臉門檻,也讓肖像權侵犯現(xiàn)象更加泛濫。除了肖像問題,生成模型還在不斷侵入影視、音樂和文學創(chuàng)作領域,會更改原本的內容侵權作者版權。
「關于能夠生產(chǎn)更改內容的 AI 模型,你的觀點是什么?」陸奇問。
相比于版權侵犯,Gary 認為更嚴重的問題人工智能會很容易的制作虛假內容?!改憧梢宰鲆粋€視頻,Gary Marcus 說,深度學習是有史以來最棒的事。然后斷章取義的把它剪下來。人們無法分辨視頻的真假,無法辨別我是諷刺的口吻還是開玩笑的語氣。」
用偽造的內容掩蓋原本的真相,這是技術發(fā)展需要付出的代價之一。但我們并沒有相應法律基礎來保護人們的權益。
三、處在青少年時期的人工智能
「在某種程度上,我們正處于人工智能歷史上最糟糕的時刻。」Gary 說。
往前看,AI 正處于發(fā)展早期,倫理問題尚未暴露出,往后看,人工智能已經(jīng)強大到足夠解決這些問題。
Gary 將目前人工智能所處階段比為「青少年」,它是一個突然變強大的少年,野蠻生長,但對世界尚缺乏足夠的理解能。
這個階段我們應該做的不是讓其停止生長,而是規(guī)范他的行為,引導他成年。
那么,人工智能要如何走向未來?
我們對成年人工智能的最完美的想象就是 Artificial General Intelligence(通用人工智能),那時機器人將具有一般人類智慧。
「我們離 AGI 還有多遠?如何向 AGI 前進?」陸奇問。
在 Gary 看來,AGI 是非常遙遠的事情?!窤GI 遠遠超過了我們目前的理解范疇,目前我們必須選擇更簡單的問題,比如創(chuàng)造一個可以對物理世界進行推理的系統(tǒng)。這很難,可能需要 20 年才能實現(xiàn),但起碼我們可以看到問題是什么?!?/P>
這個更簡單的問題,用 Gary 的話來說就是「穩(wěn)健的人工智能」,比如可以讓一輛車能在各種條件下行駛不發(fā)生意外,在家庭工作中能處理意外情況。
四、實踐重啟:可復現(xiàn)性與壟斷破除讓 AI 更穩(wěn)健
在實踐中,我們如何實現(xiàn)穩(wěn)健的人工智能?
陸奇首先將目光放到了學界,提出了關于「可復現(xiàn)性」的問題。
「我們是否應該要求論文作者描述他們的實驗系統(tǒng)和過程,以便評審人員和社區(qū)能夠復現(xiàn)其結果?哪些重要且必要的步驟能夠使 AI 研究向更穩(wěn)健的方向發(fā)展?」
關于可復現(xiàn)性,Gary 的觀點十分明確,「如果你研究的是真正的科學,那么你必須具備可復現(xiàn)性。如果你構建的項目只在特定情況下有效,那它只是個玩具?!?/P>
可復現(xiàn)性可讓后人踩著前人的腳步,推動這個學科慢慢往更高的方向發(fā)展。但就陸奇的親身體驗而言,人工智能領域對可復現(xiàn)性的要求基本不存在。
Gary 認為這種現(xiàn)象的原因是激勵機制出現(xiàn)問題??茖W家獲得研究經(jīng)費的前提是在某個知名期刊中發(fā)表引人注目的結果,這會導致科學家傾向于追求結果而忽略實現(xiàn)的過程。
追求奪人眼球的結果于個人有益,但對集體無益。「集體的利益來自于不斷研究真正的科學,這與個體獲得獎勵的方式截然不同。我認為在科學的某些方面,系統(tǒng)的整體結構設計是面向集體的?!?/P>
Gary 舉了艾倫腦科學研究所的案例,該研究所就致力于機器「常識推理」研究,從成千上萬個在線故事、博客和習語條目中提取短語事件訓練機器,讓機器學習從未見過的句子,并推斷句子的情緒或意圖。
這類的工作是一群人為一個共同的使命努力,對可復現(xiàn)性要求極高,無法在短時間內讓個人取得明顯的成就,但放在一個更長的周期中,卻可以推動整個人工智能領域的進步。
但情況會逐漸變好。Gary 認為,很多行業(yè)都經(jīng)歷著從忽視到激勵可復現(xiàn)性的轉折。
「這種變化已經(jīng)在心理學領域發(fā)生,醫(yī)學領域也即將發(fā)生,在人工智能領域,人們也逐漸意識到了這一點?!?/P>
當我們把目光從學術界轉至業(yè)界,會發(fā)現(xiàn)仍然阻礙健康人工智能發(fā)展到因素仍然存在,最主要的就是壟斷。目前谷歌、蘋果、亞馬遜等巨頭已經(jīng)壟斷了大多數(shù)科技領域市場,并且會通過收購、兼并等方式持續(xù)排擠競爭對手,擴大市場,亞馬遜 13 億天價收購 Zoox 就是一個典型案例。
「你是否有建議,能讓創(chuàng)業(yè)公司在巨頭環(huán)伺的情況下更好的抓住創(chuàng)業(yè)機會?」陸奇問道。
「我沒有神奇的解決辦法?!笹ary 說。客觀來看,巨頭擁有壓倒性的人才、資金、技術等競爭優(yōu)勢,他們開出的收購價格也很難讓創(chuàng)業(yè)公司拒絕。
可壟斷狀態(tài)并不利于一個行業(yè)的健康成長,「大公司通常不擅長創(chuàng)新,他們擅長消耗掉所有的資源,他們通常有很多既得利益股東需要回應?!?/P>
從內部來看,公司成長到一定規(guī)模時,就容易涉及到股東利益競爭。資本家對眼前經(jīng)濟利益的追求可能會迫使公司做出短視的決策,美國曾經(jīng)的電信巨頭 AT&T 的隕落就是鮮明的例子。
從整個市場看,資源的壟斷會阻礙創(chuàng)業(yè)公司的入場,缺乏充分競爭的情況下,行業(yè)發(fā)展容易裹足不前。
要解決壟斷問題,似乎只能從壟斷者本身入手,「從整個社會角度來看,給將巨頭拆分為不同的初創(chuàng)公司或許是可行的辦法?!笹ary 說。
尾聲
回顧整篇對話,陸奇和 Gary 聚焦的問題就是「重啟 AI」,從技術、倫理、規(guī)范等角度探討了如何才能構建一個更穩(wěn)定的 AI。
今天的人工智能已經(jīng)發(fā)展到了一定高度,但與我們想要實現(xiàn)的人工智能相比,還是缺乏安全性和穩(wěn)定性。
「我們目前的技術可以以 90% 的準確率解決某個問題,對廣告推薦這類問題而言已經(jīng)足夠,但在自動駕駛、照顧祖父母等場景中,90% 的信任度遠遠不夠。我們必須思考,如何才能將準確率提高到 90% 以上,如何構建值得信任的人工智能?!?/P>
「我希望更廣泛的世界能夠考慮到處理這些關鍵任務到人工智能,它們可以改變世界,但需要更高程度的安全性。希望 5 年、20 年、50 年之后,我們真的可以做到這些事情。」
(轉載)