Popular science work
“AI 的應(yīng)用落地在不斷提速,但在算法‘黑箱’下,AI 的不可解釋性讓‘黑箱’很難釋明,進(jìn)而讓人們對AI的安全難言放心。”日前,在 2022 年科技向善創(chuàng)新周上,與會專家圍繞AI的透明和可解釋難題從技術(shù)角度直指產(chǎn)業(yè)痛點(diǎn)。與此同時(shí),由騰訊研究院、優(yōu)圖實(shí)驗(yàn)室等多家機(jī)構(gòu)組成的跨學(xué)科研究團(tuán)隊(duì)歷時(shí)一年完成的《可解釋AI發(fā)展報(bào)告2022》也引發(fā)熱議。報(bào)告從可解釋AI的概念、監(jiān)管趨勢、行業(yè)實(shí)踐、發(fā)展建議等熱點(diǎn)問題出發(fā),抽絲剝繭地呈現(xiàn)可解釋AI產(chǎn)業(yè)的現(xiàn)狀和發(fā)展趨勢,以期能為產(chǎn)業(yè)解決 AI“黑箱”釋明難題提供一份參考和借鑒。
目前,部分人工智能應(yīng)用已成為通用型的技術(shù),而人類對AI則一直有更高的期待。不少人堅(jiān)信,科幻電影《Her》中的AI機(jī)器人可對行為作出解釋,從而幫助人類作出決策,甚至與人類產(chǎn)生深度交流的一幕,遲早也會出現(xiàn)在人們的日常生活中。雖然產(chǎn)業(yè)的發(fā)展已經(jīng)起步并快速成為行業(yè)熱點(diǎn),但這些過于理想化的場景目前還只能存在于科幻作品中,實(shí)踐中可解釋 AI 不論在技術(shù)上還是體驗(yàn)上都還沒達(dá)標(biāo)。如今,金融機(jī)構(gòu)的貸款審批都是基于AI 作出決策,如果這一復(fù)雜的算法風(fēng)控系統(tǒng)拒絕申請,那么貸款人就沒辦法獲得貸款。這只是 AI 在眾多日常場景應(yīng)用中的一幕,只要是 AI 做出了決策,公眾就必須接受結(jié)果,至于什么原因,算法沒有也不可能給出解釋。“有時(shí)候連開發(fā)人員都不能很好地理解AI 算法‘黑箱’運(yùn)作的具體細(xì)節(jié),這就導(dǎo)致 了 AI 模 型 的 透 明 度 和 可 解 釋 性 的 問題。”騰訊研究院秘書長張欽坤表示,如果不解決這兩個(gè)問題,不僅影響用戶對 AI應(yīng)用的信任,而且也可能會帶來算法歧視、算法安全和算法責(zé)任等方面的相關(guān)問題。其實(shí),人工智能的可解釋以及科技倫理等問題已經(jīng)成為 AI 領(lǐng)域的必選項(xiàng),2021年起始的“十四五”規(guī)劃里面也明確強(qiáng)調(diào)要健全科技倫理的體系。廈門大學(xué)人文學(xué)院院長朱菁認(rèn)為,AI可解釋性問題之所以受到重視,主要因?yàn)锳I 的發(fā)展雖然變得越來越強(qiáng)大,但也變得越來越“黑”,再者 AI 雖然變得越來越實(shí)用,其可靠性和應(yīng)用范圍也得到提高。“在一些重要的應(yīng)用領(lǐng)域,對于 AI 可信任性、安全性等方面的要求也越來越高,可解釋性就是滿足上述要求的認(rèn)知基礎(chǔ)。”目前來看,國內(nèi)企業(yè)在可解釋 AI 實(shí)踐方面還比較零碎,沒有達(dá)到系統(tǒng)化的程度,但就整體而言,產(chǎn)業(yè)一直都是朝著可解釋的方向發(fā)展。
AI 快速深入日常生活,既帶來了興奮和期待,也帶來一些憂慮,甚至恐慌。AI到底是人類的好幫手,還是會成為人類強(qiáng)勁的對手?其實(shí)這很大程度上取決于人類對 AI 的理解。只有打開了人工智能的黑箱,了解到AI背后的機(jī)制,并認(rèn)為它是可解釋、可理解的,人類在這種共識下才能真正達(dá)成對AI的信任。然而,當(dāng)前的 AI 可解釋性及透明度與算法的高效率還是一個(gè)矛盾體。微眾銀行首席人工智能官楊強(qiáng)認(rèn)為,AI算法高效率的同時(shí),可解釋性就很差。同樣,AI線性模型的準(zhǔn)確率沒有那么高,它的可解釋性相對就會強(qiáng)一些。“這就意味著我們要在可解釋和高效率兩個(gè)維度上做一個(gè)取舍,但目前并沒有兩個(gè)維度都高的AI算法。目前可解釋AI在各個(gè)行業(yè)都是一個(gè)起步,也都不可或缺,但如何做好AI可解釋的量化,才是當(dāng)前業(yè)界該考慮的重點(diǎn)。”不同人群、不同應(yīng)用場景對 AI 算法的可解釋性期待是不一樣的,不應(yīng)該搞一刀切。現(xiàn)階段深度學(xué)習(xí)普遍缺乏可解釋性的情況下,AI 透明度就尤其重要。”騰訊天衍實(shí)驗(yàn)室負(fù)責(zé)人鄭冶楓表示,AI 算法應(yīng)盡可能詳盡披露模型、訓(xùn)練數(shù)據(jù)分布等情況。朱菁也認(rèn)為,目前來說,AI 的可解釋性和預(yù)測的準(zhǔn)確性二者不可兼得,既提高預(yù)測準(zhǔn)確性,同時(shí)還要把可解釋性提高,要實(shí)現(xiàn)這件兩全其美的事情難度比較大。其次,解釋的多元化除了怎么都行的這種形態(tài)以外,還有孤島式的、互動式的以及整合性的形態(tài)。“這些只是同一個(gè)整體的不同側(cè)面,AI 能不能做到這些,現(xiàn)在其實(shí)并不是很清楚。”
可解釋是可信 AI 的重要組成部分,也是可信的前提條件之一,它有很強(qiáng)的獨(dú)特性。當(dāng)前可解釋AI研究思路很多,但并沒有一個(gè)明確的框架,畢竟解釋對象的不同,框架也難統(tǒng)一。香港中文大學(xué) (深圳) 吳保元副教授認(rèn)為,與其說AI的可解釋性,還不如稱之為 AI 的可解釋力。“可解釋性可能會讓人們誤認(rèn)為這是一種性質(zhì),而可解釋力就是一種可解釋的能力,就如同人們常說的理解力、領(lǐng)導(dǎo)力,是一種手段,一種行為,一種操作的存在。”《可解釋 AI 發(fā)展報(bào)告 2022》 從科技向善的角度出發(fā),認(rèn)為需要找到一個(gè)平衡的可解釋AI路徑來實(shí)現(xiàn)可信AI,確保科技向善。張欽坤解釋說,就是在設(shè)計(jì)可解釋性要求時(shí),需要充分考慮可解釋性要求和其他重要的倫理價(jià)值和目的,可解釋本身不是目的而是手段。“在設(shè)計(jì)可解釋 AI 的時(shí)候,首先需要考慮實(shí)現(xiàn)什么樣的目標(biāo),其次才是思考在特定的情境下如何更好地匹配這些目標(biāo)。”對于 AI 研究里的解釋性問題的基本立場,朱菁的建議是解釋的多元化:“針對不同的問題,哪怕是在同一個(gè)領(lǐng)域里,也不能指望只有唯一的解釋方式或模式,要允許多種多樣的解釋模型存在。”
來源:科技日報(bào)