AI算法治理,難點在哪里

張成洪2023-09-01 20:10

張成洪/文

自2016年3月阿爾法狗(AlphaGo)擊敗人類棋手李世石的新聞傳出,到去年年底ChatGPT問世,人工智能(AI)技術(shù)開始具備了通用人類意圖理解和思維鏈的能力,尤其是在與深度學(xué)習(xí)和生成式AI相結(jié)合的情況下,再加上基于人類反饋的強化學(xué)習(xí),計算機已經(jīng)能夠完成編程、寫作、繪畫等任務(wù),逐步接近了“人類能力地圖”上的幾座高峰。

人們對人工智能的關(guān)注逐漸升高,興奮之余也開始思考機器智能是否可能超越人類智能。

AI的“遠慮”和“近憂”

今年上半年,包括馬斯克在內(nèi)的千名全球科技人士聯(lián)名發(fā)布了一份公開信,呼吁暫停推出更強大的人工智能系統(tǒng)。

盡管我認(rèn)為這份公開信的呼吁不太可行,但其中提出的許多觀點值得深思。其中,特別強調(diào)需要建立專門負(fù)責(zé)人工智能的、有能力的監(jiān)管機構(gòu);強調(diào)推出標(biāo)明來源系統(tǒng)和水印系統(tǒng)的重要性,以幫助區(qū)分真實信息和合成信息,并跟蹤模型的泄露;此外,還提出需要強大的審計和認(rèn)證體系,以確保人工智能系統(tǒng)的透明度和可信度。另外,公開信還提出了需要明確人工智能可能造成的傷害所對應(yīng)的責(zé)任歸屬。

這些內(nèi)容表明,科技領(lǐng)域的關(guān)注不僅僅局限于人工智能的應(yīng)用,更多地開始關(guān)注人工智能是否會帶來負(fù)面影響,是否需要對其發(fā)展進行適當(dāng)?shù)南拗啤?/p>

即使不去考慮AI的“遠慮”,也需關(guān)注AI的“近憂”。比如,電商平臺依賴算法進行推薦和定價,可能導(dǎo)致價格歧視和大數(shù)據(jù)殺熟現(xiàn)象;視頻網(wǎng)站通過算法推薦內(nèi)容,可能造成信息繭房,加劇信息偏見,還有比如搜索排名與個性化推薦被操縱;醫(yī)療領(lǐng)域誤診風(fēng)險;隱私泄露、誘發(fā)輿論暴力、種族、性別的歧視;人類過度依賴算法,使個體失去自主性等負(fù)面案例;當(dāng)算法決策或應(yīng)用結(jié)果損害特定主體權(quán)益時,由于規(guī)則和原則不明確,可能導(dǎo)致利益救濟不足的風(fēng)險;濫用或誤用算法也是一個潛在的風(fēng)險,算法產(chǎn)生的決策效果可能會破壞社會的公正和社會凝聚力。

因此我們迫切需要對AI算法進行有效的治理。

AI算法的基本原則

AI算法治理的定義是基于風(fēng)險防范的要求,把算法本身以及其應(yīng)用的場景和解決的問題,作為治理對象進行規(guī)范化、合規(guī)化的監(jiān)管和修正。

目前學(xué)界對于算法治理提出了不同的定義,有學(xué)者認(rèn)為算法治理致力于提高算法的可解釋性、透明性和技術(shù)保障,涉及一系列技術(shù)標(biāo)準(zhǔn)和法律規(guī)范的制定。也有學(xué)者認(rèn)為,算法治理旨在確保算法的安全性,要對算法建模和預(yù)測的全過程進行管理。

當(dāng)涉及到算法的標(biāo)準(zhǔn)和要求時,現(xiàn)在出現(xiàn)了一些新的術(shù)語,例如公平的AI、可解釋的AI、負(fù)責(zé)任的AI和可信的AI等等。綜合考慮這些概念,我們總結(jié)出七點制定AI算法的基本要求。

1)準(zhǔn)確性。AI算法的首要任務(wù)是準(zhǔn)確,如果不準(zhǔn)確本身就沒用,還會帶來負(fù)面效果。

2)穩(wěn)定性。它要求我們的算法不僅在當(dāng)前情境下準(zhǔn)確可靠,還需在不同情境下保持準(zhǔn)確可靠。

3)可靠性。保證算法決策依據(jù)的充分性,保證決策結(jié)果可靠,可信任。

4)公平性。保證算法的決策無偏向性,無指向性。

5)透明性(可理解性)。保證算法的決策過程是透明的,決策結(jié)果是讓大眾可以理解的。

6)安全性。算法的開發(fā)和使用必須免受安全隱患的影響,不能因為外部干擾或攻擊而導(dǎo)致算法誤判。

7)隱私保護。算法一定會使用數(shù)據(jù),所以要保證數(shù)據(jù)的安全,保護用戶隱私。

對于AI算法治理的必要性,目前社會已經(jīng)擁有共識,但我們還沒有形成AI算法治理的體系。難點在哪里?在于AI算法是一個“黑匣子”,難以檢測AI算法是否符合透明可解釋、公平多樣、安全合規(guī)等要求。此外還存在著設(shè)計人員怎么保證算法是合規(guī)合法的、符合科技倫理的,應(yīng)該由誰負(fù)責(zé)AI算法的治理,誰又有能力來做AI算法治理等一系列問題。

基于此,我認(rèn)為AI算法治理至少要包含三個層次。第一個層次,是算法治理的政策法規(guī),由國家行業(yè)的主管部門制定政策,給予指導(dǎo)。

第二個層次,是算法合規(guī)性的審計,依據(jù)法律法規(guī)或者行業(yè)要求對企業(yè)展開檢查和監(jiān)管,這個可能企業(yè)內(nèi)部做,也可能需要行業(yè)或國家成立專門的監(jiān)管機構(gòu)去做。

第三個層次,是開發(fā)出合規(guī)合法的AI算法,這對開發(fā)人員、對算法工程師是有要求的。

算法治理的政策法規(guī)

算法治理的政策法規(guī)具有特殊重要性,因為它是算法治理的重要指引,是全社會的共識。政府與行業(yè)需要共同合作,制定法律法規(guī),以確保算法的合理運用,并進行必要的政府監(jiān)管。這需要確立健全的算法問責(zé)機制,明晰算法的責(zé)任主體,以促進算法治理走向科學(xué)化、體系化。

同時,倫理道德方面的約束也不可或缺。一些企業(yè)在這方面也展現(xiàn)出積極努力,例如微軟設(shè)立了人工智能能力委員會、美國聯(lián)邦政府與亞馬遜合作開發(fā)促進算法公平性的項目。另外,騰訊一直強調(diào)科技向善,阿里在實踐中也致力于開發(fā)負(fù)責(zé)任的AIGC。

實際上,從2021年起,我國相繼頒布了一系列關(guān)于算法治理的法律法規(guī)。例如,于2021年3月發(fā)布的人工智能算法在金融領(lǐng)域應(yīng)用的評價規(guī)范; 7月份人力資源和社會保障部等八個部門共同發(fā)布了一份指導(dǎo)意見,著眼于維護新興就業(yè)形態(tài)下勞動者權(quán)益的保護;8月份國家出臺了互聯(lián)網(wǎng)信息服務(wù)算法推薦管理的規(guī)定,主要是強調(diào)信息服務(wù)的推薦過程中要避免信息繭房,在2022年形成了正式的意見;9月份發(fā)布《新一代人工智能的倫理規(guī)范》,2022年11月份,又出臺了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)范》,今年發(fā)布了《生成式人工智能服務(wù)管理辦法》的征求意見稿。近幾年有大量的相關(guān)文件發(fā)布。

AI算法合規(guī)性審計的意義與困難

算法治理的第二個層次即算法合規(guī)性審計,以2021年美團為例,為應(yīng)對社會上對于騎手困在算法中的關(guān)注,在國家出臺相應(yīng)要求以保護騎手權(quán)益之際,美團采取了措施,公開了其騎手調(diào)度管理算法。然而,此舉并未如預(yù)期般奏效,因公開程度較為粗略,難以被廣泛理解。

在此引發(fā)一個問題:公開的程度應(yīng)如何界定?若完全公開,是否會損害公司有關(guān)算法的知識產(chǎn)權(quán)?公開程度與算法知識產(chǎn)權(quán)保護怎么去平衡?這是一種矛盾。

相比之下,更好的方式是將其向?qū)I(yè)人士或?qū)iT機構(gòu)公開,設(shè)立專門的審計機構(gòu),以審計為手段檢查企業(yè)或其AI程序是否遵守政策法規(guī),確保其算法達到合規(guī)向善的企業(yè)承諾。當(dāng)然,審計方式或可為企業(yè)內(nèi)部部門,亦或為外部專業(yè)機構(gòu)。

目前,對于AI算法進行審計確實極具挑戰(zhàn)性。

過去,企業(yè)對業(yè)務(wù)進行審計時可能發(fā)現(xiàn),大部分業(yè)務(wù)實際上是由信息技術(shù)(IT)主導(dǎo)的,或者說業(yè)務(wù)的運轉(zhuǎn)離不開IT系統(tǒng)。因此,對于IT系統(tǒng)的審計變得不可或缺,這可能需要對IT系統(tǒng)的邏輯進行嚴(yán)格審查。

而當(dāng)我們面臨算法審計時,即便有條件打開算法代碼,很可能仍然無法判斷其合規(guī)性,尤其對于許多深度學(xué)習(xí)的AI算法來說,它們常常被視為黑匣子,難以深入探究其內(nèi)部機理。

當(dāng)然,算法審計仍然需要繼續(xù)前行,這需要在幾個方面展開工作。

首先,制度建設(shè)是關(guān)鍵,其中一個方向是確立相應(yīng)的監(jiān)管體系。監(jiān)管部門需要將算法視為監(jiān)管對象,并對其全過程進行監(jiān)管。有時候,由企業(yè)內(nèi)部自行進行算法治理,而在某些情況下需要引入第三方的外部算法治理。其次,我們還可以借鑒傳統(tǒng)審計流程的經(jīng)驗。制定一套標(biāo)準(zhǔn),通過調(diào)研收集必要的信息,并進行測試和反饋,再總結(jié)審計結(jié)果。此外,需要基于算法合規(guī)性要求設(shè)定審計目標(biāo),并逐步細化成合規(guī)性的評價指標(biāo)。最后,利用專門的方法和工具去測試被審計算法的各種指標(biāo),從而判斷該算法的合規(guī)性。

目前,AI算法審計仍處于初步探索階段,還需要大量的研究和探索,但同時也蘊含著巨大的機遇和潛力。在AI監(jiān)管要求不斷加強、AI負(fù)面事件增多的背景下,隨著技術(shù)的不斷發(fā)展和專業(yè)機構(gòu)的建立,我相信AI算法審計會逐漸成為一項重要的工作,為確保AI系統(tǒng)的透明性、公平性和合規(guī)性發(fā)揮著關(guān)鍵作用。

合規(guī)算法開發(fā)的需求與挑戰(zhàn)

實際上,在算法開發(fā)階段就考慮合規(guī)性問題是非常重要的,因為事后審計存在局限性,有時候可以說是于事無補。

然而,確保算法在開發(fā)過程中合規(guī)并不是一項容易的任務(wù)。對于可解釋的模型,我們可能可以采取一些方法來確保樣本特征、參數(shù)、目標(biāo)函數(shù)等都符合合規(guī)要求,但對于深度學(xué)習(xí)等復(fù)雜模型來說可能更具挑戰(zhàn)性。

此外,如何將合規(guī)性要求與業(yè)務(wù)要求融合并在模型的訓(xùn)練過程中加以約束也是一個重要問題。我們需要考慮如何確保模型是可解釋和可監(jiān)管的,同時符合科技倫理標(biāo)準(zhǔn)。這可能需要采用一系列策略。

綜合而言,人工智能對人類的影響深遠,然而它又可以說是一把“雙刃劍”,我們既需善用人工智能,也要嚴(yán)密監(jiān)管,特別是在AI算法治理方面。盡管我國已在政策層面積極出臺許多相關(guān)政策,但就算法治理的合規(guī)性審計和合規(guī)算法開發(fā)而言,仍處于探索初期。

要推進AI算法治理,需要高校和企業(yè)共同研究推進,行業(yè)和政府制度也應(yīng)密切參與,同時,AI開發(fā)人員也需自覺承擔(dān)責(zé)任。我深信,通過對AI算法的有效治理,我們將確保科技未來的善用,真正實現(xiàn)人工智能的負(fù)責(zé)任發(fā)展。

(作者系復(fù)旦大學(xué)管理學(xué)院信息管理與商業(yè)智能系教授)

版權(quán)聲明:以上內(nèi)容為《經(jīng)濟觀察報》社原創(chuàng)作品,版權(quán)歸《經(jīng)濟觀察報》社所有。未經(jīng)《經(jīng)濟觀察報》社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,否則將依法追究相關(guān)行為主體的法律責(zé)任。版權(quán)合作請致電:【010-60910566-1260】。

熱新聞

電子刊物

點擊進入