AI狂飆時代,如何扼住技術(shù)的韁繩

陳永偉2023-05-16 02:16

陳永偉/文

5月1日,現(xiàn)年75歲的圖靈獎得主杰弗里·辛頓(GeoffreyHinton)突然宣布從工作了十多年的谷歌離職。在辛頓宣布這一消息后不久,《紐約時報(bào)》對其進(jìn)行了專訪。令許多人意外的是,在這次訪談中,辛頓沒有表現(xiàn)出對自己所取得成績的自豪和欣慰,而是表達(dá)了巨大的悔意。

在人工智能領(lǐng)域,一直存在著嚴(yán)重的路線分歧。在很長時間內(nèi),符號主義(Symbolism,這個學(xué)派主張人工智能的研究應(yīng)該從基于邏輯推理的智能模擬方法模擬人的智能行為)一直是學(xué)界的主流,而辛頓所信奉的聯(lián)結(jié)主義(Con-nectionism,這個學(xué)派強(qiáng)調(diào)智能的產(chǎn)生是由大量簡單的單元通過復(fù)雜的相互聯(lián)結(jié)和并行運(yùn)行)則被視為小眾甚至異端。在這樣的背景下,辛頓依然一直對自己的研究領(lǐng)域保持積極和樂觀的心態(tài)。即使他制作的神經(jīng)網(wǎng)絡(luò)研究被一些學(xué)術(shù)權(quán)威當(dāng)面斥為一文不值,他也從來沒有改變過對自己研究的自信。1986年,他與合作者一起發(fā)表了開創(chuàng)性的論文《通過反向傳播誤差來學(xué)習(xí)表征》。正是這一工作,為后來的深度學(xué)習(xí)革命奠定了理論基礎(chǔ)。

在進(jìn)入新世紀(jì)后,計(jì)算技術(shù)突飛猛進(jìn),深度學(xué)習(xí)所需要的算力瓶頸被突破。在強(qiáng)大算力的支持之下,這一技術(shù)表現(xiàn)出了強(qiáng)大的力量——無論是幾年前戰(zhàn)勝人類棋手的AlphaGO,還是用短短兩個月時間就成功破解了所有蛋白質(zhì)折疊結(jié)構(gòu)的AlphaFold,又或是現(xiàn)在大放異彩的GPT、Midjourney,它們的底層技術(shù)其實(shí)都來自于辛頓的貢獻(xiàn)。而在ChatGPT橫空出世的過程中,辛頓的弟子、OpenAI的首席科學(xué)家伊爾亞·蘇茨克維(IlyaSutskever)則更是居功至偉。隨著這一切的實(shí)現(xiàn),聯(lián)結(jié)主義終于戰(zhàn)勝了符號主義,在人工智能領(lǐng)域取得了主流的地位。

按理說,經(jīng)過了這數(shù)十年的篳路藍(lán)縷,最后終于苦盡甘來,辛頓對于自己的研究領(lǐng)域應(yīng)該表現(xiàn)出比以往更多的自信和樂觀才對。那么,是什么原因讓辛頓對自己的成果表現(xiàn)出了悔恨呢?

在他看來,如果按照這個趨勢發(fā)展,那么原來認(rèn)為需要50年或者更久才能實(shí)現(xiàn)的強(qiáng)人工智能可能不到20年就會出現(xiàn)。如果這一天真的到來了,那么不排除出現(xiàn)AI屠戮人類、奴役人類的情形。遺憾的是,人們可能還沒有準(zhǔn)備好這一切。在闡述了這些觀點(diǎn)后,辛頓用不無尷尬的口吻對記者說:“我用這個平常的借口安慰自己:要是我沒有這么做,別人也會這么做。”

在辛頓的上述“懺悔”被報(bào)道之后,關(guān)于在AI狂飆時代,應(yīng)該如何應(yīng)對AI所產(chǎn)生的各種問題又成為了社會熱議的話題。

遠(yuǎn)慮和近憂

AI迅速發(fā)展,然后意識覺醒,最終從人類的造物成為奴役人類的主體,這個橋段在很多科幻電影中都出現(xiàn)過。但在之前,這個橋段更多是人類的一種想象,因?yàn)榧词故鞘謽酚^的學(xué)者(如《生命3.0》的作者泰格馬克)也認(rèn)為AI要超越人類,達(dá)到強(qiáng)人工智能的水平,至少要到本世紀(jì)末。然而,近半年AI領(lǐng)域的實(shí)踐卻告訴我們,人們或許是太低估了AI的發(fā)展了。過去,人們一直以創(chuàng)造性為人類獨(dú)有的能力,認(rèn)為AI雖然可以在一些機(jī)械性、重復(fù)性的工作上超越人類,但人類依然可以在文學(xué)、繪畫等需要創(chuàng)造性的領(lǐng)域?qū)I保持持久的優(yōu)勢。然而,幾乎是一夜之間,ChatGPT證明了AI可以比人類寫得更快、更好;Dall-E、StableDiffusion和Midjourney證明了創(chuàng)造畫作并非是人類的專利;而AlphaFold等模型則證明了即使是在科學(xué)探索領(lǐng)域,AI也可以做得非常棒。或許AI離凌駕于人類之上只差一個讓它覺醒自我意識的機(jī)緣巧合。如果是這樣,人類的未來又會是怎么樣呢?我們將面臨的是“終結(jié)者”還是“黑客帝國”?現(xiàn)在看來,這已經(jīng)不再僅僅是科幻小說家們需要考慮的問題了。

當(dāng)然,相比于上面這些問題,AI發(fā)展帶來的“近憂”似乎是更值得我們關(guān)注的。

第一,AI,尤其是最近的生成式AI的興起,正在對人們的就業(yè)造成巨大的沖擊。隨著AI的發(fā)展水平越來越高,很多原本由人類承擔(dān)的工作都可以由AI來代替。例如,OpenAI不久前發(fā)布的一篇研究報(bào)告表明,以GPT-4為代表的生成式AI將至少對80%美國勞動力的工作產(chǎn)生沖擊,并且白領(lǐng)工人受到的沖擊更大。目前,不少企業(yè)已經(jīng)開始用GPT取代文案工作,例如有某4A廣告公司已經(jīng)公開宣稱自己的廣告策劃將用GPT來完成;而Midjourney和StableDiffusion的普及讓大量的插畫師下崗。頗為諷刺的是,那些大規(guī)模研發(fā)AI的大型科技企業(yè)也是AI應(yīng)用的重點(diǎn)單位,他們的老板正在用那些本公司發(fā)明的AI來取代自己的員工——其中的一些員工甚至也參與了替代他們的AI的研發(fā)。例如,IBM就在5月1日宣布,可能用AI替代7800個工作崗位,而谷歌則正在嘗試用AI取代一些初級的程序員。這些例子都表明,由AI造成的失業(yè)壓力或許是十分巨大的。

第二,是AI帶來的虛假信息和內(nèi)容的泛濫。在前幾年,一些人已經(jīng)開始用AI合成的語音來從事電話詐騙活動。而去年以來,生成式AI的大爆發(fā)更是大幅降低了虛假信息的制作成本。在這種造假和識假能力嚴(yán)重失衡的狀況下,整個互聯(lián)網(wǎng),甚至整個社會上的造假活動都大規(guī)模增加了。很多人在并非出于惡意的情況下,也會用AI制作非真實(shí)的內(nèi)容。比如,一些人會用AI生成一些搞笑的圖片或視頻,雖然他們的本意可能只是出于娛樂,但在客觀上也會對很多人造成認(rèn)知上的巨大干擾。

第三,AI被一些人濫用,也給社會帶來了很大的威脅。在目前這個階段,AI主要還是一個工具,會根據(jù)人的指令去精確地完成各種任務(wù)。比如,目前的軍用無人機(jī)在AI的指導(dǎo)之下已經(jīng)可以非常精準(zhǔn)地?fù)糁心繕?biāo)。如果這種技術(shù)的應(yīng)用僅局限在戰(zhàn)爭上,那么它固然可以減少不必要的軍事人員消耗,也可以減少大規(guī)模破壞帶來的額外損失,但如果類似的技術(shù)被一些不法分子掌握,那它們就可能會成為公共安全的巨大威脅。

第四,AI引發(fā)的數(shù)據(jù)、隱私、知識產(chǎn)權(quán)等問題也十分引人關(guān)注??偟膩碚f,最近幾年的AI進(jìn)步主要是由機(jī)器學(xué)習(xí)(或者更確切的說,是機(jī)器學(xué)習(xí)中的深度學(xué)習(xí))所推動的。為了訓(xùn)練出強(qiáng)大的機(jī)器學(xué)習(xí)模型,就需要給AI“喂”海量的數(shù)據(jù)。通常來說,數(shù)據(jù)的規(guī)模越大,模型的性能也就越好——甚至有研究表明,相比于算法的改進(jìn)來說,數(shù)據(jù)量的增加對于提升模型的性能所起的作用要更大。而在開發(fā)者搜集的數(shù)據(jù)中,就可能包括帶有個人信息或行為軌跡的數(shù)據(jù),以及由他人創(chuàng)造的各種作品。其中,前一類數(shù)據(jù)的獲取可能引發(fā)隱私和個人信息泄露等問題,而后一類數(shù)據(jù)的獲取和使用則可能會引發(fā)知識產(chǎn)權(quán)相關(guān)的糾紛。如果這些問題不處理好,就會對經(jīng)濟(jì)和社會產(chǎn)生非常負(fù)面的影響。

綜合以上分析,我們可以看到,在AI狂飆突進(jìn)的時代,我們絕不能僅僅看到它所能帶來的便利和效率改進(jìn),還需要對它可能引發(fā)的風(fēng)險(xiǎn)和問題保持足夠的重視。

“堵”不如“疏”

用法律為AI的發(fā)展劃定軌道

我們應(yīng)該如何面對AI飛速發(fā)展帶來的各種問題呢?一種最為直觀的思路就是停止對于AI技術(shù)的開發(fā)。早在古羅馬時期,韋帕薌就曾拒絕工匠向他進(jìn)獻(xiàn)的先進(jìn)運(yùn)輸機(jī)器,理由是如果用了這種新機(jī)器,就可能讓自己的臣民大量失業(yè)。在韋帕薌之后的一千多年,當(dāng)工業(yè)革命的浪潮席卷歐洲的時候,也有一部分人站出來,試圖通過摧毀機(jī)器來阻擋技術(shù)進(jìn)步的步伐。但無論是皇帝還是工人,最終都沒能成功地阻擋技術(shù)進(jìn)步,而技術(shù)進(jìn)步過程中的問題也并沒有因?yàn)檫@種努力而消失??梢灶A(yù)料,在AI突進(jìn)的時代,通過阻擋AI發(fā)展的方式來預(yù)防它可能帶來的問題的努力也同樣不會成功。

相比之下,“疏”似乎是更為務(wù)實(shí)可取的思路。也就是說,要允許和鼓勵A(yù)I的發(fā)展,但與此同時,也要對AI的發(fā)展進(jìn)行規(guī)范和引導(dǎo),為這匹狂奔的“野馬”套上韁繩。而要做到這一點(diǎn),我們就必須綜合應(yīng)用好法律、政策、市場,以及技術(shù)等各種手段。

近年來,面對AI技術(shù)的迅猛發(fā)展,各國都認(rèn)識到了AI技術(shù)可能蘊(yùn)含的風(fēng)險(xiǎn),紛紛嘗試通過立法來為AI的發(fā)展劃定界限。

在全球的各大區(qū)域中,歐盟是較早開始著手對AI進(jìn)行立法的。在過去幾年中,歐盟針對AI發(fā)展和應(yīng)用當(dāng)中產(chǎn)生的一些問題專門制定過一些法律法規(guī)。在最近,歐洲議會又剛剛就《關(guān)于制定確立人工智能統(tǒng)一規(guī)則以及修改部分聯(lián)盟法律的歐盟議會和歐盟理事會的條例的提案》(簡稱《人工智能法案》)達(dá)成了協(xié)議,這可能意味著世界上第一部“人工智能法”已經(jīng)呼之欲出。

在《人工智能法案》中,有相當(dāng)多看點(diǎn)。具體來說,該法案利用“基于風(fēng)險(xiǎn)的方法”(risk-basedapproach)將人工智能系統(tǒng)(AISystem)劃分為了四類:“不可接受的風(fēng)險(xiǎn)”(unacceptablerisk)、“高風(fēng)險(xiǎn)”(highrisk)、“有限風(fēng)險(xiǎn)”(limitedrisk)以及“最低風(fēng)險(xiǎn)”(minimalrisk)。在這四類風(fēng)險(xiǎn)中,具有前三類風(fēng)險(xiǎn)的AI系統(tǒng)都需要受到法案的監(jiān)管。

“不可接受的風(fēng)險(xiǎn)”被認(rèn)為是與歐盟的基本價值觀相違背(例如對基本人權(quán)的侵犯),需要完全被禁止。

“高風(fēng)險(xiǎn)”指的是作為關(guān)鍵基礎(chǔ)設(shè)施、執(zhí)法或教育的工具的AI系統(tǒng)。這類系統(tǒng)的風(fēng)險(xiǎn)很大,但作用也很重要,因此不會被完全禁止,但需要在操作中保持高度透明,AI系統(tǒng)的提供者需要承擔(dān)較重的任務(wù)。具體來說,提供者應(yīng)當(dāng)做到幾點(diǎn):(1)負(fù)有合規(guī)義務(wù),確保高風(fēng)險(xiǎn)人工智能系統(tǒng)的預(yù)期使用目的符合規(guī)定,按照規(guī)定建立、運(yùn)行、記錄并維持風(fēng)險(xiǎn)管理系統(tǒng),并確保人工監(jiān)管的準(zhǔn)確性、韌性和安全性。(2)建立合理的質(zhì)量管理系統(tǒng),并以書面政策、程序和指令的形式有序地載明該質(zhì)量管理系統(tǒng),確保合規(guī)程序的執(zhí)行、相關(guān)文件的草擬以及強(qiáng)有力的售后監(jiān)管制度的建立。確保高危人工智能系統(tǒng)在投放市場或投入使用前,經(jīng)過相關(guān)的評估程序。(3)擔(dān)負(fù)記錄保存義務(wù)。在人工智能系統(tǒng)投放市場或者投入使用之日起的10年內(nèi),提供者應(yīng)保存技術(shù)資料、質(zhì)量管理系統(tǒng)相關(guān)文件等以備檢查。依照與用戶的協(xié)議或法律規(guī)定由其控制高危人工智能系統(tǒng)自動生成的日志的,則提供者有義務(wù)保存上述日志。

《法案》對違規(guī)提供或使用AI的個人或機(jī)構(gòu)規(guī)定了高額的罰款。具體來說,AI系統(tǒng)的提供者如果違反相關(guān)的禁止性規(guī)定或數(shù)據(jù)治理義務(wù)的,最高可以被處以3000萬歐元的罰款或全球年?duì)I業(yè)額的6%(以較高者為準(zhǔn));高風(fēng)險(xiǎn)AI系統(tǒng)的使用違反其他規(guī)定的,可以處以最高2000萬歐元或營業(yè)額的4%的罰款;向成員國主管機(jī)構(gòu)提供不正確、不完整或具有誤導(dǎo)性的信息,將被處以最高1000萬歐元或營業(yè)額2%的罰款。

需要指出的是,在《法案》提交歐洲議會表決之前,還專門根據(jù)當(dāng)前AI發(fā)展的現(xiàn)狀,加入了有關(guān)生成式AI的相關(guān)規(guī)定。例如,規(guī)定了提供生成式AI工具的公司必須披露他們是否在系統(tǒng)中使用了受版權(quán)保護(hù)的材料,以及生成式AI的模型的設(shè)計(jì)和開發(fā)必須符合歐盟法律和基本權(quán)利等。

美國目前還沒有全面的AI立法,不過聯(lián)邦、州和地方政府,以及某些具體的職能部門已經(jīng)對一些問題進(jìn)行了相關(guān)的立法實(shí)踐。比如,在2023年4月底,美國聯(lián)邦貿(mào)易委員會(FTC)、消費(fèi)者金融保護(hù)局(CFPB)、司法部民權(quán)司 (DOJ)和平等就業(yè)機(jī)會委員會(EEOC)等四個部門就曾聯(lián)合發(fā)布聲明,稱將繼續(xù)針對AI系統(tǒng)執(zhí)行現(xiàn)有的民權(quán)法,以避免人工智能“使非法偏見永久化”。根據(jù)這一聲明,這幾大監(jiān)管部門將重點(diǎn)從AI可能產(chǎn)生偏見的數(shù)據(jù)集、大模型的透明度、系統(tǒng)設(shè)計(jì)的前提假設(shè)這三個方面入手,監(jiān)管其潛在的歧視風(fēng)險(xiǎn)。

此外,美國國家電信和信息管理局(NTIA)也就人工智能審計(jì)和評估的發(fā)展發(fā)起征求意見。在這份征求意見稿中,NTIA承認(rèn)了普遍存在共識的“AI監(jiān)管難題”,包括如何權(quán)衡多重目標(biāo)、實(shí)施問責(zé)機(jī)制的難度、AI生命周期和價值鏈復(fù)雜性帶來的挑戰(zhàn)、如何標(biāo)準(zhǔn)化評估等。而對于一些涉及更有爭議的、難以協(xié)調(diào)的、跨領(lǐng)域的標(biāo)準(zhǔn)難題,NTIA認(rèn)為“根本不部署人工智能系統(tǒng)將是實(shí)現(xiàn)既定目標(biāo)的手段”。

目前我國還沒有關(guān)于AI的系統(tǒng)性立法,但是針對AI發(fā)展過程中出現(xiàn)的各種問題,有關(guān)部門出臺相關(guān)規(guī)定也都非常及時。例如,不久之前,網(wǎng)信辦就公布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,對生成式AI發(fā)展做出了很多規(guī)范。

用政策及時回應(yīng)AI發(fā)展中的問題

從根本上看,法律法規(guī)可以解決的主要是一些長期性的問題。但在AI的發(fā)展過程中,還經(jīng)常會出現(xiàn)一些短期的、易變的問題。以AI對勞動力市場的沖擊為例,不同類別的AI模型的影響就很不一樣。在幾年之前,AI的發(fā)展方向主要是幫助人們完成一些重復(fù)的、繁瑣的預(yù)測性工作。在這種情況下,那些工作內(nèi)容相對單一、原本收入較低的藍(lán)領(lǐng)工人就是受AI沖擊最大的群體。而在生成式AI崛起之后,擁有較高學(xué)歷、經(jīng)過較長時間職業(yè)技能培養(yǎng)、原本收入較高的白領(lǐng)人士就成為了受沖擊最大的群體。很顯然,對于這兩種不同的沖擊情況,應(yīng)對的策略應(yīng)該是不同的。所以相對固定的法律并不適合于處理類似的問題,而相比之下,靈活的政策組合拳則是更為可取的。

而在政策的制定當(dāng)中,有很多不同的思路。一種思路是回應(yīng)性的政策,即在發(fā)現(xiàn)了問題之后,再研究相應(yīng)的政策來加以破解;另一種思路則是前瞻性的政策,即主張通過政策的預(yù)判,率先制定好相關(guān)的政策。這兩種思路各有利弊,前者可能因?yàn)檎叱雠_的遲緩而延長了問題的影響時間,從而加大了由此產(chǎn)生的成本;后者則可能因?yàn)檎`判而影響了AI正常發(fā)展的進(jìn)程。在實(shí)踐當(dāng)中,我們必須根據(jù)具體情況對這些成本進(jìn)行權(quán)衡。大部分情況下,政策誤判帶來的成本可能是更大的。從這個角度看,或許看似笨拙的回應(yīng)式政策會比看似高瞻遠(yuǎn)矚的前瞻式政策更為可取。

AI的代碼之治

無論是利用法律還是政策來對AI進(jìn)行治理,從根本上講都是用人在治理AI。隨著AI的發(fā)展越來越迅速,應(yīng)用范圍越來越廣,這種治理方式的弊端會越來越明顯:一方面,AI治理所需要投入的人力、物力和財(cái)力要求將會越來越大,由此產(chǎn)生的巨量成本將是人們難以承受的;另一方面,無論是法律的制定還是政策的出臺,都需要一定的時間,因此它們必然具有滯后性。

在這樣的背景下,我們除了對AI進(jìn)行“人治”之外,必然會需要應(yīng)用各種技術(shù)的手段來對AI進(jìn)行“技治”。具體來說,如下幾點(diǎn)是需要重視的:

首先,應(yīng)當(dāng)將一些根本性的原則寫入代碼,要求AI必須遵守。著名的科幻作家阿西莫夫曾在自己的小說《我,機(jī)器人》中提出過著名的“機(jī)器人三法則”:(1)機(jī)器人不得傷害人類個體,或者目睹人類個體將遭受危險(xiǎn)而袖手不管;(2)機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時例外;(3)機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。這個“三法則”非常有名,后來的很多小說,甚至與機(jī)器人相關(guān)的政策文獻(xiàn)中都經(jīng)常加以引用。很多人認(rèn)為,作為與機(jī)器人學(xué)有千絲萬縷聯(lián)系的學(xué)科,AI的發(fā)展也需要有一些類似的基本法則。例如,對于目前火爆的生成式AI的一大擔(dān)憂就是AI會用自己的造物作為材料,不斷進(jìn)行新的創(chuàng)造,最終讓整個創(chuàng)造過程失控。針對這一情況,一些學(xué)者就建議,要將禁止這種“遞歸造物”作為一個法則寫入AI的底層代碼,以保證AI要進(jìn)行新內(nèi)容的創(chuàng)造必須經(jīng)過人類的允許。通過這種方式,就可以有效地防止AI造物的無序進(jìn)行。

以上思路非常有價值,但也存在缺點(diǎn)。因?yàn)槿嗽跇?gòu)建法則的時候總是可能存在著這樣或那樣的漏洞,這就可能導(dǎo)致AI誤解這些法則,最終造成法則的失敗。以“機(jī)器人三法則”為例,機(jī)器人完全可以在遵守這幾個法則的前提下對人類造成傷害,比如出于保護(hù)人類安全的考慮,將人類像動物一樣圈養(yǎng)起來,而這顯然是人們不愿意看到的。由此可見,想要通過為AI制定一個法則來解決所有問題是不現(xiàn)實(shí)的。在實(shí)踐當(dāng)中,人們還需要通過對AI進(jìn)行持續(xù)的教育和溝通,以保證AI能夠明白人類制定法則的真正目標(biāo),讓自己的行為和這些目標(biāo)始終對齊。目前,關(guān)于AI對齊性(AIalignment)的研究已經(jīng)成為了AI研究中的一個重點(diǎn)。相信在未來,它也將是對AI進(jìn)行“技治”的一個關(guān)鍵。

其次,應(yīng)當(dāng)充分利用AI的能力來輔助AI治理。比如說,現(xiàn)在基于AI的定向推送廣告給用戶帶來了非常大的困擾。如何來應(yīng)對這個問題呢?一個方法就是開發(fā)一種“AI保安”,將自己的真實(shí)需要告訴它,讓它在接到推送廣告的時候根據(jù)用戶需要,以及廣告推送者的“信用”狀況來進(jìn)行甄別,只有通過了甄別的廣告才被允許繼續(xù)推送給用戶。通過這種方式,就可以一定程度地破解定向廣告擾民的問題。

這里值得一提的是,在用AI輔助治理的過程中,非常重要的一點(diǎn)是用AI來訓(xùn)練其他AI,以此來保證后者具有良好的價值觀。事實(shí)上,在ChatGPT的訓(xùn)練過程中就已經(jīng)應(yīng)用了這一思路。在GPT-3被訓(xùn)練完成后,它已經(jīng)具有了十分強(qiáng)大的功能,不過,依然經(jīng)常在一些涉及價值觀的問題上犯錯誤。比如,在涉及種族、宗教等問題的時候,它就經(jīng)常會發(fā)表一些政治不正確的觀點(diǎn)。如何解決這一問題呢?OpenAI的做法就是用AI訓(xùn)練AI。具體來說,先取GPT-3的一部分作為一個小模型,然后對這個小模型進(jìn)行“基于人力反饋的強(qiáng)化學(xué)習(xí)”(ReinforcementLearningfromHumanFeedback,簡稱RLHF)訓(xùn)練,也就是讓很多人類訓(xùn)練員不斷地拿一些“敏感”問題和模型交流,并根據(jù)它的回答狀況進(jìn)行打分。這樣,模型就會根據(jù)得分的狀況不斷地對自己的回答進(jìn)行調(diào)整。在訓(xùn)練達(dá)到了一定的量之后,這個模型就可以“出師”,成為一個價值觀上可靠的模型。這時,再讓這個模型作為“教練”,對原模型用類似的方法進(jìn)行訓(xùn)練,讓原模型可以通過不斷的訓(xùn)練來樹立正確的價值觀。正是通過這種方式,OpenAI才最終得以用一個比較低廉的成本訓(xùn)練出了ChatGPT這樣的產(chǎn)品。我想,這個經(jīng)驗(yàn)應(yīng)該是可以在以后的AI治理實(shí)踐中進(jìn)一步借鑒的。

再次,包括區(qū)塊鏈、隱私計(jì)算在內(nèi)的其他技術(shù)也有助于AI的治理。例如,在生成式AI興起之后,一個十分困擾人的問題就是知識產(chǎn)權(quán)。一方面,AI訓(xùn)練者可能違規(guī)使用網(wǎng)絡(luò)上的各種作品而不支付相應(yīng)的報(bào)酬。另一方面,人們在使用AI創(chuàng)作相關(guān)內(nèi)容時也無法證明自己在創(chuàng)作過程中所起的作用,因而也無法主張對應(yīng)的知識產(chǎn)權(quán)。尤其是在現(xiàn)在各國的立法機(jī)關(guān)都傾向于認(rèn)定AI生成物不能享有知識產(chǎn)權(quán)保障的情況下,一些對于作品的形成有較大貢獻(xiàn)的AI使用者將無法主張他們的權(quán)利。對于這些情況,區(qū)塊鏈技術(shù)將可以起到作用。借助于區(qū)塊鏈的可追溯性,人們就可以確認(rèn)在產(chǎn)品生成過程中不同人、不同投入要素的作用,從而為最終的利益分配提供參考。又如,現(xiàn)在很多的AI任務(wù)都需要多個模型、多個單位之間進(jìn)行協(xié)同,在這種情況下,利益的分配問題難以解決。而如果借助于區(qū)塊鏈技術(shù),則可以較好地對每個參與方的利益進(jìn)行記錄,并根據(jù)貢獻(xiàn)狀況來分配相應(yīng)的通證予以激勵。此外,針對AI使用過程中可能帶來的隱私和信息泄露問題,則可以借助隱私計(jì)算等技術(shù)來進(jìn)行解決。應(yīng)用這些技術(shù),就可以有效地破解應(yīng)用法律和政策難以破解的AI治理難題。

 

熱新聞