起訴OpenAI

陳永偉2023-07-11 01:05

陳永偉/文

最近,總部位于加州的克拉克森律師事務(wù)所(ClarksonLawFirm)向加州北部地區(qū)巡回法院提交了一份長達157頁的起訴書,對風頭正勁的人工智能公司OpenAI和它的合作伙伴微軟提起了一項集體訴訟。

在起訴書中,原告指控OpenAI和微軟在開發(fā)、營銷和運營其AI產(chǎn)品時,對數(shù)以億計的互聯(lián)網(wǎng)用戶的個人信息,包括兒童信息進行了非法收集、使用和分享。原告認為,被告的上述活動違反了多項法律。據(jù)此,原告要求法院對被告發(fā)布禁令,并對被告的損失進行賠償。

由于這項訴訟是ChatGPT爆火以來面臨的第一次較有影響力的訴訟,因此在很多新聞報道中將其稱為“ChatG-PT第一案”。不過,嚴格來說,這個“第一案”的名頭可能未必恰當。一方面,幾乎就在克拉克森律師事務(wù)所提起訴訟的同時,作家保羅·崔布雷(PaulTrem-blay)和莫納·阿瓦德(MonaAwad)也向舊金山聯(lián)邦法院提起了一項針對Ope-nAI的著作權(quán)訴訟。只不過,克拉克森律師事務(wù)所提起的這項訴訟在媒體上披露得更多(或許這應(yīng)該歸功于律所的訴訟策略),因而其影響更大。另一方面,這次訴訟涉及的對象也不限于ChatGPT,而是包括了ChatGPT、Dall-E、Codex在內(nèi)的眾多OpenAI旗下產(chǎn)品?;谶@一點,相比于將這次訴訟稱為“ChatGPT第一案”,倒不如將其稱作“OpenAI第一案”更為恰當。

AI:最好和最糟的發(fā)明

2016年10月,著名物理學家斯蒂芬·霍金(StephenHawking)曾在一次演講中說道:“AI的成功創(chuàng)造可能是我們文明史上最大的事件。但它也可能是最后一次,除非我們學會如何避免風險。”在他看來,“強大的人工智能的崛起或許是人類有史以來最好的事情,但也可能是有史以來最糟糕的事情。”

在克拉克森律師事務(wù)所向法庭提交的起訴書的開頭,就這次集體訴訟的基本情況撰寫了一段引言,其中就引述了霍金的上述著名言論。在代理案件的律師看來,隨著ChatGPT等產(chǎn)品的成功,一場激烈的AI軍備競賽正在大型科技企業(yè)之間展開。這在大幅推進AI技術(shù)進步的同時,也迫使人們不得不認真思考霍金的預言:人們應(yīng)該選擇一條更為安全、繁榮、可持續(xù)的AI發(fā)展道路,還是選擇一條通向毀滅的AI發(fā)展道路。

起訴書指出,被告的產(chǎn)品及其技術(shù)無疑具有很多向善的潛力,但遺憾的是,它們在擁有了強大力量的同時,卻沒有意識到它所蘊含的破壞性力量。

原告律師引述了OpenAI安全部門負責人的一段公開發(fā)言。這段發(fā)言表明,OpenAI方面其實早就認識到,它們的AI產(chǎn)品是“一項相當不成熟的技術(shù)”,如果沒有足夠的安全防范,激進地部署AI模型將是非常魯莽的。但顯然,OpenAI的上述認識并沒有讓其放緩對AI的研發(fā)和部署。在原告律師看來,正是這種對風險的忽視和放縱,造成了對人們隱私權(quán)、財產(chǎn)權(quán)等多種權(quán)利的侵犯。

原告律師指出,被告這種為謀取經(jīng)濟利益而不惜犧牲他人和公眾利益的行為是非法的。據(jù)此,他們呼吁法庭要求被告立即停止這些行為,并讓被告確保他們今后的產(chǎn)品是透明(Transparen-cy)、可問責(Accountability),以及可控(Control)的。

美國AI的發(fā)展回顧

在結(jié)束了“引言”之后,起訴書對美國AI的發(fā)展進行了一段回顧——不過,雖然題為“美國AI發(fā)展”,其實關(guān)注的焦點完全是在OpenAI和微軟這兩個被告上。具體來說,這段回顧強調(diào)了四個基本的事實:

(1)OpenAI從非營利組織向營利公司的轉(zhuǎn)變

最初,OpenAI是以一個非營利研究機構(gòu)的形式成立的,它聲稱要以安全和負責任地推動人類進步作為自己的使命。然而,從2019年起,OpenAI的戰(zhàn)略就發(fā)生了180度的轉(zhuǎn)變,從一個開放的非營利組織轉(zhuǎn)向以盈利為目的的公司結(jié)構(gòu),并與外部投資者進行合作,其中最著名的合作者就是微軟。

從商業(yè)上看,OpenAI的這個轉(zhuǎn)型是非常成功的。短短幾年時間,它就從一家默默無聞的AI研究機構(gòu)搖身一變成了估值290億美元的公司。但是,原告律師指出,這個轉(zhuǎn)變也帶來了很多問題。很多人擔心OpenAI因此將短期財務(wù)利益置于人類利益之上,尤其是他們在已知存在風險的情況下突然將產(chǎn)品廣泛商業(yè)化,可能引發(fā)道德、安全和倫理等多個方面的問題。

(2)ChatGPT的發(fā)展對秘密抓取網(wǎng)絡(luò)數(shù)據(jù)的依賴

大型語言模型的開發(fā)和訓練嚴重依賴于個人數(shù)據(jù),尤其是人與人之間的對話數(shù)據(jù)。起訴書指出,為了能夠以相對低廉的成本對ChatGPT等大語言模型進行訓練,OpenAI坐視成熟的數(shù)據(jù)交易市場不用,而選用了“偷竊”(theft),也就是秘密在互聯(lián)網(wǎng)上爬取數(shù)據(jù)的方式。在數(shù)年中,它爬取了大約3000億字的網(wǎng)上文本資料,包括書籍、文章,以及網(wǎng)絡(luò)帖子等。除此之外,它還秘密爬取了大量的個人數(shù)據(jù),包括個人信息、聊天記錄、在線客戶服務(wù)互動、社交媒體對話和從互聯(lián)網(wǎng)上抓取的圖片等。

(3)ChatGPT在用戶的應(yīng)用程序上進行訓練

起訴書指出,最初,ChatGPT曾在未經(jīng)用戶同意的情況下,利用用戶來幫助其進行模型的訓練。當用戶和ChatGPT聊天時,他的所有行為和信息,包括點擊、輸入、問題、使用、移動、按鍵、搜索和地理位置等,都會被Ope-nAI秘密搜集,并用于模型的訓練。

另外需要指出的是,OpenAI并沒有對其搜集的用戶信息的保存狀況進行充分披露。由于這些數(shù)據(jù)當中可能包含用戶的敏感信息,因此在缺乏妥善保護的情況下,它們存在著很大的泄露風險。

(4)微軟推廣OpenAI的經(jīng)濟依賴模式

起訴書指出,作為OpenAI的最重要合作者,微軟在推廣OpenAI產(chǎn)品的過程中起到了至關(guān)重要的作用,但與此同時,也大幅加速了潛在風險的擴散。盡管GPT的最新版本GPT-4不久之前才正式發(fā)布,但微軟就已經(jīng)積極將其集成到了從學術(shù)到醫(yī)療的各領(lǐng)域核心產(chǎn)品當中。這樣的集成讓OpenAI的產(chǎn)品觸達的用戶數(shù)量暴漲,同時也大幅擴大了風險。然而,微軟不但沒有對這種風險引起足夠的重視,反而解雇了負責確保倫理AI原則的團隊。而當其他的AI開發(fā)商目睹了OpenAI和微軟的“成功”之后,也紛紛加以效防。在這種情況下,相關(guān)風險達到了前所未有的高度。

AI的最主要風險

在對“美國的AI發(fā)展”進行了回顧之后,起訴書進一步列出了當前情況之下存在的最主要風險。這些風險包括:

(1)大規(guī)模侵犯隱私的行為

被告對用戶個人信息的大規(guī)模收集和跟蹤構(gòu)成了對用戶隱私和安全的巨大威脅。這些信息可能被用于身份盜竊、金融欺詐、敲詐勒索等惡意目的。

這里尤其值得指出的是,OpenAI沒有尊重用戶的“被遺忘權(quán)”(righttobeforgotten),即用戶刪除自己個人數(shù)據(jù)的權(quán)利。雖然OpenAI表面上允許用戶要求刪除自己的相關(guān)數(shù)據(jù),但事實上,這個刪除選項可能是虛假的。一些公司禁止或限制ChatGPT的使用,也因為他們擔心所有上傳到像OpenAI的Chat-GPT或谷歌的Bard這樣的AI平臺的內(nèi)容將被存儲在這些公司的服務(wù)器上,從而無法訪問或刪除這些信息。

(2)AI引發(fā)的虛假信息宣傳、有針對性的攻擊、性犯罪和偏見

起訴書指出,包括ChatGPT在內(nèi)的被告產(chǎn)品存在著嚴重的產(chǎn)品缺陷,即會產(chǎn)生各種虛假的信息。一個典型的例子是ChatGPT編造的關(guān)于喬治·華盛頓大學法學教授喬納森·特利(JonathanTurley)性騷擾的謠言。不久前,加州大學洛杉磯分校的法學教授尤金·沃洛克(EugeneVolokh)為研究AI生成內(nèi)容的法學問題而進行了一項測試:他要求ChatGPT生成一份“曾對他人進行過性騷擾的法律學者”的名單。為了確保生成的內(nèi)容是真實的,他還專門要求ChatGPT對生成的內(nèi)容標明信息出處。當沃洛克閱讀這份名單時,他發(fā)現(xiàn)特利的名字赫然在列。根據(jù)ChatGPT的描述,特利曾在一次去阿拉斯加的班級旅行中發(fā)表了具有性暗示的言論,并嘗試對一名學生進行猥褻。沃洛克對此大為震驚,畢竟作為著名教授,特利也是圈內(nèi)響當當?shù)娜宋?,而作為同行,他竟完全沒有聽過這個圈內(nèi)的“大瓜”。于是,他立即對該消息進行了確認。結(jié)果發(fā)現(xiàn),此事根本是子虛烏有,特利根本沒有去參加過什么班級旅行,也更沒有進行過什么性騷擾的活動。在沃洛克向媒體公布了這個消息后,“人在家中坐,‘鍋’從天上來”的特利才知道了自己竟然被ChatGPT描述為了一名性騷擾者。他對此非常不滿,在接受采訪時,他說道:“這真令人不寒而栗!這種莫須有的指控是非常有害的。”

起訴書還指出,除了傳播錯誤信息外,被告的產(chǎn)品還可能被犯罪分子應(yīng)用于騷擾、勒索、敲詐、脅迫、詐騙等犯罪活動。例如,現(xiàn)在出現(xiàn)了一種新型的“性騷擾”形式,通過社交媒體獲得的私人照片和視頻,以創(chuàng)建含有色情內(nèi)容的深度偽造(deepfake)內(nèi)容。這些照片在網(wǎng)上的公開傳播,對受害人的情緒和心理造成了嚴重的傷害。

這里尤其需要重視的是,被告的產(chǎn)品還被用于兒童色情。例如,有一些戀童癖者使用Dall-E,以非常低的成本創(chuàng)造出了大量兒童性行為的圖片和視頻,并將它們在暗網(wǎng)上大肆傳播。這些行為都造成了相當嚴重的后果。

此外,起訴書還指出,被告的產(chǎn)品,如ChatGPT等還促進了憎恨和偏見的傳播。這是因為,語言模型是基于現(xiàn)實的語料訓練而成的,其中就包含了大量涉及憎恨和偏見的內(nèi)容。被告在訓練模型時,并沒有注意排除這些信息,因而就導致了模型本身存在著缺陷。

(3)幫助構(gòu)建超強惡意軟件

起訴書指出,被告的產(chǎn)品還為惡意軟件的創(chuàng)建提供了強力支持。所謂惡意軟件(Malware),指的是旨在破壞或滲透計算機系統(tǒng)的計算機程序。過去十年中,惡意軟件變得越來越復雜,越來越難以檢測。

被告的產(chǎn)品可以以很低的成本生成幾乎不可檢測的惡意軟件,并且可以大規(guī)模使用,對全球的網(wǎng)絡(luò)安全構(gòu)成前所未有的風險。盡管OpenAI方面聲稱有禁止生成多態(tài)惡意軟件的安全防護措施,但實際上惡意軟件開發(fā)人員可以通過巧妙的輸入繞過這些過濾器。據(jù)此,原告律師認為,將這種增強的破壞能力交給大眾,但又缺乏必要的安全防護措施應(yīng)當被視為是被告的嚴重過失行為。

(4)自主武器

所 謂 自 主 武 器(AutonomousWeapons),也被稱為“殺戮機器人”(Slaughterbots)、“致命自主武器系統(tǒng)”(lethalautonomousweaponssystems),或“殺手機器人”(killerrobots),它利用AI識別、選擇,并在無需干預的情況下以殺死人類為目標,從而對國際安全和人權(quán)構(gòu)成了嚴重的威脅。

起訴書指出,目前這種未受監(jiān)管的AI風險已經(jīng)不再遙不可及,而是正在成為一種現(xiàn)實的風險,例如它曾差一點就刺殺了一名外國元首(注:起訴書沒有對這起事件進行說明。筆者猜測,它指的應(yīng)該是委內(nèi)瑞拉總統(tǒng)尼古拉斯·馬杜羅在演講時遭遇無人機攻擊一事)。而要建造和使用這樣的殺人武器,其成本和難度都非常低。

專家警告稱,由于在不斷提升人工智能能力的同時,缺乏足夠的道德和倫理規(guī)范,因此類似技術(shù)的進展將加速自主武器的發(fā)展,而對這些產(chǎn)品的大規(guī)模商業(yè)化則會加速風險的傳播和擴散。

被告對原告財產(chǎn)權(quán)和隱私權(quán)的侵犯

在列舉了被告的產(chǎn)品可能造成的各種重大風險之后,起訴書著重對被告侵犯隱私權(quán)和財產(chǎn)權(quán)的問題進行了陳述。

(1)被告的爬取數(shù)據(jù)應(yīng)當被視為盜竊

起訴書認為,被告在未經(jīng)同意的前提下,秘密對互聯(lián)網(wǎng)進行的大規(guī)模抓取本質(zhì)上是一種盜竊和挪用行為。

為了對被告的行為性質(zhì)進行說明,原告律師將其和2020年的ClearviewAI事件進行了類比。ClearviewAI是一家人臉識別公司,為了開發(fā)其產(chǎn)品,在未征得用戶同意的情況下,從各種網(wǎng)站和社交媒體平臺上抓取了數(shù)十億張公開的照片。在其行為被《紐約時報》公開后,立即引發(fā)了公眾的不安。2020年3月,伊利諾伊州的美國公民自由聯(lián)盟,以及佛蒙特州的檢察官幾乎在同時對ClearviewAI提起了訴訟。英國、意大利、澳大利亞等國的監(jiān)管部門也陸續(xù)對ClearviewAI展開了調(diào)查,并先后對其作出了數(shù)額不等的罰款。

原告律師認為,現(xiàn)在OpenAI的違規(guī)數(shù)據(jù)搜集行為在性質(zhì)上是和ClearviewAI十分類似的,因而也應(yīng)該被視為非法。

(2)被告行為對原告財產(chǎn)權(quán)益的侵犯

起訴書指出,在過去的案例當中,法院已經(jīng)確立了互聯(lián)網(wǎng)用戶對其個人信息和數(shù)據(jù)擁有財產(chǎn)權(quán)益的原則,因此,OpenAI的非法抓取數(shù)據(jù)行為首先就對原告的財產(chǎn)權(quán)益構(gòu)成了侵犯。在數(shù)據(jù)市場上,一個互聯(lián)網(wǎng)用戶的信息價值在15美元到40美元之間,甚至更多。另外有調(diào)查表明,一個人的在線身份在暗網(wǎng)上可以以1200美元的價格出售。如果按照此估價,OpenAI非法侵犯的財產(chǎn)價值將是十分驚人的。

(3)被告行為對原告隱私權(quán)益的侵犯

除了財產(chǎn)權(quán)利之外,互聯(lián)網(wǎng)用戶對個人信息擁有隱私權(quán)利,即使這些信息已經(jīng)發(fā)布在網(wǎng)絡(luò)上。因此,被告的非法爬取行為也對原告的隱私權(quán)益構(gòu)成了侵犯。

起訴書指出,通過對數(shù)據(jù)進行聚合和分析可以揭示個人不愿被公開的信息。比如,通過個人公開的推文,可以分析出他的心理健康狀況。因此,即使只有少量的“公開”私人信息,也足以損害互聯(lián)網(wǎng)用戶的隱私權(quán)益。除此之外,起訴書還指出,用戶在網(wǎng)上發(fā)表言論時通常會預期這些內(nèi)容不會被太多人看到,并且隨著時間的流逝其影響還會日漸消退。但被告的行為卻打破了用戶的這種預期,從而對他們的利益造成了侵犯。

(4)被告商業(yè)行為對理性人的冒犯及對監(jiān)管機構(gòu)警告的無視

起訴書指出,現(xiàn)在的公眾對被告如何使用和可能濫用他們的個人信息感到恐懼和焦慮。人們擔心自己的個人信息會被永遠嵌入到被告的產(chǎn)品當中,從而被反復訪問、共享和濫用。

此外,起訴書還指出,現(xiàn)在的監(jiān)管機構(gòu)已經(jīng)對類似的非法行為進行了警告,例如聯(lián)邦貿(mào)易委員會就曾在一起針對亞馬遜的案件中提到:“機器學習不是違法的借口……用來改進算法的數(shù)據(jù)必須合法收集和保留。公司最好汲取這一教訓。”然而,被告顯然并沒有對這個警告引起充分的重視。

(5)被告在超出合理同意的情況下竊取用戶數(shù)據(jù)

除了直接在網(wǎng)絡(luò)上抓取信息外,被告還對用戶使用ChatGPT等產(chǎn)品的過程中產(chǎn)生的數(shù)據(jù)進行搜集。在起訴書中,將其稱為第二類盜竊行為。具體來說,這有兩種表現(xiàn):一方面,對于那些使用ChatGPT插件或API的消費者來說,各個網(wǎng)站并沒有提供任何知情同意信息,消費者的信息和個人數(shù)據(jù)在這種情況下被違規(guī)搜集并被用于了訓練被告的大模型。另一方面,即使是那些注冊了OpenAI賬戶,并與ChatGPT直接互動的人在其數(shù)據(jù)被搜集之前,也沒有得到告知。

除此之外,被告還告知用戶可以要求不使用他們的私人信息,但實際上,他們并無法從語言模型的知識庫中刪除已收集的數(shù)據(jù)。同時,被告也無法向用戶提供數(shù)據(jù)使用的狀況,因而其行為嚴重違反了透明度原則。

被告對兒童權(quán)益的侵犯

在陳述了被告對原告造成的財產(chǎn)權(quán)侵害和隱私權(quán)侵害之后,起訴書還著重強調(diào)了其對兒童的隱私和風險帶來的危害。具體來說,這包含如下幾個方面:

一是在未經(jīng)同意的情況下對兒童進行欺騙性的追蹤。起訴書指出,被告違規(guī)搜集了大量關(guān)于兒童的敏感信息,包括身份、位置、興趣和關(guān)系等。

二是OpenAI在服務(wù)條款和隱私政策中明確指出ChatGPT的使用對象是十三歲及以上的個人,但在現(xiàn)實中,平臺并沒有設(shè)置驗證機制,未成年用戶可以很容易通過虛報年齡來獲得使用資格。而被告的這個疏漏,會把這些未成年用戶置于有害信息的曝露之下。

三是被告對兒童用戶的經(jīng)濟價值進行了剝奪。起訴書指出,相比于成人,兒童更容易在誘導之下出賣自己和其他人的各種信息,這使得被告可以通過兒童獲得更高價值的數(shù)據(jù),并將其用于營利用途。

四是被告侵犯了合理的隱私預期,并具有冒犯性。起訴書指出,家長撫養(yǎng)和監(jiān)護子女的權(quán)利是基本的自由權(quán)益。因此,被告在兒童隱私問題上存在的問題其實也是侵犯了家長對于隱私保護的合理預期,這不僅違法,也嚴重沖擊社會規(guī)范和道德。

相關(guān)的指控和法律救濟

基于以上的相關(guān)事實,原告律師認為,被告OpenAI和微軟涉嫌違反了包括《電子通信隱私法》、《計算機欺詐和濫用法》在內(nèi)的多項法律,因而對其提起了十五項指控。

同時,原告向法院提出了自己的法律救濟方案。該方案包括:請求法院發(fā)布禁止令,讓被告臨時凍結(jié)對產(chǎn)品的商業(yè)訪問和商業(yè)開發(fā),直到完成一系列整改,并符合法院要求為止。同時,起訴書中還要求被告對原告進行賠償——包括由審判確定的實際賠償,三倍的懲罰性損害賠償,以及法律允許的示范性賠償。盡管在起訴書中,并沒有給出大致的賠償金額,但如果相關(guān)指控得到了法院的支持,那么這個數(shù)額應(yīng)該會是一個不小的數(shù)字。

訴訟的前景和意義

實事求是地說,雖然這份起訴書中提出的指控非常嚴重,但原告想要據(jù)此成功告倒OpenAI和微軟并不是那么容易的。畢竟,作為被告的微軟擁有強大的法律團隊,還有雄厚的財力支持。即使真的能夠成功,恐怕也要經(jīng)歷一場曠日持久的訴訟。事實上,根據(jù)慣例,這個案件最有可能的終結(jié)方式就是原被告雙方達成和解,OpenAI和微軟接受原告的部分訴求,并給予一筆數(shù)額不算太大的賠償了事。也就是說,盡管案件的雷聲很大,但最后的結(jié)果可能只是幾點小雨而已。

不過,雖然乏味的結(jié)局大概率已經(jīng)注定,但在此時此刻,這個案件本身依然是非常有意義的。從去年開始,生成式AI迎來了爆發(fā)。和過去的技術(shù)熱潮不同,引領(lǐng)這場爆發(fā)的并不是谷歌、臉書這樣的傳統(tǒng)巨頭,而是OpenAI這樣一家規(guī)模并不算大的創(chuàng)業(yè)公司。強大的技術(shù)、勵志的公司形象設(shè)定,很容易讓人忘記它正在推廣的產(chǎn)品背后所蘊含的風險。隨著生成式AI模型的迅速普及,相關(guān)風險已經(jīng)越來越難以忽視,因而在這個時間點上,通過一場這樣的訴訟把問題挑明,讓更多的人認識到AI發(fā)展背后的風險,就是非常有價值的。

應(yīng)當承認,原告律師在起訴書當中提出的問題大部分是存在的,不過,對于其提出的法律救濟方案,我個人認為存在可以商榷之處。

在現(xiàn)階段,各類AI模型已經(jīng)被廣泛使用,如果要像原告要求的那樣,立即停止使用這些模型,將會造成非常巨大的損失,這是不現(xiàn)實的。相比之下,一種更為穩(wěn)妥的方式可能是在發(fā)展中逐步加強治理。

事實上,起訴書中給出的很多問題,都可以用技術(shù)的方式來解決的,例如在注冊過程中加強驗證,就可以解決未成年人偽造年齡的問題;通過聯(lián)邦學習等方式,就可以有效緩解數(shù)據(jù)搜集帶來的隱私泄露問題;借助于區(qū)塊鏈等技術(shù),就可以追蹤數(shù)據(jù)的流向。我想,比起一禁了之來說,如果OpenAI和微軟在通過AI獲得了巨額收入之后,將營利的一部分投入技術(shù),用來克服先前的各種問題,讓其AI模型在發(fā)展和治理之間實現(xiàn)更好的平衡,可能是一個更好的解決方案。