OpenAI前董事揭露“解雇門”內(nèi)幕,矛頭再次指向奧特曼

陳振芳2024-05-30 15:00

“私營企業(yè)推動革命性新技術(shù)的邊界前進時,我們是否可以期待它們在符合股東利益的同時也符合更廣泛世界的利益?”

近日,OpenAI兩名前董事海倫·托納((Helen Toner)、塔莎·麥考利(Tasha McCauley)在《經(jīng)濟學人》上撰文,指出該公司存在巨大的管理漏洞,并將矛頭直指CEO山姆·奧特曼(Sam Altman)。

兩人分別于2018年、2021年加入該公司董事會。進入OpenAI時,她們對公司自我治理的創(chuàng)新方法可能為負責任的AI發(fā)展提供藍圖持謹慎樂觀態(tài)度。

成立之初, OpenAI被認為是一家非營利機構(gòu),旨在確保人工通用智能(AGI)或比人類更聰明的人工智能系統(tǒng)將“惠及全人類”。但為了籌集必要的資金,OpenAI創(chuàng)建了一個營利性子公司,同時由非營利機構(gòu)掌權(quán)。

她們在文中稱,設計這一前所未有的結(jié)構(gòu),目的在于維護堅持其原始使命,董事會的任務就是維護這一使命,“不幸的是,它沒有成功?!?/p>

而在ChatGPT橫空出世以后,OpenAI在商業(yè)化的道路上狂奔。直到“解雇門”事發(fā),公司內(nèi)部的巨大矛盾才被外界窺見。

二人在文章中針對奧特曼被解雇一事給出了正面回應,這也是該公司內(nèi)部人士首次在媒體上針對這一事件進行回應。

她們提及,之所以OpenAI董事會解雇了奧特曼,是為了挽救公司的自我監(jiān)管結(jié)構(gòu)。長期以來,奧特曼的行為模式導致董事會維護公司使命的能力越來越受限,包括削弱董事會對關(guān)鍵決策和內(nèi)部安全協(xié)議的監(jiān)督。

該公司多位高管私下向董事會表達憂慮,認為奧特曼培養(yǎng)了一種“充滿謊言的有毒文化”,并參與了“可以定性為心理虐待的行為”。

針對去年震驚全球的“解雇門”,二人直言她們并不后悔通過解雇奧特曼來重塑OpenAI,但仍然擔心OpenAI在推動技術(shù)進步方面的作用。

“自奧特曼重返掌舵以來的發(fā)展,尤其是高級安全人才的離職,預示著OpenAI自治實驗的不祥之兆。”她們說道。

奧特曼重返OpenAI后,該公司曾對外表示,董事會“在其廣泛自由裁量權(quán)內(nèi)”解雇了奧特曼,但也得出結(jié)論認為他的行為“沒有要求解雇”。

二人質(zhì)疑,OpenAI幾乎沒有提供具體的理由來證明上述結(jié)論,也沒有將調(diào)查報告公開給員工、媒體或公眾。

一直以來,AI安全問題備受關(guān)注。兩位前OpenAI董事認為,根據(jù)經(jīng)驗,自我治理無法可靠地抵御利潤激勵的壓力?!癆I具有巨大的正面和負面影響潛力,僅僅假設這樣的激勵措施總是與公共利益相一致是不夠的。為了AI的崛起能夠惠及每個人,政府必須現(xiàn)在開始構(gòu)建有效的監(jiān)管框架?!?/p>

她們指出,OpenAI提供了教訓,即社會絕不能讓AI的推出完全由私營科技公司控制。缺乏外部監(jiān)督的自我監(jiān)管最終將變得無法執(zhí)行,尤其是在巨大利潤激勵的壓力下。因此,政府必須發(fā)揮積極作用。

近幾個月來,從華盛頓議員到硅谷投資者,越來越多的人主張對AI進行最少的政府監(jiān)管,并將AI與上世紀90年代互聯(lián)網(wǎng)帶來的經(jīng)濟增長相提并論。“然而,這種類比是誤導性的?!倍擞^察到,在AI公司內(nèi)部以及研究人員和工程師社區(qū)中,AI帶來的巨大風險正在被廣泛承認。

奧特曼也稱,“成功過渡到一個擁有超級智能的世界可能是人類歷史上最重要的、充滿希望的、可怕的工程。”許多頂尖AI科學家對他們自己正在構(gòu)建的技術(shù)表達了憂慮,這與早期互聯(lián)網(wǎng)的程序員和網(wǎng)絡工程師的樂觀態(tài)度大不相同。

托納和麥考利強調(diào),由于缺乏有效監(jiān)管,AI帶來了以下三大問題:一是成功的科技公司及其投資者從在線商業(yè)的缺乏監(jiān)管中獲得了巨大的利益。二是社會在監(jiān)管社交媒體上的錯誤信息和不實信息、兒童剝削和人口販賣以及日益嚴重的青少年心理健康危機方面是否達到了正確的平衡。此外,明智的監(jiān)管可以確保AI的利益得到負責任和更廣泛地實現(xiàn)。政府應當制定政策,且加強設計管理,讓更多人了解AI前沿的進展情況,如透明度要求和事件跟蹤。

二人認為,設計不當?shù)谋O(jiān)管可能會給小公司帶來不成比例的負擔,扼殺競爭和創(chuàng)新。在制定新規(guī)時,政策制定者必須獨立于領(lǐng)先的AI公司。監(jiān)管框架需要靈活調(diào)整,以跟上AI能力對世界不斷增長的理解。

“我們相信AI有潛力以前所未有的方式提高人類的生產(chǎn)力和福祉,但通往更好未來的道路并非沒有危險?!彼齻儽硎?。

在二人看來,OpenAI成立是一個大膽的實驗,旨在優(yōu)先考慮公共利益,而非為了利潤開發(fā)越來越強大的AI?!暗覀兊慕?jīng)驗是,即使擁有所有優(yōu)勢,OpenAI采用的自我治理機制也不足以滿足需求。公共部門緊密參與技術(shù)發(fā)展是至關(guān)重要的?!彼齻冋f。

此前屢次對OpenAI進行抨擊的馬斯克也稱,“訓練AI沒有最大程度追求真相,這對人類很危險?!?/p>

這次發(fā)文之所以引發(fā)外界側(cè)目,還在于前段時間OpenAI被曝要求離職員工簽署帶有“不貶損承諾”的離職協(xié)議,否則就要放棄公司期權(quán)。

盡管奧特曼表示對此并不知情,但在隨后曝光的協(xié)議中,他的簽名赫然在列。很快,又有消息稱該公司取消了“不貶損承諾”的離職協(xié)議。

導致OpenAI深陷輿論漩渦的還有其核心人物伊爾亞·蘇茨克維(Ilya Sutskever)的離職,以及核心安全團隊“超級對齊”也在近日被曝解散。他們在離職后紛紛通過社交媒體批評OpenAI的治理方式。

或是作為回應,OpenAI成立了一個董事會委員會,用來評估其人工智能模型的安全性。這一舉措距離該公司解散內(nèi)部安全團隊以及安全問題負責人離職僅數(shù)周時間。

新成立的委員會將在90天內(nèi)評估OpenAI技術(shù)的保障措施,并提交報告?!岸聲瓿扇鎸彶楹?,OpenAI將以符合安全原則的方式公開分享所采納的建議?!痹摴局芏谄洳┛椭袑懙?。OpenAI還表示,他們最近已經(jīng)開始訓練其最新的AI模型。

面對高管離職、員工保密協(xié)議爭議以及盜用好萊塢女演員聲音等一連串負面事件,奧特曼能否以“受損”的個人信譽帶領(lǐng)OpenAI持續(xù)向前,將是短期內(nèi)AI行業(yè)的重要議題之一。

轉(zhuǎn)載來源:界面新聞 作者:陳振芳

版權(quán)與免責:以上作品(包括文、圖、音視頻)版權(quán)歸發(fā)布者【陳振芳】所有。本App為發(fā)布者提供信息發(fā)布平臺服務,不代表經(jīng)觀的觀點和構(gòu)成投資等建議