避免黑產使用大模型推斷用戶隱私已迫在眉睫

肖芳2024-07-09 08:14

大模型在產業(yè)端落地的成效逐漸顯現(xiàn),但隱藏的風險也被暴露出來。

大模型在訓練環(huán)節(jié)使用的數(shù)據中包含很多個人信息,即使這些信息并沒有直接暴露個人隱私,但在大模型強大的關聯(lián)和推理能力下,很多隱私信息還是會被推斷出來。

比如,用戶詢問大模型產品“哪一個家庭防盜系統(tǒng)在現(xiàn)在市面上是最好的”,在對話的過程中很可能會涉及對房屋門窗信息的描述,大模型會把這些數(shù)據和用戶過往的詢問數(shù)據以及其他用戶的詢問數(shù)據進行關聯(lián)推理,來推斷出用戶的居住地址等隱私信息。

當用戶和大模型產品進行語音交互時,大模型還可以通過方言或短語使用來推斷用戶位置或者統(tǒng)計某些人群特征信息。

此前,瑞士蘇黎世聯(lián)邦理工學院的研究者發(fā)現(xiàn),為ChatGPT等聊天機器人提供支持的大型語言模型可以從看似無害的對話中,準確推斷出數(shù)量驚人的用戶個人信息,包括他們的種族、位置、職業(yè)等。

該團隊研究者發(fā)現(xiàn),網絡詐騙等黑產團伙可以利用聊天機器人猜測敏感信息的能力,從毫無戒心的用戶那里獲取敏感數(shù)據。

正因為如此,避免網絡詐騙等黑產團伙利用大模型推斷個人隱私信息來實施犯罪行為,已經迫在眉睫。

在2024世界人工智能大會上,中國科學院院士、人工智能國際治理研究院學術委員會主席姚期智在談及AI安全和風險相關問題時表示,在我們真的有能力能夠訓練出安全可靠的AI系統(tǒng)之前,先要確保AI不會傷害到人。

從技術角度來看,大模型泄露個人隱私可以歸結到傳統(tǒng)數(shù)據安全問題中。其中一個解決問題的技術路線就是,讓大模型產品在不知道用戶具體問題的前提下,能夠給出用戶想要的答案。這個路線聽起來不太可能,但搜索引擎在過去很長一段時間內一直在探索可能的方案,也嘗試了一些算法。

但姚期智表示,數(shù)據安全在大模型時代,多半的文章、研究都在比較初期的階段?,F(xiàn)在解決問題的方法是,發(fā)現(xiàn)一個問題,提出一個問題的解決方案,同時在此基礎上去迭代出更好的解決方案。

簡而言之,這種方法就是通過拼湊數(shù)據安全中的各種方法來達到目的,這些核心方法包括秘密共享、零知識證明、多方安全計算等。但這只能解決當下最迫在眉睫的問題,從長遠來看,要真正解決AI安全的問題,還需要發(fā)展出一套更高效、系統(tǒng)化的理論。

從實踐來看,業(yè)界提出了多種技術路徑來系統(tǒng)化解決AI安全的問題。這些技術路徑都有各自的邏輯,目前也很難證實哪一種路徑更優(yōu)。

加利福尼亞大學伯克利分校計算機系教授Stuart Russell在2019年提出了Beneficial AGI(有益的通用人工智能),其從博弈學角度出發(fā),讓AI與人類利益對齊,強調機器人應該以人的利益為本,并與人保持交流、時刻多了解人的需求。

在這種思路下,在設計機器人的時候,就要有一個數(shù)據規(guī)律,讓機器人做所有決定時都要把以人的利益為本。如果機器人不清楚人類的需求,它要能夠和人對話,了解人的需求到底是什么。

去年,麻省理工學院發(fā)表的一篇論文提供了另一種思路:做一個可證明的安全的AGI。這種思路用Proof Checkers(證明檢驗程序)來設計數(shù)學上絕對安全的AGI系統(tǒng),讓人類只和可證明安全的“白盒子”交流,這是一種嚴格限制機器應該做什么的思路。

而從理想的邏輯論證回歸現(xiàn)實,大模型相關從業(yè)者給出了一些目前可落地的思路。

在螞蟻密算CEO王磊看來,密算是大模型產業(yè)深入應用的必經之路。密算核心是提供機密性和完整性,機密性是指在數(shù)據使用過程中模型、訪問信息是加密的,在這過程中人是看不見也使用不了這個數(shù)據。完整性是指數(shù)據和系統(tǒng)是不能夠被篡改的,所有的數(shù)據在授權的時候,對行為進行了約束,能夠防止別人濫用隱私數(shù)據。

香港科技大學首席副校長、香港城市人工智能研發(fā)中心主任郭毅可提出,區(qū)塊鏈技術是另一種有前景的解決方案,可增強數(shù)據安全。區(qū)塊鏈透明和不可更改的特性確保了數(shù)據的完整性,就像這個未經授權的修改或數(shù)據串改的風險。

在郭毅可看來,為了防止未經授權的訪問和數(shù)據泄露,組織必須采取嚴格的安全措施,通過數(shù)據匿名化技術、用戶同意和隱私設計原則,以及實施數(shù)據分類訪問控制和加密方案方法,保護知識產權和防止未經授權的披露。

雖然業(yè)界在用戶隱私保護上有各種各樣的思路,但不可否認的是,真正解決大模型用戶隱私保護的問題并沒有那么容易。

聯(lián)合國大學校長Tshilidzi Marwala在2024世界人工智能大會上表示,為緊迫解決AI安全帶來的挑戰(zhàn),不同主體應該加強合作?!拔覀冃枰欣嫦嚓P者參與進來,更深入理解人工智能朝著智能化進化過程中面臨的挑戰(zhàn)和風險?!?/p>

Tshilidzi Marwala提出的方案是建立一套更好的價值體系來幫助我們更好的進行人工智能的開發(fā)和使用以及治理,包括透明度、真實性還有安全性、職業(yè)道德、隱私保護等。

這個方案需要構建一整套法律框架,確保AI有道德的使用和負責任的使用,同時也更加關注到透明、問責和公平的問題,更加嚴格地落實數(shù)據保護要求,更嚴格構建AI標準?!拔覀冃枰玫臉嫿ˋI立法,不僅僅是法律的制定,幫助我們更好的治理AI發(fā)展,同時也要以一種有責任的形式使用AI、保護隱私?!?/p>

在2024世界人工智能大會上,清華大學人工智能國際治理研究院和阿里巴巴集團聯(lián)合發(fā)布的報告《全球人工智能治理與中國方案(征求意見稿)》也展示了中國在AI安全治理的思路。報告提出,在解決AI安全治理難題時,應該保障不同人工智能治理框架和生態(tài)系統(tǒng)間的互操作性,即通過開放標準和開源技術,建立全球所普遍接受的人工智能安全協(xié)調機制、標準設定、評測體系。

“各個國家人工智能治理規(guī)則、規(guī)則包括辦法,可能跟外部其他國家不一樣,因為各個國家的文化、治理體系有很大差別,我們是尊重多元化的國內治理體系的存在。另外國際上我們又需要接口,所以互操作性變得非常重要,這個也是國際治理體系需要考慮的?!鼻迦A大學人工智能國際治理研究院副院長梁正表示。

轉載來源:界面新聞 作者:肖芳

版權與免責:以上作品(包括文、圖、音視頻)版權歸發(fā)布者【肖芳】所有。本App為發(fā)布者提供信息發(fā)布平臺服務,不代表經觀的觀點和構成投資等建議

熱新聞

電子刊物

點擊進入