“用魔法打敗魔法” AI時代如何構(gòu)建數(shù)據(jù)安全生態(tài)

  來源:中國青年報 中國青年網(wǎng)賈驥業(yè) 朱彩云2024-04-30
打印本文
核心提示:AI時代,數(shù)據(jù)安全治理需要做到全程管控。在一些專家看來,“如果靠過去一些成熟的技術(shù)去解決現(xiàn)在的問題是很難的,今天只能通過‘用AI對抗AI’的方式,才能解決內(nèi)容安全的問

AI時代,數(shù)據(jù)安全治理需要做到全程管控。在一些專家看來,“如果靠過去一些成熟的技術(shù)去解決現(xiàn)在的問題是很難的,今天只能通過‘用AI對抗AI’的方式,才能解決內(nèi)容安全的問題?!?/span>

 ——————————

美國一項新提出的法案,進一步引發(fā)了人們對大模型時代數(shù)據(jù)安全問題的關(guān)注。

近日,一名美國眾議院議員提出了一項《生成式人工智能版權(quán)披露法案(Generative AI Copyright Disclosure Act)》,該法案要求企業(yè)在推出人工智能系統(tǒng)之前要告知政府,同時還要列出用于構(gòu)建或更改該系統(tǒng)訓(xùn)練數(shù)據(jù)集的所有受版權(quán)保護的作品。這則法案如被通過,將推動美國人工智能公司在模型訓(xùn)練數(shù)據(jù)的使用上更加透明。

無獨有偶,在一個多月前歐洲議會投票通過并批準的《人工智能法案(Artificial Intelligence Act)》(以下簡稱《法案》)中,也明確要求對用于訓(xùn)練、測試和驗證人工智能工具的數(shù)據(jù)進行適當(dāng)?shù)臄?shù)據(jù)治理。

“近年來,各國紛紛出臺了涉及人工智能的立法和政策,大多數(shù)國家在制定相關(guān)法規(guī)時都采取了謹慎的態(tài)度,避免過度限制人工智能的發(fā)展,以免阻礙創(chuàng)新和進步,這彰顯了國際社會對數(shù)據(jù)安全治理的重視?!痹谌涨芭e行的“2024中關(guān)村論壇-數(shù)據(jù)安全治理與發(fā)展論壇”上,香港科技大學(xué)首席副校長、英國皇家工程院院士郭毅可說。

當(dāng)前,以人工智能(AI)為代表的新技術(shù)應(yīng)用成為發(fā)展新質(zhì)生產(chǎn)力的重要引擎,隨之而來的數(shù)據(jù)安全治理與發(fā)展也備受關(guān)注。2024中關(guān)村論壇(以下簡稱“論壇”)期間,舉辦了多場與AI相關(guān)的論壇活動,“AI時代的數(shù)據(jù)安全治理”也成為熱點話題,不少國內(nèi)外專家學(xué)者以及業(yè)界人士在論壇上交流前瞻理念、分享研究成果,深化前沿領(lǐng)域數(shù)據(jù)安全治理效能。

數(shù)據(jù)安全治理新形勢

AI時代,“數(shù)據(jù)”是一個不得不提的關(guān)鍵詞。

“數(shù)據(jù)對于AI的進步非常重要?!痹?024中關(guān)村論壇年會開幕式上,硅谷人工智能研究院院長皮埃羅·斯加魯菲說。他提到,從1997年IBM的“深藍”電腦擊敗當(dāng)時的國際象棋世界冠軍卡斯帕羅夫,到2016年谷歌人工智能程序AlphaGo戰(zhàn)勝韓國圍棋世界冠軍李世石,再到如今OpenAI的GPT橫空出世……AI技術(shù)快速發(fā)展背后,主要的驅(qū)動因素就是大量的數(shù)據(jù)。

但隨著AI技術(shù)日新月異的變化,尤其是生成式人工智能(AIGC)的快速發(fā)展,其性能在優(yōu)化的同時也放大了數(shù)據(jù)安全風(fēng)險,其可能引發(fā)的價值偏見、隱私泄露、虛假信息等問題引起了大眾的擔(dān)憂?!艾F(xiàn)在很多診斷是由AI來做的,比如你要將GPT用于診斷疾病,我們放心嗎?很多時候是不放心的。”皮埃羅·斯加魯菲說。

在清華大學(xué)計算機科學(xué)與技術(shù)系教授、人工智能研究院基礎(chǔ)模型研究中心副主任黃民烈看來,AIGC的出現(xiàn),使得現(xiàn)在的數(shù)據(jù)安全治理與過去相比有很大的不同。他表示,AIGC能通過訓(xùn)練去組合、生成一些在過去的語料庫中根本沒有出現(xiàn)過的新內(nèi)容,這些內(nèi)容可能是有害的。

“在生成式人工智能(AIGC)時代,我們在數(shù)據(jù)安全層面,面臨的是不斷組合和創(chuàng)造新的數(shù)據(jù)安全風(fēng)險的問題,徹底解決這種風(fēng)險,需要算法和工具的支撐,而不是靠人,或者靠一些靜態(tài)的方法去做相對固定的檢測?!秉S民烈說,可以去研究制定一些有針對性的對抗和攻擊方法,比如事先讓算法發(fā)現(xiàn)模型的漏洞和風(fēng)險;也可以利用算法追蹤模型存在的風(fēng)險,再有針對性地制定安全手段。

如今,除了類似ChatGPT的通用大模型,專注某一垂直領(lǐng)域的行業(yè)大模型也層出不窮。奇安信集團副總裁劉前偉長期關(guān)注行業(yè)大模型的數(shù)據(jù)安全治理問題,他觀察到,很多行業(yè)大模型廠商都有一個普遍的擔(dān)心:模型預(yù)訓(xùn)練的語料會不會被其他人竊取?

他解釋說,行業(yè)大模型在做預(yù)訓(xùn)練時,被“喂”的數(shù)據(jù)大多是行業(yè)知識,“這些語料可能是不同企業(yè)最有競爭力的一些數(shù)據(jù)?!比绻嬖诼┒?,可能導(dǎo)致這些核心的數(shù)據(jù)資產(chǎn)被泄露出去,“這是在通用大模型里,我們過去沒有特別關(guān)注的一點”。

同時,作為通用大模型的使用者,很多人都會問一個問題:當(dāng)我去問大模型問題時,會不會造成商業(yè)機密、個人信息的泄露。劉前偉在論壇上也提出了上述疑問。

對于如何解決上述問題,劉前偉也同意黃民烈教授的觀點?!叭绻窟^去一些成熟的技術(shù)去解決現(xiàn)在的問題是很難的,今天只能通過‘用AI對抗AI’的方式,才能解決內(nèi)容安全的問題?!?

構(gòu)建安全可信的數(shù)據(jù)治理生態(tài)

2023年5月,包括“ChatGPT之父”山姆·奧特曼(Sam Altman)在內(nèi)350位AI領(lǐng)域權(quán)威人士簽署了一封聯(lián)名公開信,信中寫道:“應(yīng)將緩解AI導(dǎo)致的滅絕風(fēng)險,與其他社會規(guī)模風(fēng)險(如大流行病和核戰(zhàn)爭)等同重視,作為全球優(yōu)先事項?!?

“人工智能凸顯了數(shù)據(jù)的重要性,再創(chuàng)造一個全球性的治理框架,建立互信是最重要的因素。”新加坡資訊通信媒體發(fā)展局局長柳俊泓在論壇發(fā)言中指出,對數(shù)據(jù)和AI的信任,是在數(shù)字時代平衡保護和創(chuàng)新的基礎(chǔ)。

論壇期間,不少專家在討論中提到了一個詞——可信AI,該詞的核心就是AI大模型的安全問題。“我們必須認識到數(shù)據(jù)安全是永遠的命題,一定要‘安全可信’?!敝袊こ淘涸菏可虿樵谡搲媳硎?,要用主動免疫可信計算筑牢人工智能安全防線。

在他看來,數(shù)據(jù)安全治理需要做到全程管控,實現(xiàn)六個“不”:首先讓進攻者“進不去”,進去后“拿不到”數(shù)據(jù),即使進攻者拿到數(shù)據(jù)也白拿,因為數(shù)據(jù)被加密“看不懂”,并且系統(tǒng)帶有自動免疫功能,讓進攻者“改不了”數(shù)據(jù)。同時,需要保證設(shè)備“癱不了”,能在發(fā)現(xiàn)故障后及時采取措施確保穩(wěn)定運行,最后是確保攻擊行為可追溯“賴不掉”。

"達到這六個‘不’的效果,才能使得數(shù)據(jù)安全治理達到有效的目標?!鄙虿榻榻B,經(jīng)過30多年的發(fā)展,我國已經(jīng)構(gòu)建了比較完整的新型產(chǎn)業(yè)空間。他表示,目前,中國已經(jīng)具備可信計算功能的國產(chǎn)CPU,嵌入式可信芯片及可信根,具備可信計算3.0技術(shù)的設(shè)備。

除了可信計算,一系列前沿技術(shù)也為構(gòu)建安全可信的數(shù)據(jù)治理生態(tài)提供支持。香港科技大學(xué)首席副校長、英國皇家工程院院士郭毅可認為,在增強數(shù)據(jù)安全上,區(qū)塊鏈和量子密碼學(xué)等技術(shù)有較大應(yīng)用前景。

“區(qū)塊鏈有透明和不可更改的技術(shù)特性?!惫憧烧f,將區(qū)塊鏈技術(shù)應(yīng)用在數(shù)據(jù)安全治理領(lǐng)域,能在確保數(shù)據(jù)完整性的同時,進一步降低數(shù)據(jù)授權(quán)風(fēng)險和數(shù)據(jù)篡改風(fēng)險。他還提到,可以通過數(shù)據(jù)匿名化技術(shù)、用戶同意和隱私設(shè)計規(guī)則,以及實施數(shù)據(jù)分類、訪問控制和加密等方法,保護知識產(chǎn)權(quán)和防止未經(jīng)授權(quán)的數(shù)據(jù)披露。

在郭毅可看來,加密技術(shù)能保護數(shù)據(jù)在靜止和傳輸過程中的安全。此外,還可以利用差分隱私、數(shù)據(jù)屏蔽等匿名化技術(shù)來刪除個人身份信息,以確保數(shù)據(jù)的機密性,同時保留其對AI模型訓(xùn)練的有用性。

“用魔法(即AI技術(shù))打敗魔法”,這是劉前偉提出的AI時代數(shù)據(jù)安全治理的一大出路。在論壇上關(guān)于AI數(shù)據(jù)安全治理相關(guān)技術(shù)路徑的討論中,隱私計算、聯(lián)邦學(xué)習(xí)等被反復(fù)提及。

除了問題,AIGC也為數(shù)據(jù)治理提供了新的、更有效的手段。歐洲科學(xué)院院士、清華大學(xué)人工智能研究院常務(wù)副院長孫茂松提到,現(xiàn)在數(shù)據(jù)里面有很多隱私問題,但可以用生成式人工智能(AIGC)生成符合真實情況的數(shù)據(jù),同時規(guī)避掉用戶真實的隱私數(shù)據(jù)?!八?,實際上生成式人工智能對我們數(shù)據(jù)治理也有非常重要的正面推動作用。”

創(chuàng)新AI監(jiān)管機制

“數(shù)據(jù)安全治理是人工智能和數(shù)字轉(zhuǎn)型時代一個至關(guān)重要且不斷演進的議題?!惫憧烧f,人工智能時代,需要在保護數(shù)據(jù)隱私和敏感信息的同時,建立國際機構(gòu)框架和法規(guī)來規(guī)范數(shù)據(jù)安全。

近年來,包括英國的《支持創(chuàng)新的人工智能監(jiān)管規(guī)則》、歐盟的《人工智能法案》在內(nèi),多個國家和地區(qū)陸續(xù)出臺了相關(guān)的政策和法律,規(guī)范人工智能的發(fā)展,其中有不少內(nèi)容與數(shù)據(jù)安全治理有關(guān)。

2023年8月15日,全球第一部關(guān)于生成式人工智能治理的專門法律規(guī)范《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》)在我國正式施行。中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括認為,《辦法》著眼生成式人工智能服務(wù)語境下的數(shù)據(jù)治理,引入了多項專門規(guī)范,對于構(gòu)建面向AI時代的數(shù)據(jù)治理新生態(tài)具有重要的制度指引意義。

在探索人工智能可控發(fā)展過程中,監(jiān)管沙盒機制是一個創(chuàng)新手段。監(jiān)管沙盒是指在風(fēng)險可控的前提下,通過設(shè)立限制性條件和制定風(fēng)險管控措施,允許創(chuàng)新產(chǎn)品技術(shù)服務(wù)或商業(yè)模式在真實市場環(huán)境中,以真實用戶為對象進行深度測試的一種機制。歐盟《人工智能法案》明確要求其成員國要創(chuàng)建人工智能監(jiān)管沙盒。目前,挪威、西班牙等國已開始監(jiān)管沙盒相關(guān)工作。

柳俊泓提到,目前有很多技術(shù)、政策,能讓企業(yè)從消費者數(shù)據(jù)集中獲得價值,同時也可以確保消費者的數(shù)據(jù)集得到保護。他認為接下來應(yīng)當(dāng)建立監(jiān)管沙盒,在其中使用并且開發(fā)這些技術(shù)和政策,從而能在最大化的使用數(shù)據(jù)的同時,保障數(shù)據(jù)安全。

論壇期間,“北京人工智能數(shù)據(jù)訓(xùn)練基地監(jiān)管沙盒”正式發(fā)布,這是全國首例人工智能領(lǐng)域監(jiān)管沙盒。北京市經(jīng)濟和信息化局副局長毛東軍表示,在管理上,利用監(jiān)管沙盒管理機制,能幫助企業(yè)在合法合規(guī)的范圍內(nèi)規(guī)避數(shù)據(jù)風(fēng)險;在技術(shù)上,通過數(shù)據(jù)加密、脫敏技術(shù)、云桌面操作、安全管理等先進技術(shù),可以為模型企業(yè)和數(shù)據(jù)企業(yè)提供基礎(chǔ)保障,“真正實現(xiàn)數(shù)據(jù)的可用、可見、不可得,避免數(shù)據(jù)泄露等高風(fēng)險事件”。

從出臺政策、法律,到利用監(jiān)管沙盒進行制度和技術(shù)實驗,其目的都是推動構(gòu)建人工智能(AI)時代的數(shù)據(jù)安全治理新生態(tài)。

當(dāng)下,給人工智能裝“剎車”成為行業(yè)內(nèi)討論的熱門話題,在論壇上也不鮮見。“‘剎車’就是針對技術(shù)性風(fēng)險的治理體系。”清華大學(xué)蘇世民書院院長薛瀾在論壇接受記者采訪時表示,構(gòu)建治理體系的目的,就是來規(guī)制濫用、誤用和惡用人工智能的行為。

薛瀾介紹,我國的人工智能治理體系共有三層,第一層為《新一代人工智能倫理規(guī)范》等所有社會主體都要遵守的廣泛性基礎(chǔ)性原則;第二層為針對人工智能具體領(lǐng)域的具體法律法規(guī),比如《辦法》;第三層則是鼓勵企業(yè)加強內(nèi)部機制建設(shè),比如成立倫理委員會等。

如果“剎車”安裝不到位,要如何應(yīng)對?薛瀾說:“我們特別鼓勵企業(yè)加強自身的機制建設(shè),這非常關(guān)鍵。另外一點,也需要全社會的公眾監(jiān)督。”

(編輯:映雪)


“用魔法打敗魔法” AI時代如何構(gòu)建數(shù)據(jù)安全生態(tài)

 
[責(zé)任編輯: 315xwsy_susan]

免責(zé)聲明:

1、本網(wǎng)內(nèi)容凡注明"來源:315記者攝影家網(wǎng)"的所有文字、圖片和音視頻資料,版權(quán)均屬315記者攝影家網(wǎng)所有,轉(zhuǎn)載、下載須通知本網(wǎng)授權(quán),不得商用,在轉(zhuǎn)載時必須注明"稿件來源:315記者攝影家網(wǎng)",違者本網(wǎng)將依法追究責(zé)任。
2、本文系本網(wǎng)編輯轉(zhuǎn)載,轉(zhuǎn)載出于研究學(xué)習(xí)之目的,為北京正念正心國學(xué)文化研究院藝術(shù)學(xué)研究、宗教學(xué)研究、教育學(xué)研究、文學(xué)研究、新聞學(xué)與傳播學(xué)研究、考古學(xué)研究的研究員研究學(xué)習(xí),并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。
3、如涉及作品、圖片等內(nèi)容、版權(quán)和其它問題,請作者看到后一周內(nèi)來電或來函聯(lián)系刪除。