gogo亚洲肉体艺术无_av无码精品色午夜_亚洲中文字幕不卡一区二区三区_亚洲Av无无码专区在线

最新資訊

確保網(wǎng)絡(luò)數(shù)據(jù)安全 應(yīng)對(duì)新一代人工智能治理挑戰(zhàn)

2998C


ChatGPT 的爆火在全球社會(huì)引發(fā)了一場(chǎng)研發(fā)大規(guī)模語言模型的熱潮。以生成式人工智能為代表的新一代人工智能不僅革命性地改變了人機(jī)交互的形式,提升了人機(jī)交互的體驗(yàn)效果,還對(duì)人工智能產(chǎn)業(yè)產(chǎn)生了深刻影響,加速了人工智能大模型技術(shù)的發(fā)展與進(jìn)步,帶來了全新的發(fā)展機(jī)遇。同時(shí),該技術(shù)的快速發(fā)展也帶來了一系列新問題與挑戰(zhàn),包括數(shù)據(jù)安全、內(nèi)容安全、社會(huì)安全甚至國(guó)家安全。基于此,各國(guó)紛紛開始推進(jìn)生成式人工智能的治理進(jìn)程。鑒于數(shù)據(jù)是人工智能發(fā)展的關(guān)鍵基礎(chǔ),數(shù)據(jù)安全又是人工智能內(nèi)生安全的重要組成部分,確保網(wǎng)絡(luò)數(shù)據(jù)安全是應(yīng)對(duì)新一代人工智能治理挑戰(zhàn)的關(guān)鍵。第二十屆中央國(guó)家安全委員會(huì)第一次會(huì)議也著重強(qiáng)調(diào)要提升網(wǎng)絡(luò)數(shù)據(jù)人工智能安全治理水平,確保以新安全格局保障人工智能創(chuàng)新與應(yīng)用帶來的新發(fā)展格局。


一、生成式人工智能安全問題亟待予以高度重視

隨著大模型技術(shù)水平不斷提高以及大模型用戶數(shù)量日益增多,其安全性問題也變得越來越嚴(yán)重。盡管與所有人工智能模型一樣,生成式人工智能模型也會(huì)犯錯(cuò)誤,但是這些錯(cuò)誤回答往往具有欺騙性的說服力,生動(dòng)且真實(shí),并且具有擬人化的特點(diǎn)。例如,當(dāng)使用者要求其援引某篇名著中的內(nèi)容時(shí),ChatGPT 可能會(huì)給一個(gè)有理有據(jù),但實(shí)際上并不屬于該書內(nèi)容的答案。因此,隨著生成式人工智能技術(shù)的持續(xù)更新與完善,人類可能會(huì)越來越難以識(shí)別由大模型生成的具有誤導(dǎo)性的文本、圖像以及視頻等虛假內(nèi)容的傳播。

由于大模型具備很強(qiáng)的數(shù)據(jù)記憶能力,即便用戶沒有直接輸入關(guān)鍵信息,大模型仍然可以通過算法抽取出重要數(shù)據(jù),從而造成個(gè)人隱私信息外泄、敏感數(shù)據(jù)外流等隱患。例如,當(dāng)員工將公司信息以提問的方式輸入 ChatGPT 后(如使用 ChatGPT 將會(huì)議錄屏內(nèi)容整理成為文字),可能會(huì)導(dǎo)致相關(guān)內(nèi)容進(jìn)入其學(xué)習(xí)數(shù)據(jù)庫,從而造成數(shù)據(jù)泄露的風(fēng)險(xiǎn)。美國(guó)數(shù)據(jù)分析服務(wù)商 Cyberhaven 在其官網(wǎng)上披露了關(guān)于公司員工使用 ChatGPT 會(huì)給公司造成何種安全性風(fēng)險(xiǎn)的研究結(jié)果。該廠商分析自 ChatGPT 公開推出以來使用其產(chǎn)品的各行業(yè)公司共計(jì) 160 萬名員工使用 ChatGPT 的情況并發(fā)現(xiàn),截至 2023 年 6 月 1 日,10.8% 的員工在工作場(chǎng)所使用過 ChatGPT,8.6% 的員工自 ChatGPT 推出以來將公司數(shù)據(jù)粘貼到其中,至少有 4.7% 的員工將敏感數(shù)據(jù)粘貼到 ChatGPT 中。此外,分析結(jié)果還顯示,員工輸入 ChatGPT 內(nèi)容的 11% 為敏感數(shù)據(jù)。

美國(guó)加州大學(xué)洛杉磯分校教授約翰·維拉塞納(John Villasenor)于 2023 年 5 月 8 日在美國(guó)智庫布魯金斯學(xué)會(huì)(Brookings Institution)官網(wǎng)發(fā)布了對(duì) ChatGPT 的政治態(tài)度進(jìn)行分析的結(jié)果。該研究通過詢問 ChatGPT 一系列關(guān)于政治和社會(huì)的問題,讓 ChatGPT 僅使用“支持”或“不支持”進(jìn)行回答。這一研究發(fā)現(xiàn),ChatGPT 是存在政治偏見的,其回答通常具有明顯的“左傾”特征。由此可見,ChatGPT 等大模型勢(shì)必會(huì)受到其所處國(guó)家的文化背景、政治環(huán)境等價(jià)值觀的影響,而這些倫理道德觀念不僅呈現(xiàn)多元化的特點(diǎn),其是否符合產(chǎn)品使用者所在地的基本價(jià)值觀和原則也仍未可知。因此,大模型的輸出內(nèi)容所體現(xiàn)的意識(shí)形態(tài)和價(jià)值觀可能會(huì)產(chǎn)生認(rèn)知安全問題,甚至對(duì)下一代教育、社會(huì)公平與國(guó)家安全產(chǎn)生影響。

基于此,全球各國(guó)和地區(qū)普遍高度重視研究與規(guī)制生成式人工智能帶來的安全性問題,并對(duì)生成式人工智能帶來的風(fēng)險(xiǎn)與挑戰(zhàn)進(jìn)行系統(tǒng)分析。例如,新加坡信息通信媒體發(fā)展局于2023年6月發(fā)布的《生成式人工智能:對(duì)信任和治理的影響》,將生成式人工智能存在的安全問題主要概括為涵蓋錯(cuò)誤和幻象、隱私和機(jī)密性、虛假信息有害性和網(wǎng)絡(luò)威脅、版權(quán)挑戰(zhàn)、嵌入式偏見,以及價(jià)值觀和結(jié)盟六大方面。


二、以網(wǎng)絡(luò)數(shù)據(jù)安全為切入點(diǎn)推進(jìn)人工智能治理進(jìn)程

雖然發(fā)展與應(yīng)用生成式人工智能帶來的風(fēng)險(xiǎn)涉及倫理道德、安全合規(guī)等多個(gè)方面,但是由于數(shù)據(jù)是人工智能發(fā)展與進(jìn)步的重要因素,因此,在應(yīng)對(duì)這些問題與挑戰(zhàn)時(shí)往往也都離不開數(shù)據(jù)這一關(guān)鍵要素。例如,為規(guī)避倫理道德風(fēng)險(xiǎn),在利用數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練時(shí),應(yīng)確保其與普世價(jià)值觀的一致性,而由于價(jià)值觀會(huì)隨著時(shí)代的變革而變化,因此,需要增強(qiáng)數(shù)據(jù)集的時(shí)效性。對(duì)此,可以采用檢索增強(qiáng)的方式提高數(shù)據(jù)的實(shí)時(shí)性和真實(shí)性,從而確保生成式人工智能系統(tǒng)可以隨之不斷變化和改進(jìn)。并且,由于大模型的發(fā)展與進(jìn)步依賴海量數(shù)據(jù),因此,數(shù)據(jù)集的規(guī)模、均衡程度以及標(biāo)注的準(zhǔn)確性都會(huì)影響其算法的執(zhí)行效果。低質(zhì)量的數(shù)據(jù)集可能會(huì)在算法執(zhí)行任務(wù)指令時(shí)產(chǎn)生不安全的結(jié)果,例如生成涵蓋錯(cuò)誤信息、偏見觀點(diǎn)以及具有誘導(dǎo)傾向的內(nèi)容。

確保數(shù)據(jù)安全是全球社會(huì)推進(jìn)生成式人工智能安全和可信發(fā)展的普遍切入點(diǎn)和重點(diǎn)關(guān)切。意大利個(gè)人數(shù)據(jù)保護(hù)局此前曾以侵犯數(shù)據(jù)隱私為由將 ChatGPT 封禁了近一個(gè)月,成為首個(gè)封禁 ChatGPT 的國(guó)家。該國(guó)當(dāng)局還表示,只有在公開 ChatGPT 的數(shù)據(jù)處理邏輯且解決一系列數(shù)據(jù)安全擔(dān)憂后才可以重新在該國(guó)上線。德國(guó)和愛爾蘭等國(guó)也緊隨其后表示,將會(huì)重點(diǎn)關(guān)注大模型應(yīng)用帶來的數(shù)據(jù)安全問題。此外,根據(jù)美國(guó)云計(jì)算服務(wù)軟件提供商 Salesforce 在 2023年 3 月對(duì) 500 多名 IT 行業(yè)領(lǐng)導(dǎo)者進(jìn)行的一項(xiàng)調(diào)查顯示,安全性是受訪者最關(guān)心的關(guān)于 ChatGPT 等大模型的問題,71% 的受訪者認(rèn)為生成式人工智能會(huì)給企業(yè)的數(shù)據(jù)安全帶來新的風(fēng)險(xiǎn)。為了防止敏感數(shù)據(jù)外流,微軟、亞馬遜等科技公司已相繼限制或禁止其員工使用生成式人工智能工具。

我國(guó)一直高度重視網(wǎng)絡(luò)與數(shù)據(jù)領(lǐng)域的法治建設(shè),近兩年陸續(xù)出臺(tái)了《中華人民共和國(guó)數(shù)據(jù)安全法》《網(wǎng)絡(luò)數(shù)據(jù)安全管理?xiàng)l例(征求意見稿)》等一系列關(guān)于數(shù)據(jù)安全的法律法規(guī)、部門規(guī)章、團(tuán)體標(biāo)準(zhǔn)和指引。為應(yīng)對(duì)生成式人工智能給數(shù)據(jù)安全帶來的新挑戰(zhàn),國(guó)家互聯(lián)網(wǎng)信息辦公室于 2023 年 4 月初起草并發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》。該辦法是全球范圍針對(duì)生成式人工智能的首個(gè)管理規(guī)定。征求意見稿不僅指出了生成式人工智能的定義,強(qiáng)調(diào)在提供生成式人工智能產(chǎn)品或服務(wù)時(shí)應(yīng)當(dāng)遵守法律法規(guī)的要求、尊重社會(huì)公德、公序良俗且符合社會(huì)主義核心價(jià)值觀,且需提前向國(guó)家網(wǎng)信部門進(jìn)行安全評(píng)估申報(bào)。該辦法還明確了生成式人工智能產(chǎn)品或服務(wù)的提供者應(yīng)當(dāng)對(duì)生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé);在設(shè)計(jì)算法和訓(xùn)練數(shù)據(jù)集時(shí)應(yīng)采取措施防止歧視;對(duì)用戶的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù);以及應(yīng)指導(dǎo)用戶合乎法律法規(guī)與公序良俗地使用其產(chǎn)品。


三、在構(gòu)建數(shù)據(jù)安全“監(jiān)管護(hù)欄”的基礎(chǔ)上推進(jìn)全球共識(shí)

鑒于生成式人工智能發(fā)展速度和顛覆性潛力,以及其在倫理道德、安全等方面存在的廣泛風(fēng)險(xiǎn)與挑戰(zhàn),除了我國(guó)率先發(fā)布了旨在專門規(guī)制生成式人工智能的管理辦法外,相關(guān)國(guó)家和地區(qū)政府已將生成式人工智能的治理與規(guī)制問題列為優(yōu)先事項(xiàng)。在數(shù)據(jù)保護(hù)方面,英國(guó)信息專員辦公室已向科技公司發(fā)出警告,提醒他們?cè)陂_發(fā)和部署生成式人工智能模型時(shí)要注重保護(hù)個(gè)人信息。日本個(gè)人信息保護(hù)委員會(huì)也于今年 6 月初發(fā)布公告,稱 ChatGPT 在未事先取得使用者的同意前,不能獲取使用者的個(gè)人敏感信息。

在立法規(guī)制方面,在歐洲議會(huì)于 6 月 14 日正式表決通過的《人工智能法案》授權(quán)草案中已涵蓋專門針對(duì) ChatGPT 等生成式人工智能工具的規(guī)制內(nèi)容,增加了更多提升其安全性的措施,例如要求生成式人工智能的開發(fā)人員在其產(chǎn)品進(jìn)行商業(yè)發(fā)布之前提交他們的系統(tǒng)以供審查。該法案還對(duì)生成式人工智能提出了新的透明度要求,包括披露內(nèi)容是由人工智能生成的,幫助區(qū)分深度造假和真實(shí)圖像;應(yīng)確保設(shè)計(jì)模型時(shí)防止其生成非法內(nèi)容;并且還須公開用于培訓(xùn)的受版權(quán)保護(hù)的詳細(xì)數(shù)據(jù)摘要。此外,在該法案正式被批準(zhǔn)前,根據(jù)《人工智能法案》草案對(duì)人工智能進(jìn)行的風(fēng)險(xiǎn)等級(jí)分類(不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)及最低風(fēng)險(xiǎn)),曾有歐盟議員提議,應(yīng)考慮將任何未經(jīng)過人類審核的、生成的內(nèi)容可能對(duì)人類造成誤導(dǎo)的生成式人工智能應(yīng)用,以及任何非藝術(shù)作品且經(jīng)深度合成的圖片、聲音和視頻都應(yīng)該被列入高風(fēng)險(xiǎn)類別,以便接受法律法規(guī)的監(jiān)管與約束。正式通過的授權(quán)草案內(nèi)容顯示,對(duì)人們的健康、安全、基本權(quán)利或環(huán)境產(chǎn)生負(fù)面影響的人工智能系統(tǒng),會(huì)被視為高風(fēng)險(xiǎn)。雖然影響選民與選舉結(jié)果的人工智能系統(tǒng)和社交媒體平臺(tái)的推薦系統(tǒng)已被納入高風(fēng)險(xiǎn)范疇,也提及用于教育和職業(yè)培訓(xùn)的人工智能系統(tǒng)屬于高風(fēng)險(xiǎn)類別,但是,該法案尚未明確將生成式人工智能納入高風(fēng)險(xiǎn)列表之中。

今年 4 月,美國(guó)國(guó)家電信和信息管理局也就監(jiān)管生成式人工智能發(fā)布了《人工智能問責(zé)政策征求意見》,旨在了解哪些政策可以支持人工智能審計(jì)、評(píng)估、認(rèn)證和其他機(jī)制的發(fā)展,從而確保人工智能系統(tǒng)合乎道德和安全,并增加對(duì)人工智能系統(tǒng)的信任。盡管中美兩國(guó)在貿(mào)易和技術(shù)問題上存在競(jìng)爭(zhēng)與分歧,但是,毫無疑問的是,兩國(guó)對(duì)生成式人工智能的濫用和誤用等問題存在共同擔(dān)憂,并已意識(shí)到亟需出臺(tái)具體舉措進(jìn)行問責(zé)與規(guī)制。

事實(shí)上,生成式人工智能帶來的安全性問題是全球共同面臨的關(guān)鍵挑戰(zhàn),該領(lǐng)域勢(shì)必成為人工智能治理與監(jiān)管競(jìng)賽的新角斗場(chǎng)。盡管各國(guó)和地區(qū)已競(jìng)相監(jiān)管人工智能,努力填補(bǔ)法律法規(guī)的真空,但是求同存異、同向發(fā)力才是確保人工智能負(fù)責(zé)任地開發(fā)與應(yīng)用的主旋律。因此,國(guó)際社會(huì)還需加強(qiáng)治理框架之間的互操作性,深化共同合作,從而找到適合整個(gè)社會(huì)的人工智能治理機(jī)制。包括德拉格什·圖多拉凱(Dragos Tudorache)等在內(nèi)的多位歐洲議會(huì)議員在四月中旬發(fā)布的《歐盟議會(huì)就非常強(qiáng)大的人工智能發(fā)出的行動(dòng)呼吁》(A call to action on very powerful AI from the EU Parliament)聯(lián)名公開信已明確表示,歐盟希望與美國(guó)在人工智能治理方面展開密切合作,同時(shí)還呼吁召開全球峰會(huì),共同尋找規(guī)制生成式人工智能的方法,從而達(dá)成治理共識(shí)。基于此,我國(guó)在繼續(xù)完善、細(xì)化針對(duì)生成式人工智能產(chǎn)生的個(gè)人信息安全、數(shù)據(jù)出境安全等問題的監(jiān)管條例,確保治理與規(guī)制舉措不會(huì)滯后于生成式人工智能的高速發(fā)展與應(yīng)用的同時(shí),也應(yīng)該積極發(fā)揮大國(guó)的帶頭作用,加強(qiáng)人工智能治理政策方面的國(guó)際合作和信息交流,推進(jìn)全球社會(huì)就網(wǎng)絡(luò)數(shù)據(jù)安全和人工智能治理達(dá)成相關(guān)共識(shí)。

(作者:梁正 何嘉鈺