強觀察|如何監管生成式人工智能?征求意見稿來了
生成式人工智能服務在帶來生產力巨大變革的同時,也存在算法偏見、信息泄露、內容造假等安全隱患。近日,國家互聯網信息辦公室發布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》),對生成式人工智能服務進行了框架性規范。
《征求意見稿》釋放了哪些信號?系好“安全帶”,對生成式人工智能健康發展和規范應用有何作用?人民網“強觀察”欄目記者就此采訪了中國科學技術大學網絡空間安全學院副院長張衛明、北京大學信息化與信息管理研究中心主任黃文彬。
既劃定界限也有發展空間
生成式人工智能,是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。近來大火的ChatGPT即屬于此類技術。
《征求意見稿》的公布,距離2022年11月30日對話式AI模型ChatGPT的發布不足5個月時間,如此高效出臺,釋放什么信號?
在張衛明看來,這種高效監管顯示出國家層面對生成式人工智能的支持與重視。《征求意見稿》提出多維監管意見,強調保護,防止“濫用”,有助于國內生成式人工智能服務健康發展。“《征求意見稿》明確提出,‘國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作’,制定本辦法的目的是‘促進生成式人工智能健康發展和規范應用’”。
黃文彬表示,《征求意見稿》發出了生成式人工智能需要在維護國家安全和社會穩定、保障公民和其他組織的合法權益的前提下研究發展與技術應用的信號。“這個管理辦法為保護個人、國家甚至全球安全將起到重要作用。尤其是在生成式人工智能日益廣泛應用的當下,人們需要足夠的專業知識才能判別智能產品輸出結果的真偽優劣,這些結果可能會影響個人的品德思想與行為規范。一旦出現問題,可能會對整個社會或國家產生負面影響,這種負面影響有可能超過服務提供者或用戶的可控范圍。”
監管措施迎頭趕上
雖然生成式人工智能技術正在或即將引發生產力變革,但其產生的風險和挑戰不能忽視。
比如,生成式人工智能技術會根據要求生成有說服力且有針對性的虛假信息;它還可能回答如何自殺、如何制造化學武器等可能導致嚴重后果的問題。諸如此類新現象,都需要監管的與時俱進。
記者梳理發現,不少國家重視生成式人工智能的監管。英國政府于3月發布了第一份人工智能白皮書,概述了人工智能治理的5項原則。當地時間3月31日,意大利個人數據保護局宣布,從即日起禁止使用聊天機器人ChatGPT,限制其開發公司OpenAI處理意大利用戶信息,并立案調查。美國商務部近日就相關問責措施正式公開征求意見,包括新人工智能模型在發布前是否應經過認證程序。
黃文彬表示,全球范圍內加強生成式人工智能的監管力度,意味著數據安全和隱私保護已經成為生成式人工智能發展的重要前提。我國選擇生成式人工智能作為規制對象并積極發布《征求意見稿》,這在全世界范圍內都是走在前列的。
“人工智能技術存在著較大的不確定性和不可控性,應該接受嚴格的安全評估,需要監管來確保這些安全措施得以實施。”張衛明說,隨著更多應用落地,一些潛在的風險將被認識和暴露,《征求意見稿》只是第一步。
提前布局守住“安全底線”
防止生成式人工智能濫用,在充分發揮政府監管職能的同時,也需科技企業提前布局,發揮技術能力守住“安全底線”。
黃文彬表示,生成式人工智能只是一個工具。技術本身沒有好壞之分,但應用技術時需要重點考慮智能產品情境背景的適用性、使用方式的合理性和應用目的的正確性。比如,在用戶相對感覺心理孤獨空虛的情景下,智能產品可以提供聊天陪伴,以舒緩用戶心理為目的。然而,假如該產品提供偏頗甚至具有負面傾向性的聊天內容,可能會使用戶產生自殺、暴力、歧視等問題,對個人及社會產生較大的傷害。
《征求意見稿》也提出,利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息;尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隱私,侵犯知識產權;禁止非法獲取、披露、利用個人信息和隱私、商業秘密等。“這些規定都是為了促進人工智能技術的健康發展和規范應用。”張衛明說。
“比如虛假信息檢測技術,國外已經布局,我們的安全技術專家、安全技術企業也應盡快提出相應的技術方案。”張衛明認為,再先進的科技都需要人來使用、人來控制、人來確保安全。實施更全面的人工監管,時刻關注技術的安全性,確保其不會被濫用,才能充分發揮人工智能的潛力。
分享讓更多人看到