黨的二十屆三中全會審議通過的《中共中央關于進一步全面深化改革、推進中國式現代化的決定》強調,建立人工智能安全監管制度。作為一種戰略性新興技術,人工智能已深度融入人們的生產生活,對于工作效率的提升大有裨益,還不斷催生出新產業、新業態、新商業模式,持續為經濟社會發展注入新動能。作為人工智能的一個重要組成部分,生成式人工智能技術的飛速發展,涵蓋虛擬現實、醫療保健、創意產業等多個領域,為各行各業帶來更多創新與價值。不過,當前也要密切注意生成式人工智能可能引發的數據安全、信息誤導等風險挑戰,堅持發展與安全并重。
所謂生成式人工智能技術(AIGC),是指基于算法、模型、規則等,生成文本、聲音、圖片、視頻等內容的新一代人工智能技術。算力、算法、數據是這種技術發展的三大核心要素,這幾個要素的綜合作用,使得其具備自生成模式,能實現閉環式學習體系的構建,通過利用海量數據信息,自主學習要素,進而生成原創性的專業知識內容或產品并可以不斷更新,進行自我升級迭代。基于這些特點,越來越多的行業正將其作為提高生產力水平的新要素,創造出指數級的價值,并催生了大量的產業應用,教育、娛樂、商業等領域均有所及。2022年末,美國OpenAI公司推出的ChatGPT標志著這一技術在文本生成領域取得顯著進展。世界知識產權組織(WIPO)不久前發布的《生成式人工智能專利態勢報告》顯示,2014年到2023年,中國生成式人工智能專利申請量超3.8萬件,居世界第一位。
生成式人工智能是把雙刃劍,在加強技術研發和創新的同時,需努力提高其安全性和可控性,有效識別潛在風險和漏洞并形成應對策略。2023年8月15日正式施行的《生成式人工智能服務管理暫行辦法》指出,有關主管部門依據職責對生成式人工智能服務開展監督檢查,提供者應當依法予以配合,按要求對訓練數據來源、規模、類型、標注規則、算法機制機理等予以說明,并提供必要的技術、數據等支持和協助。因此,未來要進一步推動生成式人工智能的發展,應從網絡安全、數據安全、個人信息保護等層面入手,采取包容審慎的態度,從技術、倫理、法律等多方面設置“安全閥門”,防范生成式人工智能風險。
一方面,完善相關法律法規的有效界定,合理有效監管。加快立法進程,針對數據、內容安全、知識產權等生成式人工智能發展的關鍵問題,進行分類管理、分類立法,通過政策立法對生成式人工智能的設計、演進進行有效引導、統籌管理。明確監管底線,制定相應技術使用規則和行業規范,強化對生成式人工智能企業、平臺和使用該技術高校各主體等失范行為的監管,及時發現處理違規行為。將“傳統事后監管模式”轉為“事前預防評估模式”和“事中控制模式”,制定事前評估、風險預警和事中控制規范,有效減少安全事件的發生、降低安全事件對企業、高校等造成的負面影響。加快制定相應的技術使用規則和應急處理措施,強化對應用生成式人工智能的企業、平臺的監管和約束。
另一方面,持續增強數據安全。建立數據全生命周期監督管理,包括數據采集輸入階段的虛假、錯誤信息入庫管控,數據處理加工階段的數據標注管控監督,數據輸出階段(二次采集輸入階段)的數據真實性檢測驗真等。針對醫療、金融、電商、高校等重點領域,通過技術手段保障數據安全。及時發現和處理數據方面的違規行為,保障數據及隱私安全,防止濫用數據造成的損失,確保其符合法律法規和社會公德。 (本文來源:經濟日報 作者:譚澤宇)
(責任編輯:沈曄)