來源:中國貿易報 作者:本報記者 錢顏 2023-08-23 07:50:21
人工智能飛速發展,在為新一輪技術革命提供支撐的同時,也給社會帶來諸多風險和挑戰。麥肯錫全球人工智能最新調研顯示,近5年全球范圍內企業的AI使用率大幅提升,2022年有50%的公司部署了AI,遠高于2017年的20%。對AI的資本投入也隨使用率的提升而大幅增長。5年前約有40%的公司對AI投入了超過5%的總預算,而2022年已有超過一半的公司有此投入比例。
在此背景下,中國社會科學院國情調研重大項目《我國人工智能倫理審查和監管制度建設狀況調研》起草組近日發布全國首個《人工智能法示范法1.0(專家建議稿)》(以下簡稱《示范法》),堅持發展與安全并行的中國式治理思路,提出了負面清單管理等治理制度,并對人工智能產業鏈條各主體責任義務分配等核心問題進行了回應。
中國社會科學院法學研究所網絡與信息法研究室副主任周輝介紹稱,與其他人工智能政策不同,《示范法》的創新之處在以下三個方面:首先,在監管上,創設性提出設置國家人工智能主管機關統籌負責全國范圍內人工智能發展與管理工作。鼓勵AI發展,采用負面清單管理制度對人工智能進行風險管理,負面清單內的研發、提供活動采取許可機制,實行事前監管;負面清單外的研發、提供活動則采取備案機制,事后監管機制。
其次,在方向上,堅持發展導向,設計了盡職免責等相應條款,采取有效措施鼓勵生成式人工智能創新發展,在制度設計上留出更多容錯空間。
最后,在主體架構上,按“研發者—提供者—使用者”三類主體進行制度設計,跳出具體應用場景,直接穿透底層技術邏輯。
值得注意的是,《示范法》對人工智能研發者、提供者的安全性義務進行了強調。一方面,要求其將人工智能投入使用或投放市場前進行安全測試,防范網絡數據人工智能安全風險,保障人工智能全生命周期的安全、穩健運行,符合預期目的。另一方面,要求其按照相關規定履行安全漏洞管理義務,確保其安全漏洞得到及時修補和合理發布,并指導支持使用者采取防范措施。特殊情形下,人工智能研發者需要進行評估。如果發現研發階段存在問題風險的,在問題風險解決前,暫?;蛳录苋斯ぶ悄墚a品、服務。
在星紀魅族集團有限公司數據合規執行總監朱玲鳳看來,行業期待法律的確定性,有利于明確義務邊界,營造更優的營商環境。人工智能產業鏈上的企業一般會將注意力放在自己的上下游上,而忽略了對整體方向的把控,通過法律指引可以幫助經營者識別和管理風險。
北京視界律師事務所合伙人吳凡指出,我國人工智能法律規范落實過程中,需要重視不同行業、不同場景下出現的不同法律風險,按照人工智能適用的場景和相應的風險進行差異化管理。
上海瑞達律師事務所律師冉鑫告訴《中國貿易報》記者,《示范法》可以與今年7月國家網信辦等七部門發布的《生成式人工智能服務管理暫行辦法》結合看待,鼓勵生成式人工智能技術在各行業、各領域的創新應用,生成積極健康、向上向善的優質內容,探索優化應用場景,構建應用生態體系。同時,在知識產權保護、技術保護、個人信息數據保護等方面建立防火墻,重視人工智能與金融、醫療、教育等實體產業融合過程中出現的多樣化風險,共同推動人工智能產業的健康發展。