新技術應用往往先于規范,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德,才能營造良好的創新生態。著眼未來,在重視防范人工智能風險的同時,也應同步建立容錯、糾錯機制,努力實現規范與發展的動態平衡。
近期,人工智能領域大模型聲勢高漲,短短數月間,數十家國內公司先后宣布進軍大模型賽道。7月6日在上海舉辦的2023世界人工智能大會成為大模型集中秀場,30余款來自不同企業的大模型產品和技術相繼亮相。
科技部新一代人工智能發展研究中心近期發布的《中國人工智能大模型地圖研究報告》顯示,以“大數據+大算力+強算法”相結合的人工智能大模型,在中國正迅猛發展,中國研發的大模型數量已居全球第二,僅次于美國,目前中國發布的10億參數規模以上的大模型已達79個。
以大模型為代表的人工智能技術,其巨大潛力正在加速釋放,想要抓住它所帶來的巨大機遇,就需要警惕它的潛在安全風險和隱患,這是當前人工智能產業界所面臨的雙向任務。
人工智能風險具“自有”特點
據中國信息通信研究院測算,2022年中國人工智能核心產業規模已達5080億元人民幣。
人工智能已成為全球數字技術創新最活躍的領域之一,為人們的生產生活帶來了巨大的變革和便利,但也帶來了諸多風險與挑戰,如何構建安全可信的人工智能是當前各界關注的焦點。
阿拉伯信息通信技術組織秘書長穆罕默德·本·阿莫在日前舉辦的世界互聯網大會數字文明“尼山對話”主論壇上表示,建立一個安全可信的人工智能系統,要首先考慮數據隱私與安全、透明度、責任與問責、穩健性與彈性等因素;此外,還需要建立一個道德框架,通過以人為本的設計,優先考慮人類福祉。
全球移動通信系統協會首席執行官洪曜莊表示,只有在道德準則的約束下,人工智能才能真正改善世界。我們必須共同努力構建一個可信賴的環境,建立以人為本的方法體系,確保人工智能對于每個人都可靠、負責和公平,最重要的是,能夠普惠所有人。
加強人工智能發展中潛在風險的研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控,是中國推進人工智能治理的重要方向。
早在2017年,國務院印發《新一代人工智能發展規劃》,明確提出到2025年,初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力;2030年,建成更加完善的人工智能法律法規、倫理規范和政策體系。
盡管相關科研機構和科技企業在人工智能系統設計之初就考慮到要保障人工智能安全、可控,但技術應用的趨利避害卻往往難以一蹴而就。
中國科技大學公共事務學院網絡空間安全學院教授左曉棟表示,人工智能的風險和傳統技術的風險相比,有一些“自有”的特點。比如,人工智能是高度自主智能的,極大依賴數據基礎,而且還存在“算法黑箱”、算法不可解釋等問題,使得人工智能系統存在大量未知因素,風險預測難度較大。
為應對可見的挑戰和不可知的風險,我國應加快建立人工智能領域相關法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力,這是我國各界對人工智能發展的共識。