探索人工智能治理的框架與路徑
專家解讀《人工智能治理藍皮書(2024年)》
2025-01-02 12:43:28 來源:法治日報·法治周末
視覺中國供圖
通用人工智能發展帶來了一系列的新興問題與挑戰。2024年,關于通用人工智能對勞動市場和能源環境影響的討論尤為突出
《法治周末》記者 尹麗
2024年12月27日,中國信息通信研究院(以下簡稱中國信通院)在“2024人工智能賦能新型工業化大會”上發布了《人工智能治理藍皮書(2024年)》(以下簡稱藍皮書),引發業界和學界廣泛關注。近日,《法治周末》記者采訪了中國信通院政策與經濟研究所副所長、中國人工智能產業發展聯盟政策法規工作組組長張春飛,請他對這份藍皮書進行解讀。
核心亮點是“1244”總體框架
《法治周末》:近年來,人工智能治理是全球矚目的話題。在您看來,中國信通院發布的這份藍皮書有哪些亮點?
張春飛:藍皮書的核心亮點是提出兼顧全面性、系統性、前瞻性的“1244”人工智能治理總體框架。近年來,人工智能技術顛覆性、跨越式突破引發通用人工智能新一輪發展熱潮,全球人工智能行業實現高速增長。與此同時,人工智能領域模型安全、勞動替代、壟斷風險、不透明不可控等風險凸顯,發展不平衡、規則不健全、秩序不合理問題更為突出,推動全球人工智能治理進入規則構建和落地的關鍵階段。針對人工智能治理,全球各方嘗試從產業鏈、價值鏈、全生命周期等不同邏輯維度構建起多項人工智能治理框架,不同框架間共識與差異并存。
為進一步推進各方共識,藍皮書嘗試提出“1244”人工智能治理總體框架。在“以人為本、智能向善”理念指引下,綜合供應鏈條、價值鏈條、全生命周期鏈條等底層邏輯,從What、Why、Who、How四個維度搭建了“1244”治理框架,即一組概念、兩類風險、四類主體、四組議題。
“一組概念”指人工智能概念范疇;“兩類風險”主要為內生風險、衍生風險;“四類主體”包括政府部門、產業力量、專業機構和國際組織;“四組議題”則涵蓋負責任創新、可持續發展、倫理先行、安全底線。藍皮書力求框架的全面性、系統性、前瞻性,其中全面性是指該框架涉及議題全面廣泛,適用于政府、產業、專業機構、國際組織等多類主體;系統性是指框架統籌了發展和安全需求,從負責任創新、可持續發展、倫理先行、安全底線四個方面進行了整合梳理;前瞻性是指框架具有可擴展性,可結合人工智能技術快速發展不斷迭代。
就我國人工智能治理提出三方面建議
《法治周末》:在剛剛過去的2024年,通用人工智能發展帶來的勞動替代、能源消耗等問題不容忽視。對于這些問題,藍皮書中有怎樣的回應?您認為,未來通用人工智能發展還將帶來哪些值得我們注意的問題?
張春飛:通用人工智能發展帶來了一系列的新興問題與挑戰。2024年,關于通用人工智能對勞動市場和能源環境影響的討論尤為突出。
對于勞動替代問題,藍皮書特別關注了人工智能對不同崗位和受教育程度的影響,指出人工智能將沖擊中高端收入群體,同時也會帶來新的就業機遇。為應對這一問題,藍皮書提出了建立勞動力市場影響監測機制的建議,重點關注人工智能替代就業和創造就業的速度,通過對被替代勞動人群進行常態化調研,提前預警可能出現的大規模就業替代風險,并為制定針對性的應對方案提供依據。此外,藍皮書還強調了技能培訓和再教育的重要性,鼓勵政府和企業合作,幫助勞動者適應人工智能驅動的工作場所,促進就業市場的平穩過渡。
對于能源消耗問題,藍皮書分析了人工智能技術快速發展對能源消耗的影響,如GPT-3模型能耗相當于1287兆瓦時的電力,同時產生552噸二氧化碳。而隨著大模型訓練和推理任務的增加,數據中心和計算資源的需求大幅增長,導致能源消耗激增。為應對這一問題,藍皮書提出了強化政策引導、加大對可再生能源的投資與能源技術創新、利用人工智能技術節能減碳等方法。
對于未來通用人工智能發展可能帶來的問題,一方面,通用人工智能技術賦能千行百業,我們應關注在“人工智能+”應用過程中,自動駕駛、醫療、金融等具體行業領域面臨的特殊問題;另一方面,應跟蹤通用人工智能技術推進可能引發的失控風險及相關爭議,確保技術發展符合人類長期福祉。
《法治周末》:您如何看待我國人工智能治理實踐情況?藍皮書就實踐中出現的問題提出了哪些解決思路?
張春飛:我國人工智能治理涵蓋頂層設計、法律制度、部門規章和技術標準四大層面,形成了由政府引導、多部門協同、公私部門合作參與的治理格局。例如,在法律法規建設層面,我國已經制定了一系列針對人工智能的法律法規,包括網絡安全法、個人信息保護法、數據安全法等,這些立法為人工智能治理奠定了堅實的制度基礎。部門規章層面注重急用先行的思路,出臺如《互聯網信息服務算法推薦管理規定》《生成式人工智能服務管理暫行辦法》等,以應對新的風險和問題。
實踐中制度落地和技術治理并進,例如為落實透明度制度,國家網信辦提出備案要求,要求說明模型數據來源、規模、類型、標注規則等。截至2024年11月17日,我國國家網信辦發布生成式人工智能備案信息共309家,注冊用戶超6億。為推進內容標識技術落地,相關機構發布《網絡安全技術人工智能生成合成內容標識方法(征求意見稿)》,明確了標識的管理和責任,并對生成合成內容傳播進行相應規范。國內部分企業積極研發內容標識技術,更新《社區自律公約》等規則,要求無論來源的生成內容都應當添加顯性的標識。
在此基礎上,藍皮書對我國人工智能治理提出如下建議:
一是圍繞要素和場景細化負責任創新方案。針對產業鏈各環節,堅持“小步快跑”“邊發展邊治理”的制度路徑。例如圍繞算力、模型、數據,醫療、教育等“要素+場景”思路率先制定低位階立法、標準規范。以監管沙箱試點探索成熟的分級分類方案。建議推進應用成熟、制度需求大的行業領域,開展人工智能治理試點工作,摸清主要場景和關鍵環節的風險問題,明確細化分級分類的可操作標準,并根據實際情況做動態調整。
二是立足技術實踐優化人工智能監管工具。例如探索安全技術研發創新,不斷豐富內容標識、紅隊測試、價值對齊等技術工具和治理經驗,發布數據審查庫、數據標注規范等具體評估指引。強化人工智能監管平臺資源配備,建立國家級安全基準測試平臺,促進產學研用各創新主體聯動和共建共享,通過政策扶持、競賽獎勵、創新支持等方式,推進評估評測方法、測試數據集。加強人工智能領域第三方評估機構力量,明確人員專業能力、技術工具儲備、資源平臺建設等資質認定條件等。
三是系統監測預警人工智能倫理社會影響,包括科學設定監測目標,選擇可追蹤、可量化的目標指標進行定期調查。加強前瞻預警,制定風險預案。集結經濟學、社會學、計算機科學、倫理學、能源科學等領域的專家,構建跨學科團隊,確保多角度分析能力。研究劃定人工智能在重點領域倫理風險的臨界風險等。
如何更好地參與人工智能國際治理
《法治周末》:就人工智能國際治理而言,您如何看待國際合作的重要性?以及,我國如何更好地參與人工智能國際治理?在這一過程中,有哪些方面的問題需要注意?
張春飛:當前,人工智能治理正成為全球治理的優先事項,具有顯著的跨地域性和跨學科性,單一國家難以獨自應對由此產生的新挑戰。
從技術發展來看,人工智能研發所需的數據、算力、人才等資源在全球范圍內分布不均,加強國際合作有助于資源優化配置,實現全球技術共建與成果共享。從安全風險來看,確保人工智能的安全性與可靠性是防止濫用的關鍵,明確安全底線可以在全球產業應用中有效降低風險,特別是系統性風險的發生概率。從倫理價值來看,各國文化背景下的人工智能倫理認知存在差異,通過國際合作,在尊重多樣性的同時尋求共識,對于構建全球認可的人工智能倫理框架至關重要。
為了更好地參與人工智能國際治理,我國需要從三個方面推動建設公平普惠的包容性人工智能治理方案。一是搭建能力建設平臺。落實聯合國未來峰會成果,開展基礎設施建設、研發和應用國際合作,共建共享人工智能發展紅利。二是安全技術開源開放。分享在人工智能測試、評估、認證與監管方面的政策與技術實踐,共同探索國際互認的測評方法。三是推進公平普惠發展。推動人工智能數據語料庫平等多樣,消除種族主義、歧視等算法偏見,促進、保護和保全語言和文明多樣性。