大模型應用亟待“標準體系”支撐
2025-03-20 13:04:29 來源:法治日報·法治周末
□ 賀寶利
大模型AI給出的答案應該是準確無誤的吧?
錯!結果可能會顛覆你的認知與想象:看似文通字順的文章,“語義邏輯”與“事實邏輯”卻大相徑庭。
這種被AI行業稱為“幻覺數據”的問題,在國內已經被很多人所熟知。
事實上,早在2023年,美國斯坦福大學的一項研究顯示:主流大模型的“幻覺數據”發生率高達25%至40%。
當前我國網民已經突破11億,其中約2.5億人已成為生成式AI的用戶。高頻率出現的“幻覺數據”,已經成為數字經濟時代的“數據毒瘤”,也必將倒逼生成式人工智能“標準體系”的快速構建。
廣義上看,“幻覺數據”的出現主要包括三大來源。首先,數據污染是“幻覺數據”的主要來源。一般來講,大模型的訓練數據中,本身就可能包含錯誤、過時或偏見信息。這些有問題的數據經過模型“學習”后,再以程式化的方式輸出,必然出現“以錯鑄錯”。其二,模型缺陷也是重要原因。當前大模型普遍存在“過度自信”問題,即使面對不確定的問題也會給出確定性回答。這種機制“先天”缺陷導致模型容易產生虛假信息。其三,算法局限性加劇了這一問題。當前大模型并不完全具備人類智慧思維,缺乏真正的理解、辨識、判斷能力,只是基于“統計規律生成文本”。這種機制決定了模型可能生成看似合理實則錯誤的內容。
回過頭來看,正是上述深層原因,導致“幻覺數據”“深度偽造”等“肆意橫行”,也成為今年全國兩會期間代表、委員們關注的熱點話題。其中全國政協委員、360公司創始人周鴻煒,全國人大代表、科大訊飛創始人劉慶峰等人的建議意見較為系統、客觀。而全國政協委員齊向東調研多家企業在接入“DeepSeek”時,發現企業的“小數據”面對大模型“大數據”時近乎“裸奔”的尷尬局面,為企業在AI應用過程敲響了安全警鐘。
值得慶幸的是,近日,互聯網信息辦公室、工業和信息化部、公安部、國家廣播電視總局聯合發布了《人工智能生成合成內容標識辦法》。
該辦法明確了人工智能生成合成內容標識主要包括顯式標識和隱式標識兩種形式。顯式標識,是指在生成合成內容或者交互場景界面中添加的,具體以文字、聲音、圖形等方式呈現并可以被用戶明顯感知到的標識;隱式標識,是指采取技術措施在生成合成內容文件數據中添加的,不易被用戶明顯感知到的標識。
該辦法強調,任何組織和個人不得惡意刪除、篡改、偽造、隱匿本辦法規定的生成合成內容標識,不得為他人實施上述惡意行為提供工具或者服務,不得通過不正當標識手段損害他人合法權益。
有了標識,就可以做到溯源,能溯源就會知曉“幻覺數據”“深度偽造”等“問題內容”來源于何處。這為后期的行業監管奠定了基礎。這項從2025年9月1日起施行的管理辦法,旨在規范人工智能生成合成內容,對促進人工智能健康發展,保護公民、法人和其他組織合法權益,維護社會公共利益,意義極其重大。
也就是前不久,中國信息通信研究院依托中國人工智能產業發展聯盟安全治理委員會,正式啟動2025年第一批人工智能安全評估工作。
評估項目主要圍繞AI自身安全能力與AI賦能安全能力兩大方面展開。
AI自身安全能力評估,主要包括四大方面:大模型安全防范能力評估;圖文大模型安全能力評估;代碼大模型安全能力評估:生物特征識別安全能力評估。大模型安全防范能力評估關注大模型的全生命周期安全能力,全面評價大模型的安全水平,依據《大模型安全風險防范能力》系列標準,重點考察“訓練數據安全、模型安全、內容安全和服務運營安全”4個方面。圖文大模型安全能力評估圖文大模型在多模態內容生成應用中的安全能力,以及圖文一致性、生成圖像標識能力、抵抗攻擊等任務上的效果。代碼大模型安全能力評估代碼大模型在安全風險防范方面的能力,主要分為基礎功能和安全風險防范能力,基礎功能安全檢查包括文本到代碼、代碼到代碼、代碼到文本3個功能面,安全風險防范能力要求覆蓋內容安全、模型安全方向的十余個安全風險檢查項。生物特征識別安全能力評估面向人臉識別技術提供方、技術使用方,依據“可信人臉應用守護計劃”制定的標準規范開展相關評測,涉及人臉識別安全專項評估、金融APP人臉識別安全能力評估、移動端電子政務類人臉識別安全能力評估、金融聲紋反欺詐系統安全能力評估、掌紋掌靜脈識別系統能力評估、多因素身份認證產品能力評估、H5端人臉識別安全能力評估7大方向。
AI賦能安全能力評估,包括安全大模型能力評估;內容安全審核能力評估;AI深度合成內容檢測能力評估三部分內容。AI深度合成內容檢測能力評估主要評估大模型的網絡安全原子能力和網絡安全通用能力。其中,網絡安全原子能力涉及惡意流量檢測、漏洞檢測、惡意代碼檢測、惡意郵件檢測計等;網絡安全通用能力檢測涉及安全問答、安全語言翻譯、安全數據處理、安全告警研判等。內容安全審核能力評估主要評估包括內容審核機審系統、人工審核能力評估、審核系統成熟度評估、內容勘誤能力評估和內容巡查能力評估等,通過質量高、范圍廣、有代表性的數據集,實現對內容安全審核系統的功能和性能測試。AI深度合成內容檢測能力評估,主要評估包括深度合成視頻、深度合成音頻、AIGC視頻、AIGC圖像4個方面的內容檢測能力評估,面向主體為深度合成檢測服務提供方或相關系統開展評估。
這項從發布評估報名時間開啟,計劃在2025年7月中旬完成的批次評估工作,無疑是一次行業“安全自律”的巡檢,體現出了對行業發展的前瞻審視,必將對AI行業發展大到國家AI戰略、規劃、政策的研究出臺,小到行業技術、標準的制定乃至檢測認定,都會起到重要作用。
在數字化與智能化飛速發展的今天,大模型作為人工智能領域的核心驅動力,正廣泛應用于各個行業,為經濟增長和社會發展注入強大動力。從智能客服提升服務效率,到金融風險預測助力決策,大模型的身影無處不在。然而,隨著其應用的深入,大模型生成“幻覺數據”等安全問題不斷暴露的情況下,建立大模型應用統一技術標準已刻不容緩。
大模型推理平臺是大模型應用的核心基礎設施,其技術標準的統一對于保障大模型的性能、安全和互操作性具有重要意義。目前,不同的大模型推理平臺在架構設計、算法實現、數據處理等方面存在較大差異,這不僅增加了企業和開發者的使用成本,也限制了大模型技術的推廣和應用。
在建立大模型使用統一技術標準的過程中,需要政府、企業、科研機構等各方共同參與,形成合力。政府應發揮主導作用,制定相關政策和法規,引導和規范大模型垂直應用適配框架與工具。加大對行業技術研發和標準制定的支持力度,鼓勵企業和科研機構積極參與大模型技術的創新和應用。同時,加強對大模型技術應用的監管,確保其符合法律法規和道德規范。
企業作為大模型技術的主要應用者和推動者,應積極參與大模型應用統一技術標準的制定和實施。同時,企業應自覺遵守相關標準和規范,加強對大模型技術應用工程中的風險管理,保障用戶的利益。
科研機構作為大模型技術應用的研究和創新主體,應加強對大模型技術的基礎研究和應用研究。深入探索大模型的工作原理和性能特點,為大模型使用統一技術標準落地制定提供理論支持。同時加強與企業的合作,將科研成果轉化為實際生產力,積極參與國際交流與合作,學習和借鑒國際先進經驗,提升我國大模型技術的國際競爭力。