AI融入法律服務,法律人如何應對?
2025-03-03 15:18:09 來源:法治日報·法治周末
《法治周末》記者 管依萌
2月27日,由盈科北京新聯會、盈科數字經濟研究會聯合主辦,北京市盈科(豐臺區)律師事務所承辦的AI大模型DeepSeek法律應用趨勢研討會舉行。會議聚焦AI大模型(如DeepSeek、ChatGPT、Kimi、豆包等)在法律服務領域的應用現狀、挑戰與未來發展方向,重點討論律師的法律文書撰寫、法律咨詢、合同審查等場景中的應用及趨勢。
會上,北京律師協會人工智能與數字經濟專委會副主任、中關村ABI專家委員會委員王風和表示,隨著人工智能技術發展,生成式人工智能在法律服務中的應用日益廣泛,深刻改變行業生態,但也引發諸多值得關注的議題。
AI重塑法律服務
“北大法寶”法律實驗室創始人美國杜蘭大學法學博士張力行在會上指出,ChatGPT作為通用AI大型語言模型,能夠有力地協助法律從業者提升工作效率,在法律研究、法律咨詢和解答、法律文件生成和翻譯及法律靈感、創意和知識涌現等方面都能發揮顯著作用。
未可知AI人工智能研究院專家王蕓談到,目前AI在法律文書自動化、法律咨詢與檢索、司法輔助與決策支持等場景開始運用。利用AI大模型,如得理法律、法信基座等,能夠自動生成起訴狀、答辯狀等常見法律文書,極大提高起草效率。通過對歷史判決數據的深度分析,AI能夠預測當前案件的勝率,為律師制定訴訟策略提供有力的數據支持。
王蕓指出,隨著AI技術的不斷進步,其在法律服務領域的應用將更加廣泛和深入,從文書自動化到智能咨詢,再到司法輔助,這不僅提高工作效率,降低成本,同時也為律師和法官提供新的職業發展機會和挑戰。
王風和認為,AI對法律服務進行了重塑。具體表現為:法律咨詢服務在線化。虛擬助手能實時解答法律問題、解讀法規,增強了法律服務的可達性;AI 合同處理智能化。可自動審查條款、定制化生成合同,提高法律工作效率,降低風險;案件預測與司法輔助。基于歷史數據預測判決結果,輔助法官和律師優化策略。
“在使用ChatGPT時,法律從業者需具備提示、識別、驗證、對齊四大能力,將AI定位為一個輔助工具,避免產生過度依賴。”張力行表示,律師可以結合實際需求,在自動化文書撰寫、爭議焦點識別、案例庫構建、在線調解、智能裁判、多語言支持等方面靈活運用ChatGPT來提高案件處理效率,提升工作質量,為當事人提供更好的法律服務。
AI法律服務存風險
然而AI技術并非無所不能,它在實際應用中仍然面臨著一系列問題。
王蕓直言,AI融入法律服務存在潛在挑戰,包括隱私泄露風險和算法偏見問題。法律數據包含大量敏感信息,必須進行嚴格的數據脫敏處理和合規審查,保障數據安全和當事人隱私。由于訓練數據可能存在隱含偏見,需建立動態評估機制,及時發現并糾正算法偏見,確保AI決策公正性。
王風和表示,AI提升法律服務效率,讓從業者從重復性任務解脫,專注高價值工作。但法律人需掌握技術技能,以適應智能化工具,確保服務準確合規,這加劇了技術熟練度和專業能力的雙重競爭。
“在技術接入、使用能力和數字素養等方面存在差異,影響不同群體獲取法律服務的公平性。科技巨頭掌握AI技術,可能引發法律服務行業壟斷,中小律所面臨生存挑戰。”王風和說,中小律所和鄉村地區因AI技術使用差距,加劇“技術鴻溝”,導致資源不均;城鄉數字基礎設施和法律服務資源不均衡,使欠發達地區居民難以獲得高質量法律服務;老年人和弱勢群體因數字素養不足,使用智能法律服務存在障礙,加劇社會不平等。
同時,法律服務“去人化”會帶來一定風險。王風和表示,AI可能被誤用為免責任工具,掩蓋不當行為,引發法律與道德困境。處理敏感案件時,AI無法提供人文關懷,影響公正與關懷的平衡。當AI出錯或引發法律問題,開發者、運營方和用戶之間的責任歸屬難以確定,倫理沖突時的最終責任承擔也存在難題。
王風和總結,AI法律服務存在技術局限性、數據隱私與安全、法律責任界定、倫理道德問題以及法律法規適應性不足等。其中,合規風險與法律沖突體現在數據隱私與安全、知識產權保護、算法責任界定等方面,如數據收集處理可能泄露隱私,生成式AI創作可能涉及著作權侵權。
如何推動AI在法律領域應用
王蕓指出,隨著AI技術在法律領域深入應用,加快完善相關法律法規成為確保技術健康發展的關鍵。我國應加快相關立法進程,明確AI在法律服務中的權利義務、責任界定等問題。
“推動建立統一行業標準對規范 AI 法律服務應用至關重要。”王蕓表示,行業協會和監管部門應共同努力,制定涵蓋數據安全、算法質量、服務規范等方面的行業標準,促進市場有序競爭和健康發展。
王蕓補充道,AI融入法律服務面臨隱私泄露、算法偏見等問題,要求采取嚴格數據脫敏處理和動態評估機制,確保AI決策公正性和數據合規性。法律從業者和技術開發者應密切合作,共同應對合規挑戰,推動AI技術在法律領域合法、安全、高效應用。
如何應對AI帶來的技術偏見與歧視、數據隱私與知情權、AI出錯的責任歸屬困境及透明性與可解釋性等問題?
王風和認為,要優化數據與算法,減少AI偏見,增強其可解釋性,如開發法律推理邏輯的可視化工具;需通過數據匿名化與本地化存儲降低隱私風險;行業組織需要相互協作與標準制定,如AI倫理與技術標準構建、律師協會參與AI認證;制定法規,明確生成內容時開發者、運營者及用戶的責任范圍,保障權益;建立跨部門協同監管機制,形成司法、網信、科技等部門合作監管體系,保證AI服務的法律合規與安全。
王風和指出,AI在法律領域應用有效率優勢,但生成內容真實性不容忽視。律師需承擔對AI生成內容的審核、驗證和職業倫理責任,同時要完善法律法規和監管框架,提升律師技術素養,建立標準化流程。用戶要了解AI建議的局限性,避免盲目依賴,復雜問題尋求專業律師幫助;增強法律和隱私保護意識,避免輸入敏感信息。服務提供者需完善知識產權保護和風險防范體系。
王蕓鼓勵法律從業者積極擁抱AI技術,加強學習和創新,共同推動法律服務行業的轉型升級,為社會提供更優質、高效、公平的法律服務。