上海交通大學凱原法學院李學堯在《政治與法律》2025年第5期上發表題為《大語言模型應用中的司法偏誤與認知干預》的文章中指出:
生成式人工智能的快速發展,正在深刻改變司法領域的技術生態。近年來,生成式人工智能的能力逐漸擴展到法律推理與裁判文書自動生成的深層環節。這種技術進步給司法實踐帶來了顯著的效率提升,卻不可避免地引發了關于公正性、可信度以及如何安全監管的廣泛爭議。
近期的相關實驗研究和司法實踐表明,單純依賴簡單的人機協作,難以有效遏制法官在自我確認偏誤與大語言模型“強化輸出”之間的共振效應。傳統的人工審核模式不僅不足以抵消人工智能帶來的認知失衡,而且可能進一步加劇司法偏誤。為避免大語言模型在司法實踐中淪為單向度的技術支配,應把從確立爭點到最終公開說理的全過程均納入對人機交互的認知審慎設計,在挖掘傳統法學方法論中關于多元價值論證的基礎上,可結合認知科學的防偏誤機制,提出“認知協同決策模型(六步法)”。第一步,確立爭點與初步分析(主動與AI對比);第二步,檢索法律規范與既有案例(雙向驗證);第三步,事實與技術復雜性識別(逆向思維訓練);第四步,初步裁判與AI生成理由(避免“一錘定音”);第五步,價值審查與論證完善(重塑“寫理由”的反思功能);第六步,公開說理與判決落腳(透明化人機交互)。該模型不僅是一種方法論方案,而且具備明確的工作流屬性。其通過階段性流程設計、任務遞進邏輯、操作控制機制與認知反饋機制,實質上體現了流程治理中常見的節點管理與功能分配邏輯。通過在確立爭點、規范檢索、事實認定、裁判形成、價值審查與最終公開說理的全流程中引入對立論證、逆向思維、強制反駁清單等操作環節,幫助法官保持深度審查與反思能力,抵消大語言模型單一輸出的強化效應。案例模擬表明,這一模型在提升信息搜索效率的同時,能夠強化裁判對社會多元價值的考量,確保法官主體地位與裁判公正性。
認知協同決策方法的目標是為技術驅動時代重塑法官主體性地位與司法正當性邊界提供理論依據和實踐路徑,并在“堅持法官主體地位不變”的共識下,為未來在不同司法領域推廣人機協同決策機制努力提供有效智識啟示。
編輯:武卓立