云南大學法學院程龍在《現代法學》2025年第2期上發表題為《人工智能輔助量刑的證據化改造》的文章中指出:
綜觀全球,人工智能正在全方位滲透到人類社會的各個領域,我國人工智能的司法應用已走在世界前列。在刑事司法中,量刑規范化改革和量刑建議制度的興起,蘊含著從傳統司法走向智慧司法的結構轉型動因。人工智能輔助量刑的實踐運用具有通過技術保障司法質量的邏輯基礎。從內容上看,人工智能輔助量刑提供的是有效力的量刑建議參考;從正當性基礎看,人工智能輔助量刑具有“同案同判”的先天正義;從系統邏輯上看,人工智能輔助量刑是為了彌補法官的能力缺陷;從使用目的上看,人工智能輔助量刑還有技術規訓司法的目的。然而,其深度介入量刑裁判存在正當性風險,亟待構建符合法治原則的規制體系。
為實現對人工智能輔助司法的規制,學術界提出兩種不同的思路,即輔助司法論和算法正當程序論。二者的共同點在于肯定了某種程度上人工智能輔助量刑的量刑決策權,甚至認為人工智能輔助量刑本身就意味著裁判主體的更換,而這種裁判主體的更換,又會帶來裁判主體的復數化,也將程序設計者和數據處理商引入司法決策之中。同時,二者共同堅持了“以司法規制算法”而非“以算法規制司法”的基本主張,它們的區別更多在于技術策略的不同,但均有局限,即不當賦予人工智能輔助量刑系統以裁判主體地位,忽視了辯方的程序參與權以及缺乏證據裁判的制度空間。
為實現對人工智能輔助量刑的正當性、合理性規制,需要將人工智能輔助量刑還原為被審查對象,納入既有刑事訴訟規范體系,對其進行證據化改造以滿足訴訟化和可裁判化的基本要求。對人工智能輔助量刑的規制應當遵循科技包容性和可裁判性兩個基本原則。科技包容性原則,是指應當對人工智能、算法等輔助司法的科學技術采取與時俱進、適度寬松的準入態度;可裁判性原則,是指對人工智能輔助量刑系統而言,不能將其作為裁判主體,不能賦予其實質性的審判權。可裁判性是人工智能輔助量刑正當性的基本保證。對人工智能輔助量刑進行有效的法律規制并不需要“另起爐灶”,現有法律制度已經能夠實現,可依托現行刑事訴訟制度框架,將人工智能輔助量刑建議作為專門性報告,從證據規則、舉證主體、證據形成階段、質證認證與司法責任承擔五個方面進行規制。
編輯:武卓立