请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

争议AI法官:算法秘而不宣还是公之于众?能成为审判责任主体吗?丨快评

近日,一款聊天机器人ChatGPT让人工智能(AI)再次成为火爆的话题,让记者编辑、设计师甚至程序员都感觉到了威胁。那么,如果AI遇上司法会发生什么?AI能代替法官审理案件吗?最高法日前发布《关于规范和加强人工智能司法应用的意见》,为AI在司法领域的应用制定了初步的规则。

根据上述意见,AI可用于辅助事务性工作,还可以辅助裁判、辅助生成和审查法律文书,还可以进行案件裁判偏离度预警、终本案件核查、不规范司法行为自动巡查等等。通过这些AI技术的应用,可以降低司法人员工作负担,提高司法效率,也有助于促进类案同判,促进裁判尺度统一,发现司法腐败风险,保障司法廉洁。

比如目前实践中应用最多的智能语音识别技术,能够将法庭上各方发言实时转化为文字,大大提高了书记员的工作效率。一些司法AI已经有了初步判案能力,可以做到识别案件的关键争议点,确定应该适用的法律,生成判决建议,辅助写作判决书,可以提高法官的判案效率。另外,司法AI还可以通过对以前同类案件的判决结果进行分析,提出类似的判决建议,做到“类案同判”。

不过,如同其它领域应用一样,司法AI也可能存在技术和法律方面的问题。

技术上,司法AI可能有两种技术方案:一种是从法律条文出发,通过精密的设计相关算法,对法律规定作出解读,然后套用到具体案件中,比如对盗窃罪,根据涉案数额的不同,判罚不同的刑期。这一方案的问题在于,算法可能过于复杂,而且很难事先就将现实案件中的不同情节都考虑到,难免会不够精准。

另一种技术路线则是现在最火的深度学习技术。通过对海量审判案例的“学习”,让AI自己训练出一个模型,用于指导以后的审判。这一方案也可能受到多种因素的干扰,导致其模型出现偏差。其中最重要的是AI所学习的数据集的质量可能参差不齐,其中的很多案例,可能并不是对法律的正确解读和适用,这就可能对AI形成误导,造成训练出的模型出现问题。在其他领域的深度学习模型训练中,经常会因为训练数据集错误,而训练出或者脏话连篇、或者具有反社会倾向的AI。

当然,AI技术是可以不断进化的,无论是哪种技术路线,都有可能形成越来越完善的AI系统,足以胜任一般的审判任务。但要将AI用于判案,还存在着法律和伦理问题。

首先是算法的公开性。如果将AI用于判案,人们需要对其有足够的信心。司法AI算法影响深远,其开发者必须是经过公开选择的,其算法必须是公开的,应该经过法律、技术等专业人士的讨论,也要经过更广泛的公众讨论,并达成共识。这个算法不应该是一个无法解读的“黑盒子”,不然,人们无法预期其一致性。

最高法的意见也提出了“透明可信”原则,提出司法AI系统的各个环节都必须可解释、可测试、可验证,确保应用过程和结果可预期、可追溯、可信赖。但深度学习模型现在很难解决这个问题,我们可以观察到模型的输入和输出,但是很难了解其内部运作,很难确切了解为什么模型会选择这样处理,其处理过程对外界基本是不可了解的“黑盒子”。

从法律上,AI判案的效力及其纠正机制、责任承担,都需要予以明确。现阶段AI当然还不能独立判案,最高法的意见明确规定,AI技术只能用于辅助审判,无论技术发展到何种水平,人工智能都不得代替法官裁判。

但是在未来,随着司法AI技术的进步,不排除AI独立判案的可能性。那就需要对其法律效力进行明确。而且应该给予当事人不服AI判决的救济机制,比如对AI判决可以上诉,终审判决必须由人类法官作出;当事人有权选择人类法官进行审判;等等。还有AI判案的责任承担。根据现在的规定,法官要对所审理案件的质量终身负责。AI能够对案件质量负责吗?如果AI判案出现错误,其责任应该由谁来承担?

AI+司法,有可能对司法模式带来根本性的变革。惟其如此,其应用必须经过广泛的讨论并达成共识。

辛省志
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册