请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

学者谈人工智能立法:不可能一蹴而就,坚持“小步走不停步”

在人工智能立法议题上,有学者建议坚持“小步走不停步”的策略。6月1日,由中国经济改革研究基金会、中国法学交流基金会、中国科学院大学科技与法律研究中心三方联合主办的“2024中国数字经济发展与法治建设论坛”在京举办。

论坛以“人工智能技术发展与法律应对”为主题,着重政策阐释和数字经济发展趋势展望,旨在为进一步推动“人工智能+”及数字经济发展贡献智慧与力量。

中国科学院大学科技与法律研究中心主任方新观察指出,随着人工智能不断取得突破,在技术赋能的同时,先进技术的双刃剑效应也逐步显现,带来了一系列社会治理问题,频繁导致纠纷和诉讼,例如人工智能通过收集和分析海量数据,可能导致个人信息泄露、数据泄露、商业秘密泄露、肖像权侵权、著作权侵权、算法边界等一系列的问题。

澎湃新闻观察到,人工智能相关问题在全球范围内已经引起立法部门的广泛重视,欧美国家先后出台法律。比如,欧盟理事会日前正式批准了《人工智能法案》,该法案将防控风险作为基础,将各类AI技术和应用分为三大类,按照其对社会带来的风险严重程度由高至低分别为“不可接受”“高风险”和“通用”。

“我国近年来也出台了多部关于人工智能和网络数据相关法律法规和指导意见,但是对于人工智能的许多法律问题,尚未达成共识,人工智能相关法律法规散见于各部门法中,尚未形成系统完备的人工智能立法。”方新直言,人工智能相关的法律政策和治理体系的完善是一个长期的过程,不可能一蹴而就,建议要适时出台并不断调整完善,努力为各类主体提供更明确、稳定的规则导向,以高效能治理促进人工智能的高质量发展。

“《人工智能法案》不是一蹴而就的,此前欧盟已经通过了人工智能的责任法令和产品责任法令(AIOD和PIOD),这充分表明了法案的出台是有一定的基础。”清华大学法学院教授,清华大学智能法治研究院院长申卫星也表示,这两部指令已经对人工智能分级的风险管理做出了划分,并且规定了相应的过错责任和严格责任以及替代责任,法案也并不是马上就实施,它还有一个缓冲期,是分阶段的。

“对人工智能的焦虑只能通过制度的方式来消除。”申卫星认为,国家人工智能立法应该基于网络安全法、数据安全法、个人信息保护法三部规章之上,“这些构成人工智能立法的一些前提和基础,可以把这些合并吸收”。

方新还建议,在统筹人工智能的快速发展与风险防范中,应审慎考虑相关法律框架中可能存在的问题,要引导人工智能的发展和应用,遵循人类共同价值观,倡导智能向善和负责任的行为,要明确人工智能系统的安全责任和问责机制。

与此同时,还要加强人工智能技术应用源头治理,促进相关标准的制定和完善。一方面,应当制定和完善国内标准,根据国内实际情况和需求,制定和完善人工智能相关标准准则,包括技术标准、应用标准、安全标准等;另一方面,应当积极参与国际标准制定,鼓励国内企业、科研机构积极参与国际人工智能标准的制定工作,推动国内标准与国际标准接轨。

“进入数字时代之后,传统的二元结构法制模式开始向多维结构转变。同时,法律关系也变成一个多维层面,在多维的法律关系中,未来需要建构底层逻辑。”中国经济体制改革研究会会长彭森建议,国内的人工智能立法应该坚持“小步走不停”的立法策略。

“面对人工智能的蓬勃发展,呼吁加快人工智能立法的呼声应该很高,特别是欧盟已经出台了人工智能法,我们国内要求很高,但是国情不同。”彭森认为,我们现在对人工智能的认识远远达不到立法的认知水平,但是又有很多立法空白需要我们填补,在这种情况下,简单地通过一部法典的方式来解决可能条件不成熟,我们可以灵活运用各种立法机制。比如,对某一个问题看准了,人大常委会可以通过决定的方式来解决。比如前些年人大也通过了这些决定,小步走不停步,最终形成一个人工智能的知识法律规范体系。

中国人民大学信息法中心主任、中国法学会网络信息法学研究会副会长张新宝也直言,人工智能立法前无古人,它涉及社会生活的方方面面,也涉及与诸多法律体系的协调,这一法律首先可能是产业促进法,其次是一个风险防控的法律,将是一个极其特殊的结构,“这一立法不仅仅是靠几条大的法律粗线条能够解决的,还需要有更多的配套法规。而且,不能规定得太细,有些看不准的,需要通过部门规章、法规、规范性文件以及国家标准等不断地摸索实践,最后使它进一步完善”。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册