找回密码
 立即注册
搜索

人工智能依法规制难题待解




机器翻译、语音辨认、智能家居、无人驾驶……随着人工智能技术的不断发展成熟,其正在越来越深度地介入人们的生活,相关的风险也末尾不断暴露。人工智能能否亟须立法规制?如停止规制又该秉承什么准绳?不同细分运用范畴的规制重点又该如何把握?本期“声响版”约请相关法律专家、行业从业者一道停止讨论,敬请读者关注。

有效应对新型风险必须加快立法进程

□ 孙佑海

2018年9月,第十三届全国人大常委会向社会公布本届全国人大立法计划,人工智能立法列入其中,这是人工智能范畴具有严重历史意义的标志性事情。在当代人工智能飞速发展的新情势下,我们既要认清爽一代人工智能技术是时代之需、发展之要、民生之盼,也要看到因技术短板、监管不力、运用失范等要素而引发的潜在风险及对社会带来的实践危害。唯有未雨绸缪地找准、判明人工智能发展带来的风险点,并及时采取法律应对措施,才能在抢抓战略机遇的同时,适时化危为机,确保社会规范有序。

人工智能能够带来的法律风险,次要有四个方面:一是应用人工智能危害社会,形成刑事犯罪的风险。以无人机为例,随着科技提高,智能无人机技术越来越先进,运用越来越普及,也给国家安全、公共安全和个人安全带来严重要挟。近年来,无人机频繁闯入各地机场净空区,多次形成航班正点,甚至对航空飞行安全构成了要挟。2014年,我国北方某地就发生了一次无人机要挟飞行安全事情;2017年2月2日和3日两天内,我国北方某机场竟发生4起无人机非法飞行事情。仅隔一天,临近城市的机场又发生两起无人机闯入机场净空保护区事情,无人机甚至直接飞入机场的跑道区域。以上,对于冒犯刑律的,该当承担刑事责任,而相应的法律该当抓紧完善。还有一些“擒拿格斗机器人”产品,因其具有高度自主性,可以自行对目的停止攻击,一旦程序出错失控,则很能够向人群防御,成为人类公共安全的严重隐患。这都需求经过立法停止规制。

二是因开发应用人工智能,引发民事纠纷,客观上需求人工智能立法确定承担民事责任的边界。例如,随着人工智能的普及,人工智能创作物的知识产权归属成绩如何确定,目前已有相关案例。传统著作权法实际以为,作品是作者人格的表现,只要自然人才能创作作品。但动物和机器,无论何时都不能成为作者,即便其创作物具有了作品的特征。而如今,人工智能创作物向这一实际发起了应战。此外,自动驾驶汽车的安全性成绩曾经惹起了广泛关注,从自动驾驶汽车的消费资质、上路答应,到发生事故后的责任分担,当前法律均处于空白形状。因此,因人工智能汽车自动驾驶引发的交通事故,迫切需求经过立法,为明白责任、处理纠纷提供有效的法律根据。

三是因开发应用人工智能,违犯行政管理规范,需求有关行政管理机关对违法的管理相对人停止行政处罚。例如,开发应用人工智能,在一定情形下需求行政答应,否则就要担责。这些详细的情形就需求以法律法规的方式作出规范,这是立法义务。与此相对应,对于有关行政管理机关不作为和滥作为的情形,公民、法人和有关组织可以依法提起行政诉讼,这些也需求依法作出规范。

四是因开发应用人工智能,形成严重损害消费者合法权益和社会公共利益的情形,该当依法提起公益诉讼。但由于人工智能的开发应用对于社会公共利益的损害,有其新颖性和特殊性,人类应对的措施必然有所不同,因此必然也会对人工智能的立法提出新要求,这同时也添加了人工智能立法的难度。

为了处理人工智能发展带来的新矛盾、新成绩,必须未雨绸缪,加快研讨人工智能的有关法律法规。一是,适时安排宏观立法。人工智能的发展离不开一部反映时代需求的人工智能法以及配套法规组成的法律法规体系。人工智能法总体上属于行政法的范畴。现阶段正处在人工智能技术的高速发展期,因此立法不能过细,但该当制定必要的准绳框架,以保障法律的实施能落地。

二是明白近期立法工作重点。当前,针对人工智能的详细运用停止专门立法,是较为务虚的立法思绪。建议国务院或有关部门优先对自动驾驶、图像辨认、无人机管控等相对成熟的技术运用行为制定法规或规章,规范社会管理次序。

三是做好司法解释。对于立法工作一时跟不上,而实践案件又不断涌现的人工智能运用范畴,建议经过司法解释的办法化解纠纷,并为立法工作博得工夫和阅历。如在民事案件处理中,建议着力处理好人工智能生成内容的权益归属、人工智能损害后果的责任分担成绩;在刑事案件中,建议着力处理人工智能相关犯罪行为的定性和量刑幅度;在知产案件中,建议着力处理对算法、芯片等核心技术仿冒、侵权行为的责任归属和赔偿标准等成绩。

弱人工智能时代立法尚无基础和条件

□ 高绍林 张宜云

随着互联网、大数据、云计算的发展,特别是随着5G技术落地运用,人工智能必将以史无前例的速度向前发展。人工智能的发展,一方面可以造福人类,单就法律范畴来讲,人工智能给法律工作赋予了新的动能,立法、执法、司法、普法、法律服务都可以借助人工智能技术极大提高工作效率与质量。另一方面,人工智能也带来许多新的应战,假如长期缺乏规制,能够会产生一定的灾难性后果。比如,无人驾驶、无人机技术能够会给杀人、走私、贩毒等犯罪行为提供便利;人工智能程序中的破绽,能够被恶意应用,产生严重社会安全风险;人工智能的设计者、运用者能够打破伦理底线设计、运用人工智能以及数据泄露、算法歧视等。因此,有必要对人工智能发展停止立法规制,引导、规范人工智能健康发展。

在人工智能的立法规制上,有观点以为,亟须出台专门的人工智能法,笔者以为,当后人工智能总体上还处于弱人工智能时代,次要集中于语音辨认、自动翻译、语音合成、图像辨认、自动驾驶、工业机器人、聊天机器人等详细范畴,短期内不能够出现“通用人工智能”。因此,尚不具有制定残缺人工智能法律制度的实际基础和客观条件。

马克思在《论离婚法草案》中有一句名言:“立法者应该把本人看作一个自然迷信家,他不是在制造法律,不是在发明法律,而仅仅是在表述法律,他把肉体关系的内在规律表如今无看法的现行法律之中。假如,一个立法者用本人的臆想来代替事情的本质,那么我们就应该指摘他极端任性。”对于一个新兴范畴停止专门立法规制,普通需求三个条件:一是社会产生了对这一新兴范畴停止立法规制的理想需求;二是在现行法律法规框架内无法完成对其停止必要调整;三是立法者可以认清和把握其内在的客观规律。

从人工智能现阶段发展程度来看,无论是数据、算法、算力,还是运用场景,基本上还处于探求性、实验性阶段,我们还缺乏对其基本规律的研讨与看法。在这种状况下,制定一部残缺的人工智能法是不理想的。最理想的选择是坚持趋利避害的底线思想,根据人工智能发展的理想需求,对现行法律制度停止必要的修正、补充。

而为了保障和促进人工智能健康发展,对人工智能停止立法规制应坚持以下准绳:一是以人为本准绳。确保人工智能发展可以添加人类福祉,保障人的尊严、自在和人身财产安全。二是发展与安全平衡准绳。处理好促进人工智能发展与保证社会安全之间的关系,二者不可偏废。三是政府干涉过度准绳。人工智能开发与运用只需不与法律法规相抵触,不危害公序良俗,政府就不要过度干涉。四是伦理底线控制准绳。明白人工智能在安全、隐私、公平、公正等方面的伦理底线。五是风险容忍度准绳。人工智能发展具有很强的探求性,即便是相对成熟的运用,也还有相当的不确定性,要适当容忍其试错。六是多层级立法共进互补准绳。在中国特征社会主义法律体系框架内,发挥一致、多层次的立法体制优势,从法律、行政法规、地方性法规等多个层次对人工智能停止立法规制。

从人工智能发展态势看,当前需求着手停止的立法项目,首先是全国人大及其常委会立法,包括在编纂民法典中,明白人工智能相关的民事基础制度;制定数据安全法,对人工智能时代的数据安全和信息保护作出规定;制定电信法,为人工智能发展提供良好的公共网络基础设备环境;修正道路交通安全法,对无人驾驶汽车作出规定;修正著作权法、专利法,对人工智能知识产权相关成绩作出规定;适时出台刑法修正案,对人工智能触及的犯罪作出规定。

其次是国务院制定行政法规,包括制定网络安全法实施条例、机器人运用安全管理条例、人工智能基础设备管理条例、智能网联汽车管理条例、人工智能辅助医疗诊断与治疗管理条例、修正计算机软件保护条例等。

同时,人工智能产业发展的优势地区也可以加强地方立法,重点是制定促进人工智能产业发展的地方性法规,包括鼓励人工智能产业发展,促进人工智能在政务、财税、制造等范畴运用,人工智能触及的消费者权益保护、人力资源与社会保障等。

总之,随着人工智能疾速发展,需求更多的法学家关注其法律成绩,尽快构建人工智能伦理体系以及相关法学实际体系,为人工智能法律规制提供实际基础。同时,立法机关要更多关注人工智能的立法规制成绩,发挥立法的引领与推进作用,尽早将人工智能立法规制的相关立法项目提上议事日程,为人工智能的健康发展创造良好的法治环境。

人工智能生成物可否构成作品

□ 万 勇

2017年5月,微软“小冰”创作的诗集《阳光失了玻璃窗》正式出版、谷歌开发的人工智能DeepDream可以生成绘画,且所生成的画作曾经成功拍卖……从外观方式来看,由人工智能创作的成果与人类创作的成果没有任何区别,且很难被察觉并非由人类所作。可以说,与以往技术创新相比,人工智能技术对著作权法提出的应战是最根本,也是最片面的。

往年4月,北京互联网法院对国内首例人工智能作品争议案作出了一审讯决,为实际讨论提供了新颖的实际素材。对于主体资历成绩,法院以为,虽然随着迷信技术的发展,人工智能生成物在内容、形状,甚至表达方式上日趋接近自然人,但根据理想的科技及产业发展程度,尚不宜在法律主体方面予以打破。不过,法院也以为,应给予人工智能生成物以一定的法律保护,由于其具有传播价值。

笔者以为,对于人工智能生成物的著作权定性这一极具争议的成绩,作为社会波动器的法院采取相对保守、平衡的立场,是合适的。需求指出的是,假如人工智能生成物不被承认是作品,相关主体出于利益最大化的考量,很有能够会隐瞒相关成果是人工智能创作的理想。这样导致的后果其实就是迫使人们“为恶”,即经过故弄玄虚来规避法律,由于从外观上无法辨认,人工智能生成物最终照旧会获得著作权法的保护。与其堵还不如疏,这种理念也应适用于人工智能生成物的法律规制范畴。

目前,有的国家已积累了一些阅历。如英国《1988年版权、外观设计和专利法案》规定,对于计算机生成的文字、戏剧、音乐或艺术作品而言,作者应是对该作品的创作停止必要安排的人。由于这一条款具有一定的开放性,也赋予了法院较大的自在裁量权,对有效保护人工智能生成物的著作权发挥了积极作用,我国立法也可予以自创。

算法管理应包容慎重矫捷灵敏

□ 曹建峰

随着人工智能技术的不断发展,数据和算法的结合末尾对我们的消费生活产生广泛影响,从信息的个性化传播到金融、雇佣、司法等范畴的自动化决策再到自动驾驶汽车等等。

但算法的运用在给人们生活带来便利的同时,也带来一系列法律、伦理与社会成绩,诸如算法歧视、责任、安全、滥用、深度伪造等。国际社会末尾呼吁建立算法管理,完成算法透明与问责。对此需求思索以下几个方面的成绩:

第一,算法实践上是一个非常广义的概念,所谓的算法管理是针对机器学习等人工智能算法在特定范畴的运用,所以明白概念是算法管理的终点。

第二,算法管理需求包容慎重、矫捷灵敏的思绪,技术和商业形式疾速迭代,草率立法不能够等待会产生正面效果,而且成文或专门立法恐难跟上技术发展步伐,所以应避免严厉、细致的法律要求,而是采取预先监管或者经过出台标准、行业公约、伦理框架、最佳实际、技术指南等方式调整算法运用,支持行业自律。

第三,算法透明不是对算法的每一个步骤、技术原理和完成细节停止解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒能够要挟数据隐私或影响算法安全运用。相反,在算法系统的行为和决策上完成有效透明将更可取,也能提供分明的效益。如欧盟《普通数据保护条例》(GDPR)并没有要求对特定自动化决策停止解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。

第四,算法管理需求分级分类的监管机制,例如欧盟、加拿大等呼吁针对政府和社会公共部门运用的算法系统停止严监管,包括建立“算法影响评价”机制;对于商业范畴的算法系统则更多采取预先清查法律责任的机制,以免过度监管影响技术创新。

因此,我们看到社会各界在以伦理的方式推进算法管理。国际层面,欧盟、OECD、G20等都提出了人工智能准绳,力争在国际上达成共识;行业层面,谷歌、微软、腾讯等都提出了各自的人工智能伦理准绳,积极承担伦理责任,践行科技向善,避免算法被不当应用或滥用。展望将来,我们还需求经过广泛社会参与和跨学科研讨评价的方式来完成对算法运用的良好管理。

规制自动驾驶的天花板应予以抬升

□ 邓煜坤

对于自动驾驶这一重生事物,立法要亲密关注跟踪其发展动态,然后再适当立法,且早期立法应以鼓励为主。就目前中国自动驾驶发展状况而言,一些城市已出台相关法规政策,允许自动驾驶汽车可在城市低速道路上停止路测,但仍有很多规定严重妨碍中国自动驾驶发展,如自动驾驶汽车不能进入高速公路测试,为此很多中国企业只能舍近求远前往美国停止高速路测,由于美国有相关法律支持。而假如不能在多种场景、更为复杂的路面上停止测试,那么自动驾驶技术和相关算法模型就难以疾速成熟起来。作为从业者,希望如今的法律规制天花板往上抬一抬。当然在此过程中一定会出现一些成绩,但关键在于如何界定各方责任,促使企业将出现成绩的几率降低,而不是一味限制。假如过度强调相对不能出成绩,那也就意味着自动驾驶相对发展不起来。

在经过法律政策推进自动驾驶技术发展的同时,也要亲密关注行业的发展,假如发现能够会给人类带来极端毁坏的情形,也要尽快制定法律法规停止规制。以其他行业为例,如2018年被爆出的基因编辑婴儿事情,就是一同非常可怕的案例,对于技术革新带来的这种极其负面的事情,就该当尽快停止立法明白法律红线。不过就目前自动驾驶范畴的人工智能技术而言,尚没有发现会给人类带来潜在宏大危害的风险。(文字整理:本报记者马树娟) 

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册