请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

中国人工智能伦理研究进展

通过分析目前中国人工智能伦理研究的发展态势,本文梳理了AI伦理发展历程、伦理风险治理、主体伦理责任及伦理问题成因等4个研究主题;发现研究存在理论与实践脱轨、内容体系性缺乏、研究方向陈旧、研究对象不均衡等不足。对此,紧跟国家人工智能伦理治理动向,着眼AI技术前沿,提出了从重视理论的落地性、鼓励学科研究的体系性、推进伦理研究的创新性、促进研究对象的均衡性等4个方面来构建中国特色人工智能伦理体系,以推动人工智能伦理研究。
现代人工智能研究可以追溯至艾伦·图灵发明的图灵机,通用图灵机的问世为1946年第1台计算机的发明打下了基础。1956年夏,达特茅斯暑期学校召开了一次学术会议,麦卡锡在会上正式提出“人工智能”(artificial intelligent)这一概念。
随着人工智能与人类生活结合的日益紧密,各领域的专家学者和政府机构的相关人员从不同学术背景出发,展开对人工智能伦理的激烈讨论。


人工智能伦理发展历程

第二次世界大战结束后,科学技术的迅猛发展促使人类开始以更理性的态度审视技术,科技伦理在此背景下应运而生。中国对人工智能伦理研究的发展历程大致经历了机器人伦理、数据伦理和人工智能伦理3个阶段。


01机器人伦理

机器人伦理在计算机伦理成熟并成为一门独立学科之后逐渐发展起来。王东浩总结了机器人伦理研究中的问题和困难,并对机器人的道德构建进行整合式分析,扩展了机器人伦理学的原则性内容并提出人机和谐的伦理理念
王绍源指出人工智能技术的发展需要重视机器人伦理的研究及其社会后果,认为自治性智能机器人将在未来引发道德新问题,可能需要其在道德和法律领域承担相应责任。


02数据伦理

数据伦理是继机器人伦理之后,应用伦理学中的一个新分支。一些学者认为数据伦理是从数据视角对人类行为的伦理关注,他们着眼于大数据时代,在万物数据化的发展趋势下对数据伦理进行思考,严卫等以斯诺登事件为背景,主张多学科讨论、建立多视角解决体系,以开放接纳的心态有序推进大数据伦理问题的解决。


03人工智能伦理

人工智能在交通、医疗等领域的应用过程中出现了许多伦理道德问题,这些问题缺乏理论依据和学科考量,于是学者们开始思考智能时代下伦理学的新内涵。
总体来说,学者们较为重视人工智能伦理的建设及相关问题的探讨;还有学者基于机器伦理学视角探讨其在应然与实然层面的问题,主张构建“有限人工道德体”(BAMAs)以充分利用深度学习等人工智能技术,同时借鉴人类道德经验提高人工道德体的可实现性和安全性。
由此看来,当前中国人工智能伦理的研究重点有了新变化,逐渐由以人类为基本研究对象向多个研究对象转变。


人工智能伦理风险治理

中国学者对人工智能伦理风险的治理研究,根据不同的视角大致包括原则规范、理论导向和伦理理念等3个角度。


01原则规范嵌入

原则规范包括原则制定与法律制度的确立。多数学者以人类行为为对象,例如在教育和医疗领域内,张寒等从人工智能医疗应用的歧视问题出发,认为人们的态度与行为会诱发伦理风险,相关行动者应确定行为限度、完善伦理规则以严格把控人工智能技术运行的全过程。还有少数学者以人工智能产品为切入点并以其发展过程为参考,提出完善法规、制定安全标准、加强国际合作等要求,以此防范伦理风险。


02理论导向治理

理论导向是指依据某一理论探究人工智能的伦理治理对策。由于人工智能技术的社会风险在早期具有难预测性,因此,在应用过程中则出现难以控制负面后果的科林格里奇困境,文成伟等以此为切入点探讨了如何运用现代伦理手段消解困境,对于困境引发的社会风险引入预知性技术伦理,着重在技术研发阶段解决问题。


03伦理理念指引

有学者从理念上研究人工智能伦理问题的治理方法。成海鹰从伦理学角度论述了人工智能给人类带来的新问题,以“利益、责任和爱”为中心理念阐明人类应如何在技术时代下保持“在一起”的凝聚力和对人工智能的控制权。
除了以上3个角度外,还有学者从内部进路入手,对伦理治理方法展开探讨。总的来看,学者对各自领域内人工智能所引发的伦理问题作了较为全面的分析,提出针对性的风险治理方案。


人工智能伦理主体责任

人工智能伦理主体,是指人工智能技术应用及其产品的设计、开发、使用和监管所涉及的各类责任主体。经过文献的阅读、梳理和分类,发现中国对于人工智能主体伦理责任的研究主要有4个角度:法律、哲学、教育和医疗。


01法律责任角度

随着人工智能产品在人类生活中的广泛运用,人工智能技术引发的法律责任问题逐渐凸显。余婷从法律层面阐述了包括工程师和制造商在内的两类主体为人工智能引发的“恶果”所需承担的责任,她认为人工智能体尚不具备自主能力,带有利益需求的设计者或厂商在很大程度上影响或决定着人工智能体的行为,因此其有义务对人工智能产品的行为后果负责。


02哲学责任角度

由于人工智能技术有了更广泛的应用和伦理影响,学者们也随之挖掘出新的研究方向与思路。例如王绍源等从”物伦理学”的哲学角度着手,主张在机器人不断智能化的条件下通过伦理设计来提升机器人的道德,人为地使其承担一定的伦理责任,与此同时不能忽视每个设计、开发或使用人工智能技术的人类主体的责任。


03教育责任角度

如今“教育+人工智能”已经成为中国现代教育发展的新形态,国家也出台了一系列人工智能发展的政策和战略,尤其重视人工智能教育的推广。王前等探究人工智能应用中不同使用者以及人工智能体应负有的责任,阐述了伦理责任存在的问题及可能的伦理风险,主张人类应积极承担自身的伦理责任,重视人工智能使用中的伦理风险,促进人机关系和谐发展。


04医疗责任角度

人工智能为医疗卫生领域的发展提供了技术与理论基础,在诊断病情、评估疾病风险、药物研发等方面发挥巨大作用。然而,它也导致了不少伦理问题,引起医学、哲学等领域的学者对责任问题的重视。
除了智能医疗技术在伦理责任上的强化问题,张荣等还论述了人工智能医疗的数据安全和主体争议问题,主张将责任承担的重点放在设计者、用户与公众上,更全面地探讨了责任主体的范围,要求主体提高伦理责任意识,并符合道德规范地使用智能产品。
总的来看,关于人工智能主体伦理责任的研究还有很大完善空间,主要局限于人工智能在某一应用领域的主体责任研究。


人工智能伦理问题成因

对于人工智能的伦理问题成因分析,在中国还属于比较新的研究方向,主要包括技术内部因素、外界环境因素以及内外整合因素3个方面。


01技术内部因素

技术内部因素是指从人工智能技术自身的算法、功能特性和用途等方面去考察人工智能所引起的各种伦理影响及其后果的成因。人工智能技术的伦理缺失正在给个人、社会发展甚至人类生存带来不可忽视的伦理危险。


02外界环境因素

人工智能伦理问题的外界环境因素是指从技术之外的法规制度、社会观念、主体素养等外部环境探讨人工智能伦理问题的成因。外界环境论者认同伦理制度和道德规范的落后加剧了人工智能的伦理风险,给人类生活的各个方面都带来了伦理冲击。


03内外整合因素

有学者将技术自身与外部各因素结合起来,以更为全面的视角探讨人工智能伦理问题的成因。谷雨从技术发展的局限、伦理规则的缺失和监管体系的不完善等3个方面综合分析了人工智能带来的各类伦理问题的原因,希望从这些原因出发寻求合理的解决方案,以此规避伦理风险带来的损害,促进人工智能的健康发展。


人工智能伦理研究展望

通过对当前的研究进行梳理和总结得出,关于人工智能伦理的论文数量逐渐增多且出现许多新角度。但不难发现,国内研究依旧存在一系列问题,还可以在以下方面进一步推进。


01理论的落地性

目前,不少原则比较模糊和抽象,理论应用的难度较大,再完善的理论若无法转化为具体的行动只能是空中楼阁,因此需要研究者能够全过程地参与人工智能研究。


02内容的体系性

由于人工智能本身就带有跨学科性,因此,建议首先从教育、医疗、生物等多个学科与人工智能伦理研究进行有机融合,在开发新学科领域的同时继续对原有学科的伦理进行体系性研究;其次,构建多学科、多领域的规范化学术分享机制;最后,还要借鉴各学科领域的最新研究成果和国外研究经验,基于中国人工智能实际发展情况,针对性地发现和解决问题,重视人工智能伦理中国特色发展体系的塑造。


03方向的创新性

在风险治理层面上,建议从人工智能主体入手采取双向度的治理研究,以更开放的态度对待人工智能的身份,走出人类中心观或许有助于人工智能伦理研究寻找新思路。对于人工智能伦理的未来建设,应在尊重和理解不同种族文化背景的前提下展开人工智能设计,以世界性和包容性眼光构建多样化的人工智能伦理,而非一味地寻求普适性治理方案。


04对象的均衡性

在人工智能伦理设计的过程中,首先,要监督并确保人工智能设计者严格遵守道德规范,使伦理守则真正渗透进设计行为中;其次,通过一系列技术手段尽可能降低深度学习过程中的“算法黑箱”所带来的人工智能伦理行为的不确定性和不可解释性风险;最后,在有效控制人工智能行为和确保其符合人类伦理的基础上,呼吁社会在一定程度上降低对人工智能的“敌意”,以对待新主体的态度看待人工智能,合理开发和利用人工智能主体的功能。


结 论

对当前中国人工智能伦理的研究进展进行了综述,从AI伦理发展、风险治理、主体责任和问题成因4个方面对中国人工智能伦理的研究现状进行了归纳总结,并对未来的走向作出展望,希望作为引玉之砖以推动中国人工智能伦理的深入发展。
为有效应对中国人工智能伦理的发展需求,应加快构建中国特色的人工智能伦理研究框架,大力推动人工智能伦理理论的“落地性”研究,整合不同领域专家学者的研究成果,鼓励更多学科间的信息互通,以此促进人工智能伦理体系的整体性建构
因此,要求中国智能化、数字化发展应顺应国家科技伦理发展的现实需要,以前瞻性眼光洞察人工智能的发展动态,将国家政策、社会伦理问题纳入人工智能研究中,立足当前并着眼未来,引导人工智能避恶向善


本文作者:卢艺、崔中良

作者简介:卢艺,南京信息工程大学马克思主义学院,硕士研究生,研究方向为人工智能哲学;崔中良(通信作者),南京信息工程大学马克思主义学院,副教授,华东师范大学哲学系在站博士后,研究方向为人工智能哲学。



论文发表于《科技导报》2022年第18期,本文有删减,欢迎订阅查看。
回复

使用道具 举报

大神点评2

rblian 2022-12-25 19:36:29 显示全部楼层
无用功。
回复

使用道具 举报

oosoochin 2022-12-25 19:37:11 显示全部楼层
转发了
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册