请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

曾毅:人工智能伦理治理不会限制技术,而是防止其野蛮生长

伦理治理是否会限制人工智能技术的发展?目前的人工智能应用还存在着什么问题?12月22日,由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办的“2022啄木鸟数据治理论坛”举行。在算法治理专场上,中国科学院自动化研究所人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅对这些问题进行了解答。

他认为,人工智能伦理治理限制的是技术的野蛮生长,而当人工智能作为赋能技术缺少可持续发展的关切时,就不是人工智能真正向善的发展。

1

人工智能伦理治理应覆盖全产业周期

近几年,在讨论人工智能治理时,有观点认为伦理治理会阻碍人工智能技术的发展。对此曾毅认为,人工智能伦理治理工作限制的是技术的野蛮生长,而非技术发展,伦理治理确保技术的稳健发展。“伦理原则引导的是发展的价值观。如果人工智能作为赋能技术缺少对可持续发展的关切,就不是人工智能真正向善的发展,虽然我们并不能说如果不应用于推进可持续发展就犯法。”

他认为,伦理考虑应当在发展规划、治理原则、标准规范、法律法规四个层次中都有所体现。从产业周期上来说,人工智能产品的设计、研发、使用、部署、管理方方面面都应该有伦理上的规制,“否则的话就不是全生命周期的,也就有可能因此导致风险。”此外,除了政府进行规制,用户、教育机构、媒体都应该在人工智能治理体系发挥作用并互为协同。“只有这样才真正做到了我们倡导的多方共治和敏捷治理。”曾毅解释道。

除此之外,他进一步指出,在具体治理时,应当注意人工智能概念的外延和治理政策作用的范围。人工智能在科学技术、产业应用领域的概念有很大的区别。他认为,在伦理治理中使用人工智能的概念时,不应当完全趋向学术上对人工智能的定义。其原因是虚拟与增强现实、无人驾驶、可穿戴时代、脑机接口、机器人等多个方向都被认为是人工智能相关或者由人工智能作为核心赋能技术的领域,因此其治理政策很多都需要通过人工智能这个框架去落实和延申。而从学术的定义中,这些技术可能并不属于人工智能,如果学术和产业界在发展相关应用时因为这些领域不是严格的人工智能的范畴,就忽略考虑在发展过程中相关的规制,则会对技术发展和监管带来隐患与挑战。

2

平台、应用方面的政策和落地尚需加紧

在曾毅看来,目前我国人工智能在数据、算法方面治理政策进展显著,与此同时,在平台与应用方面的政策和落地尚需加紧。

随着人工智能应用场景的扩大,关于人工智能应该被应用在什么领域、是否应该退出某些场景的讨论也愈演愈烈。对此,曾毅指出,他并不认同“要让人工智能无处不在”的观点,他认为,由于人工智能技术仍存相关风险,在不必要的时候就不应急于使用人工智能进行替代。其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在,还有许多服务类人工智能并没有合理取得其使用者或受众的知情同意。他以教育系统中的人脸识别闸机举例,指出即使在家长签字同意使用的情况下,也存在着被迫知情同意的问题。“如果家长不签字孩子不能进学校学习,没有家长会不签字。”

与此同时,许多服务类人工智能也并没有取得其使用者或受众的知情同意。目前一些人工智能主持人就存在着类似的情况,“比如(技术使用方)两个礼拜之后才告诉观众这不是真正的主持人,大家就很惊艳于技术发展到这个程度,但它是违反知情同意原则的,也会因此给问责带来很大挑战。”

最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战——由于人工智能模型删除用户数据需要重新训练,这一过程可能持续几周、半年甚至更长才会进行而几乎无法做到实时删除。此外基于用户数据通过人工智能自动生成的内容如果想要撤销,可能已经广泛扩散,被扩散的内容如何撤销需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。

采写:南都记者胡耕硕
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册