门户
图库
科技
数据
VR
区块链
学院
论坛
百科
导航
登录
注册
帮助
公社首页
中国人工智能社区
公社版块
公社群组
Group
升级会员
用户名
Email
自动登录
找回密码
密码
登录
立即注册
登录后你可以:
登录
首次使用?
点我去注册
搜索
搜索
本版
帖子
公社群组
用户
道具
勋章
任务
设置
我的收藏
退出
首页
›
公社水吧
›
大话智能
›
20多年前斯皮尔伯格在电影《人工智能》中提出的伦理问题 ...
返回列表
20多年前斯皮尔伯格在电影《人工智能》中提出的伦理问题,至今还引人深思
[复制链接]
boma
2023-12-18 09:10:16
显示全部楼层
|
阅读模式
12月16日,由复旦大学主办的2023科技伦理高峰论坛举行,与会专家共论“数字技术时代中国科技伦理的理论与实践”。
【价值对齐是跟谁对齐?对齐什么?】
早在2001年,史蒂文·斯皮尔伯格在其执导的电影《人工智能》中就提出了一个伦理问题:当机器人学会爱人类,人类会爱机器人吗?
“斯皮尔伯格在电影中并没有给我们以答案。除了影视作品的关注,可以说,每一次的人工智能浪潮都伴随着‘人与机器’关系的讨论。”
中国科学院科技战略咨询研究院研究员李真真
说。比如,“阿尔法狗”打败人类棋手后,2016年电气和电子工程师协会发布世界首个人工智能道德准则设计草案,并提出一个伦理问题:如何将人类规范和道德价值嵌入AI系统?
当以ChatGPT为代表的生成式AI基于训练数据开始独立创造连贯性内容,将AI提升到了认识的逻辑层面,“这意味着人工智能问题的性质也在改变,由此再次提升了人机伦理关系的关注度,并提出了价值对齐。”李真真说 。
当“人工智能体”越来越表现出拥有与人类一样或相似的情感和自主性时,人类该如何处理与机器人的关系?“现阶段,人机伦理关系已经成为一个不能也无法回避的议题。”李真真说,尽管在当下技术与社会文化背景下,价值对齐面对挑战,但将价值对齐概念纳入AI大模型的研发实践的努力,凸显了使AI 置于人类可控范围的价值目标。
美国加州伯克利分校斯图尔特·拉塞尔教授认为,价值对齐旨在确保人类创造的AI与人类拥有相同的价值观。
“价值”是一种复杂的存在,“人类价值观”是一种最大公约数下的价值共识。
“价值对齐是跟谁对齐?对齐什么?”李真真说,从个体层面讲,对于“什么是有价值的”判断,取决于个人的生活经历、生活体验、知识结构以及在其所经历事件的处理中形成的价值观。就群体而言,通常会出现不同群体之间的差异,甚至一个群体内部存在不同的判断和选择。人类的道德体系涵盖不同文化圈在其历史长河中逐渐形成各自的主流价值,它们保有普遍的共同元素,但道德内容并非完全相同。
在她看来,人工智能的智能化表现只是模仿人类的理性思维模式。人类文明的开化始于爱,它得益于情感、意志、情绪、经验等方面的自然交互,而这恰恰是人工智能所不具有的。
【“可理解人工智能”是下一个里程碑?】
“其实,在ChatGPT问世之前,学界对人工智能伦理问题就已高度关注。”
北京大学哲学系科技哲学教研室主任周程教授
说。
自2017年起,人工智能伦理领域的文献呈现出迅速增加态势,这与应用深度学习技术的“阿尔法狗”问世有关。对人工智能伦理文献绘制关键词图谱,可以看到“透明性”成为重点关注的问题。
随着人工智能的飞速发展,人类正逐渐进入算法社会,人工智能依托其强大的机器学习能力而具有一定的自主性,但这也导致了算法缺乏透明性的问题。
前不久,微软公司前首席执行官比尔·盖茨公开表示,像ChatGPT这样的生成式人工智能已经到达了平台期,未来的GPT-5相较于现在的GPT-4只能做出部分改进,而无法取得飞跃性的突破。他做出这一判断的一个依据在于:人工智能存在透明性即“黑箱”问题。他预测,“可理解人工智能”将会是人工智能发展的下一个里程碑,但实现这一目标至少需要十年的时间。
所谓“黑箱”问题,指的是“模型经过大量训练后,其内部状态变得相当复杂,输入与输出之间的运算是自动进行的,这也导致人们既难以准确预测算法的行为,也不易理解算法输出特定结果的机制。”
例如,在医学人工智能领域,AI辅助诊疗系统有时会做出一些令专业医生感到费解的治疗建议,但医生无法向算法“黑箱”询问它为何会做出这类看起来相当不合理的决策。
周程说,提高人工智能的可理解性与可信赖性成为新要求,国内外出台了多个文件提出要提高人工智能的可解释性。10月30日,七国集团发布了《广岛进程组织开发先进人工智能系统的国际指导原则》,其中提到:例如测试和缓解措施,应力求确保系统全生命周期的可信赖性、安全性和安保性,以便它们不会造成不合理的风险。
虽然科学界、哲学界和科技管理界都在强调要提高人工智能系统的透明性,但是对于“可解释AI”“可理解AI”“可信赖AI”这一组关键概念的内涵仍未达成共识。
在周程看来,这组概念涉及人类如何打开人工智能“黑箱”,又如何弥合人类心智系统与人工智能系统之间的鸿沟问题。因此,有必要系统梳理诸如“可解释性”“可理解性”“可信赖性”等概念,以更全面地勾勒出我们构建未来人工智能的方向与目标。如果我们在研发人工智能时,能够建立起用户、研发者、机器之间的信任纽带,把个人与社会的价值关切都融入开发的全过程,我们就能更好地让人工智能造福于人类,实现更加“以人为中心的人工智能”,减少潜在的风险,更好地应对人工智能带来的伦理挑战。
题图来源:上观题图 图片编辑:雍凯
来源:作者:黄海华
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
发表新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
boma
注册会员
0
关注
0
粉丝
13
帖子
Ta的主页
发布
加好友
最近发表
重量仅4.21克!我国科研团队研发出太阳能动力微型无人机:在纯自
从几百到几亿美元,各类无人机已遍布战场,中国该如何应对?
航拍无人机怎么选?大疆无人机盘点推荐
比“顺丰双尾蝎”还强!国产11吨级无人机开建,又是全球第一?
大疆今天发布的无人机,让我觉得上天也没那么难
“彩虹”VS“翼龙”,中国军用无人机两大王牌,都各有哪些精品?
公社版块
版块推荐
更多版块
智能穿戴
智能家居
机器人
无人驾驶
无人机
反馈吐槽
闲聊灌水
大话智能
大数据
图像识别
自然语言
数据挖掘
大话智能
数据挖掘
北大讲座
清华讲座
网贷观察
股市评论
区块链
闲聊灌水
反馈吐槽
站务通知
关注我们