门户
图库
科技
数据
VR
区块链
学院
论坛
百科
导航
登录
注册
帮助
公社首页
中国人工智能社区
公社版块
公社群组
Group
升级会员
用户名
Email
自动登录
找回密码
密码
登录
立即注册
登录后你可以:
登录
首次使用?
点我去注册
搜索
搜索
本版
帖子
公社群组
用户
道具
勋章
任务
设置
我的收藏
退出
首页
›
智能技术
›
机器学习
›
蝌学荐书|我们该如何教机器学习?
返回列表
蝌学荐书|我们该如何教机器学习?
[复制链接]
iaskbbs
2024-9-26 08:31:19
显示全部楼层
|
阅读模式
2013年夏天,一篇平平常常的帖子出现在谷歌的开源博客上,标题是《学习词汇背后的含义》。
帖子中说:“目前计算机还不太擅长理解人类语言,虽然离这个目标还有一段距离,但我们正在利用最新的机器学习和自然语言处理技术取得重大进展。”
谷歌从纸媒和互联网获取了大量人类语言数据,比以前最大的数据集还大几千倍,将数据集输入一个受生物学启发的“神经网络”,并让系统寻找词语的相关性和联系。
借助所谓的“无监督学习”,这个系统开始发现模式。例如,它注意到词语“北京”与“中国”的关系,同“莫斯科”与“俄罗斯”的关系一样,不管词语的意思是什么。能否说计算机“理解”了?这个问题只能让哲学家来回答,但是很显然系统已经抓住了它“阅读”的内容的某种本质。
谷歌将这个系统命名为“word2vec”――意思是将词汇转换成数字向量――并将其开源。对数学家来说,向量有各种奇妙的性质,你可以像处理简单的数一样处理它们,进行加、减、乘运算。通过这种方式,研究人员很快发现了一些惊人的意想不到的东西。他们称之为“连续空间词汇表示中的语言规律”,对它的解释没有听起来那么难。word2vec把词汇变成了向量,这样你就能对词汇做数学运算。
例如,如果输入中国+河流,就会得到长江。输入巴黎-法国+意大利,就会得到罗马。
输入国王-男人+女人,就会得到女王。
结果很惊人。word2vec系统开始应用于谷歌的机器翻译和搜索引擎,业界也将其广泛应用于其他领域,例如招聘,它成了科学和工程界新一代数据驱动的语言学家的必备工具。
两年过去了,没有人意识到存在问题。
这是一本关于机器学习与人类价值观的书:关于不通过手工编程而是从数据中学习的系统,关于我们如何教它们,以及教什么。
机器学习主要包括3个领域:无监督学习,机器被直接给予一堆数据,就像word2vec系统一样,目的是理解数据,找到模式、规律、有用的方式来提炼、表示或可视化数据;监督学习,系统被给予一堆已分类或标记好的例子进行学习,比如假释犯是否再犯,然后用习得的模型对从未见过或尚不清楚基本事实的新例子进行预测;强化学习,系统被置于一个有奖惩的环境中,就像补能和危险并存的赛艇赛道,目的是找出最小化惩罚和最大化奖励的最优方法。
越来越多的人意识到,世界正逐渐以各种方式依赖于机器学习领域给出的数学和计算模型。这些或简单或复杂的模型――一些只能算是电子表格,另一些则可被称为AI――正逐步取代人类判断和更传统的显式编程的程序。
这不仅发生在科技和商业领域,也发生在具有伦理和道德影响的领域。司法体系越来越广泛地使用“风险评估”软件来决定保释和假释。道路上的车辆越来越多地自动驾驶。我们的贷款申请、简历和体检结果逐渐不再由人类负责评估。进入21世纪,越来越多的人都在致力于让世界――在象征意义上和字面意义上――自动驾驶。
近年来,两个不同的群体敲响了警钟。第一个群体关注当前的技术伦理风险。如果面部识别系统对某个族群或性别特别不准确,或者如果有人被未经审核的统计模型判定不得保释,而法庭上的所有人――包括法官、律师和被告――都不理解,这就存在问题。这样的问题无法在传统的学科领域内解决,只能通过计算机科学家、社会学家、律师、政策专家和伦理学家的对话来解决。对话已经开始。
还有一个群体担忧的则是未来的危险。随着我们的系统越来越能灵活、实时地做决策,无论是在虚拟还是现实世界都面临这种危险。毫无疑问,过去10年见证了AI和机器学习发展史上最令人振奋但也最突然最令人担忧的进展。与此同时,一种无形的禁忌逐渐被打破,AI研究人员不再避讳讨论安全问题。事实上,过去5年,在这个领域,这种担忧已经从边缘变成了主流。
虽然对于应优先考虑眼前的问题还是长远问题,目前还存在争议,但这两个群体在大目标上是一致的。随着机器学习系统越来越普遍和强大,我们会发现自己越来越经常地处于“魔法师学徒”的境地:我们召唤出一种力量,给它一组指令,希望它自主但又完全顺从,然后一旦我们意识到指令不准确或不完整,又手忙脚乱地阻止,以免用我们的智慧召唤出某种可怕的东西。
如何防止这种灾难性的背离――如何确保这些模型捕捉到我们的规范和价值观,理解我们的意思或意图,最重要的是,以我们想要的方式行事――已成为计算机科学领域最核心、最紧迫的问题之一。这个问题被称为对齐问题(thealignmentproblem)。
随着研究前沿越来越接近开发出所谓的“通用”智能,现实世界的机器学习系统越来越多地介入个人和大众生活的道德伦理领域,对这一警告产生了一种突然的、充满活力的反应。一个多元化团体正在跨越传统的学科界限。非营利组织、智库和研究所纷纷积极参与。越来越多的工业界和学术界领袖开始大声疾呼,并相应地增加研究经费。第一代专攻机器学习伦理和安全领域的研究生已经入学。对齐问题的第一批应对者已到达现场。
书名:人机对齐
原版书书名:TheAlignmentProblem
出版时间:2023年6月
作者:【美】布莱恩·克里斯汀著;唐璐译
这本书是近100次正式采访和数百次非正式谈话的产物,历时4年,行程数万公里,来自这一年轻领域广阔前沿的研究者和思想家。我发现的是正在一片荒原上开拓的进程,既令人振奋,有时也令人恐惧。我原以为自己对这个故事很熟悉,结果却发现这个故事比我曾认为的更吸引人,更令人担心,也更充满希望。
机器学习表面上是技术问题,但越来越多地涉及人类问题。人类、社会和公众难题正在变得技术化。技术难题正在变得人性化、社会化和公众化。事实证明,我们在让这些系统“以我们想要的方式行事”方面的成功和失败,为我们审视自我提供了一面真实的、启示性的镜子。
这个故事由3个不同部分组成。
第一部分探讨对齐问题的前沿:现有的系统已经与我们的根本意图不一致之处,以及在我们觉得有能力监督的系统中尝试掌控这些意图的复杂性。
第二部分将重点转向强化学习,我们逐渐开始理解不仅能预测,而且能行动的系统;其中有一些经验可以帮助我们理解进化、人类动机和激励的微妙之处,对商业和育儿都有启发。
第三部分将我们带到AI安全研究的前沿,我们将了解目前最好的一些想法,如何将复杂的自动系统与过于微妙或复杂、无法明确的规范和价值观相结合。
不管是好是坏,未来一个世纪的人类故事都很可能是建立并启动各种各样的智能系统。就像魔法师的学徒一样,我们会发现自己也只是在一个充斥着扫帚的世界里的众多自主体之一。
我们到底该怎么教它们?教什么?
——互动问题——
你认为机器学习会有什么风险?
欢迎在文末留言,将随机抽选三位用户送出《人机对齐》一本。
获奖名单将在下期“蝌学荐书”中公布,欢迎留言~
恭喜上期获奖者@小燕子、@宋婷、@小沈 获得《读虫记》一本,请与蝌蚪君联系获取赠书。
责编:咕噜
来源: 蝌蚪五线谱
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
发表新帖
回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
本版积分规则
发表回复
回帖后跳转到最后一页
iaskbbs
注册会员
0
关注
0
粉丝
16
帖子
Ta的主页
发布
加好友
最近发表
特斯拉Cybercab亮相Giga Texas,员工试乘无人驾驶出租车
无人驾驶
无人驾驶赛车第一次与真人车手同场对决,车手赢了
无人驾驶大战开启,大规模商业化运营真的要来了?
潍坊邮政首辆无人驾驶快递车正式上路运行
新车 | 续航400公里/无人驾驶/无线充电,红旗二代智能小巴亮相
公社版块
版块推荐
更多版块
智能穿戴
智能家居
机器人
无人驾驶
无人机
反馈吐槽
闲聊灌水
大话智能
大数据
图像识别
自然语言
数据挖掘
大话智能
数据挖掘
北大讲座
清华讲座
网贷观察
股市评论
区块链
闲聊灌水
反馈吐槽
站务通知
关注我们