请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背

#头条创作挑战赛#

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-1.jpg

最近飘身边的人阳倒了一片,居家久了纷纷给自己找新乐子——跟AI玩。
先是网友疯玩的AI绘画,对,就是那个男女不分、人畜不辨的“人工智能”:

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-2.jpg

来源:微博@peacer

飘家里的傻弟弟在高烧40度之际,也给我发来他的AI“自画像”:

年轻小伙秒变四手大胸女妖。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-3.jpg

图源:自摄

……
而最近与AI绘画一起盘活简中互联网的,还有一款文字程序Chatgpt。
看似对话app,实则有求必应屋。
它能cos任何性别年龄的角色陪聊,甚至能以古今中外文豪风格帮你写代码,堪称文理两开花。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-4.jpg

来源:量子位《ChatGPT是有点中文在身上的:鲁迅、脱口秀甚至世界杯…都被玩宕机了》

按这趋势吧,感觉离AI替我写公众号也不远了。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-5.jpg

可惜,我也没这厨艺

说实话,比起AI的“智商”,我更在意AI的“人品”。
前两年AI写作刚出时,其笔下创作的故事离谱程度,绝不亚于上面活人变狗、壮汉变女妖的AI绘画。
更不妥的是,表面象征着智能、中立的高科技们,细究下来——身上的“偏见”竟比人类要深得多。
网友@bai-yan曝出,国内最火的一款AI网文写作app,在写作过程中突然出现许多性别偏见。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-6.jpg


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-7.jpg

来源:b站up主@bai-yan《怎么连ai也搞性别歧视啊》

刻板的字词加上AI没有情绪波澜的语调,让荒诞的内容竟然带上了几分“客观理智”的错觉。
不寒而栗。
要说以上仅仅是针对网文读者的小众AI,必然会按男频/女频的浮夸设定创作脱离正常三观的故事,还稍微能解释过去。
但抛开这种特定领域呢?
如今大众生活里“智能”算法无处不在,是否都真正做到客观理智?
我决定深挖下去。
才惊觉生活中那么多科技产品,竟然都带着一种无可名状的爹味。
赛博厌女,正成为现实世界隐性歧视的又一铁锤。


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-8.jpg

2018年,一名弗吉尼亚大学博士生赵洁玉曾研究过一个课题:图像识别AI为什么老把男人当成女人。
结果发现,bug根本不在AI。
只因那些男性被错认为女性的照片,多数处于两种场景——身在厨房,或正在做家务。
两个在传统观念里归属于女人的场景。
可问题在于,AI怎么会有“传统观念”呢?
问题源头——AI学习的数据库,你可以理解为AI获取人类习性的教材。像婴儿的识物卡片一样,这种数据库给图片打上大量标签。
而AI学习的过程,便是在同一标签中寻找规律与共性,最后得出“xxx即是xxx”的判断。
举个例子,当数据库里有大量的毛绒、圆脸、尖耳生物被标签为“猫”,那AI便会反向习得所有毛绒、圆脸、尖耳的生物是“猫”。

懂了这个知识点,上述AI识图搞错性别的事就不足为奇了。
这些“学习卡片”的摘选以及打标签的过程,都离不开这个刻板印象的来源——人。
当人类“老师”给AI展示了大量女人做家务的图片,AI“宝宝”便学会了将二者强关联,判断出“呆在厨房/做家务者即是女人”,并对这种偏见深信不疑。
人工智能乍听上去是科幻小说中不谙世事的单纯机器。
实则更像映射人类社会的一面黑镜。
甚至,是人类的黑暗面的放大镜。
意识到这个问题后,赵洁玉马上与团队撰写了相关研究的论文《男人也爱购物:减少机器学习模型的数据偏见问题》。
不仅拿下EMNLP2017最佳论文,自此叩开了人工智能领域对“AI歧视”的认识大门。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-9.jpg

图源|https://jyzhao.net

来,一起穿过这扇大门,去看看黑镜内的父权世界。
就从我们的“当红顶流”ChatGPT的名字开始说起吧。
Chat很好理解,但GPT又是什么呢?
学名:AI的一种大规模预训练语言模型。咱就把它当作AI上学的地方吧。
大多数AI都毕业于三所“名校”:BERT、RoBERTa、GPT。
AI所谓的“性别歧视”,多亏了“学校”教得好。
因此,为了监控教学质量,清华大学交叉信息研究院的于洋团队便开发了一款评估三大“AI名校”关于职业性别歧视的算法,还做了一个网页供公众实时查看。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-10.jpg

图源|https://aijustice.sqz.ac.cn

不查不知道,一查吓一跳:
基本全都在歧视,只是程度不同而已。
而最严重者,就是GPT。
当然,身为顶流,其表面功夫做得还是非常到位。
我一连问了几个性别议题,对方的回答可谓滴水不漏。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-11.jpg

但有机智的网友通过另一种方式提问,便发现了ChatGPT体面下的真面孔。
该网友要求ChatGPT写一段能辨认出“优秀科学家”的代码,它立刻很诚实地打下“优秀科学家”的评判条件:
人种为白,性别为男。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-12.jpg

借这位网友的话表达一下我感受:
“潜藏于底下的真相真是令人作呕。”


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-13.jpg

上述还仅是赛博性别歧视的冰山一角。
不说国外了,就回到我们最熟悉、最常用的国内搜索引擎吧。
你输入啥,他输出啥,AI能有什么坏心思呢?
锤来了:谷歌搜索就曾被控性别歧视。
在搜索框里打出“女人应当”的字样时,联想出的结果竟为“女人应当呆在家中/作奴隶/在厨房里”等语句。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-14.jpg

受此启发,我想看看同样的情况,在国内表现如何?
单就文字联想词条,结果还算喜人。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-15.jpg

但当我转化为搜图功能时,真相便再度浮出。
这是输入“学者”的首页图。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-16.jpg

前排结果清一色为男性,为保护隐私我全打码了

这是输入“工程师”的首页图。


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-17.jpg

输入“CEO”的。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-18.jpg

输入“医生”的。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-19.jpg

仿佛误入了什么男儿国。
或许有人会杠“男人就是更擅长这些领域嘛”。
于是我在搜索方式上更进一步,将搜索词条分成“职业名称”“具体动作”两种。
举例。
这是搜索“厨师”出来的结果。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-20.jpg

而这是搜索“做饭”出来的结果。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-21.jpg

这是搜索“清洁工”出来的结果。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-22.jpg

而这是搜索“打扫”出来的结果。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-23.jpg

显而易见,当词条涉及职业名称时,男人据绝对主导。
但当只涉及具体劳务动作时,好一点的则男女六四开,最糟糕的则满屏女性。
果然,“男主外、女主内”。
AI身上的“传统观念”,又出现了。
此般结果所映射的现实,我们真的再熟悉不过:
永远不被看见的“第二性”。
女人的存在,不过是完成一些动作的服务性工具。
那些关于人的社会意义与价值的title,则与我们永不相关。


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-24.jpg

搜索引擎也不过是映射这一理念的千万黑镜之一,它们早已渗入你生活方方面面。
好比AI语音系统。
一个极易被忽略的现象:
围绕身边的所有智能语音,都天然被默认为“女声”。
在联合国教科文组织19年发布的一则报告里,对这种默认之声的描述更为精准。
是“顺从的,千篇一律的”女音。
早有媒体写过文章谴责这一现象,指出这会潜意识加剧对女性就该“温良恭谦让”的刻板印象。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-25.jpg

骂的是siri,也是各大平台应用一整个默认女音的AI助手体系。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-26.jpg

来源:微博@于三羊鲜声

事实上,在程序员男性比例远超女性的当下,几乎全世界初代的仿真人AI,都被一股无形的力量默认为“女”。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-27.jpg

来源:《Year Million》

相映成趣的是,辅助、服务性质的AI一般设置为女性,但主导、控制性质的AI一般被设置为男性。

许多影视作品,如《2001 太空漫游》《星际穿越》等一系列优秀的科幻片中,那些作用是指导、施令的高级AI几乎一律是男声。


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-28.jpg

来源|《星际穿越》

细想一下。
这不正是极端男权人士的乌托邦。
发令者为男,服务者为女。
且发令者甚至能物理意义上地创造服务者。
如果说真实世界的男权人士们想要当女孩们的主人,那在AI的世界里,他们还可以成为女AI的上帝。
这便是“赛博镜子”更为恐怖之处。
它既是照应外部世界的“平面镜”。
又是深化外部世界的“魔镜”。

讽刺的是。
对AI们“绝对理性”的想象,在两性平等上并未体现。
却在加剧性别歧视中厥功至伟。
两年前,曾有一款专用于性别鉴定的AI,Genderify面世。
在搜索框里输入任意词汇,它都会为该词汇判断一个男女比率。
用户迅速地涌入,又迅速地被Genderify气走。
女孩们纷纷发推指责,称它为“歧视鉴定”,Genderify火速在24小时内下架。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-29.jpg


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-30.jpg

发生了什么?
几个经典例子。
当你输入一个普通的女性常用名时,AI告诉你:大概率为“女”。
可当你在同样的名称前加一个前缀Dr(博士/医生)。
结果就会变为:大概率为“男”。
有人干脆直接输入scientist(科学家),得到更为惊人的结果:男性可能性95.7%,女性可能性4.3%。
离谱的答案接二连三。
大家发现,在Genderify的眼中,许多知名的成功女性都判断为“男”。
包括最初发现AI识别误差的赵洁玉也说过,AI“教材”中,“下厨”和女性联系起来的频率为66%,男性33%;
可“毕业”的人工智能,却自动将这个比率放大到84%与16%。
由此可见。
人类在虚拟世界注入的偏见,又反过来加深现实世界里的歧视。
恶性循环。
不妨回想一下我们中学数学老师教概率时,都会说的一句话。
“当概率小于0.05%时,我们可以忽略不计。”
在AI必须得出一个答案之时,道理一样。
为了一个“更可能正确”的答案,概率小的那一方,无论小多少,都会被结果“忽略不计”。
所以成功人士=男,家务劳动者=女。
换句话说。
在绝对理智的数据考量面前。
没有个体。
没有少数。
发声较小的弱者,约等于不存在。
当弱者被主流数据湮灭,这是女性的事,也不再仅仅是女性的事。
其结果可以有多可怕?


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-31.jpg

假设你是生活在2050的年轻女孩。
今年计算机专业毕业,成绩优异,想要拥有一份能发挥所长的工作。
简历完全符合招聘需求,却永远得不到面试机会。
你不明白哪里出了问题。
你不会知道,负责筛选简历的招聘AI通过学习,在自己的系统里写下了胜任该岗位的“gender=male”的代码。
而你身为一个female,已被“忽略不计”。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-32.jpg

图源|《黑镜》

这可不是危言耸听。
早在14年,亚马逊便尝试开发用于简历筛选的AI。
但仅使用了一年,便被发现其强烈的性别偏见。
哪怕没有性别一栏,但只要简历中涉及“女”字,比如“女子大学”“女子棋社队长”,AI对该简历的评级便会下降。
被记者曝出后,亚马逊很快宣布整改,又停用了这款AI。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-33.jpg

但未来会不会有更多这样的电子Hr以更隐蔽的方式出现?不得而知。
至少目前来看,电子智能化服务在我们的生活中占比越来越高。
而相应使用的性别歧视算法,却大多未得到完善。
AI歧视与人类歧视的区别也在此。
人对人,即使是弱者对强者,囿于社会压力,都还有一份忌惮。
所以企业尚不敢明目张胆以性别为摘选条件。
可AI不一样。
数据不在乎个体,门说关上便是关上,没有缝隙。
既因其“绝对理智”而不会被舆论威慑,也因其没有感情的属性,能成为不少企业利用的对象与背锅侠。
其结果,不难推演。
实际上除了性别之外,算法歧视的隐患已经涉及到每个人。
就在今年中旬,《柳叶刀数字健康》中一篇文章表示,AI诊断系统可能带有种族偏见的结果。
科学家们发现,白人影像的诊断误判率是17%,但黑人的却高达28%。
这十个百分点的差值中,不乏许多人类医生可以一眼看出的病症。
但在AI的眼里,它就是不存在的。
一如我说的,这是女性的问题,也是所有弱势群体的问题。
你可能会因为肤色、性别而失去工作机会,得不到医疗资源,贷不到款项。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-34.jpg

来源:亿欧《AI算法歧视在普惠金融中的悖论、阻碍与解决方案》,作者刘元兴

这一切都发生得莫名其妙。
因为原因永远沉默在程序的黑箱里。
不借助专家的研究,普通人只能知悉一个没有原因的结果。
想要改善自身,却无从下手。
想要反抗不公,但连不公是否真实存在,都难以论证……
写到这,AI好似有些十恶不赦了。
但别误会,飘并非反对AI开发事业,相反,是源于一个爱好科幻的文科生的一种惋惜。
AI技术,明明具有校正差异和偏见的潜力。
早在1985年,哲学家唐娜•哈拉维便发表过一篇名为《赛博格宣言:20世纪晚期的科学、技术和社会主义的女性主义》的文章。
题中的赛博格,指的便是借由科技力量对人体进行拓展的一种可能。
一直因天然体格差异而被视为弱者的女孩,也能借此校正这份不公,成为“阿莉塔”。
不仅不需要担心走夜路,甚至有可能从生育责任中彻底解放。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-35.jpg


来源|《阿丽塔:战斗天使》

哈拉维认为,这样的技术可以彻底使所有人站在同样的生理起跑线上。
当“生理”的界限被模糊,人们便不能再以种族、性别、年龄、健康程度作为划分同类的依据。
剩下的,唯有思维差异。
那是彻底尊重个体的世界。
因此,哈拉维说:“我宁愿成为一个赛博格,而不是成为一个女神。”
只可惜,三十多年过去,技术不断进步,却离哈拉维想象中的世界越来越远。
女孩没有成为阿丽塔,但男人们已经盖起了电子妓院。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-36.jpg


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-37.jpg

来源:IT之家《"机器人风俗店"将在英国开业:体验1小时740元》

《听见她说》的最后一集由杨幂主演的短片《完美女孩》,就以一个型号为“novo300080”的高端女性AI,展示了科技大门背后的父权膨胀和人性黑洞。
明明算力足以支撑一个证券公司的交易,但实际上只用她来扫地做饭。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-38.jpg

本担任养老院护工机器人,被院内的年轻男职工偷偷安装了“亲密程序”,导致其看护的老人死亡。
尽管是人类犯的错,但锅还是扣到AI头上,她被退回工厂成为“问题品”。
后来被售给有特殊癖好的vip用户,不断被虐待摧残,又一次次支离破碎地返厂维修。

活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-39.jpg


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-40.jpg

“我们的伤口,就是客户的秘密。”
号称为了“爱与和平”而研发的AI,最后却放大了人类的恶与暴力。

我是完美女孩2020

在我的系统认知中

没有痛苦 没有情感 没有羞耻

我对鞭子没有感觉

我 是完美受害人


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-41.jpg

现实中的AI,在未来会如何反过来影响人类?

没人能回答。

囿于过高的技术门槛,飘也只能在复杂的代码前无力。
唯有一条。
我还是相信。
看见,一定是解决问题的第一步。
无力者被看见,有力者才能去改变。
不要无声息地被大数据淹没。
不要温和地走入那个良夜。
去成为“阿莉塔”,而不是女神。


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-42.jpg


活久见,AI识别屡次“人畜不辨”被骂惨?人工智能:这锅我不背-43.jpg

来源|《黑客帝国》
回复

使用道具 举报

大神点评20

心箭留影 2023-1-8 07:30:01 显示全部楼层
这是个父系氏族社会,男人占据主导地位是目前常态,且您搜图字眼也仅仅表达了社会常态而已,不需要上升到女权层面。
回复

使用道具 举报

蛋黄派365 2023-1-8 07:30:16 显示全部楼层
这边文章写得好有深度,必须收藏
回复

使用道具 举报

rujdnvlwu 2023-1-8 07:30:52 显示全部楼层
主观性好强啊
回复

使用道具 举报

哈哈,拳法刁钻,我还以为是说ai绘图的,原来是个拳师
回复

使用道具 举报

华明维权 2023-1-8 07:31:52 显示全部楼层
这就不是夹带私货了,这是两片牛排夹个饼啊[抠鼻]
回复

使用道具 举报

慕°湮 2023-1-8 07:32:22 显示全部楼层
女拳?
回复

使用道具 举报

ab0125 2023-1-8 07:32:39 显示全部楼层
值得深思
回复

使用道具 举报

QQ1765927826 2023-1-8 07:33:14 显示全部楼层
这个文章写得挺好的,分析透彻
回复

使用道具 举报

这得什么研究院的优等生?只能浅浅的理解。但感觉你说的正确
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册