请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

两会声音|年轻人如何在算法时代生存?全国政协委员张毅呼吁要给人工智能算法戴上“法”这个紧箍咒

青年报·青春上海记者 范彦萍/文、图
“每个人都生活在算法结果里,算法看似是个技术,但却和人工智能时代的我们息息相关。”在今年的全国两会上,全国政协委员张毅疾呼,要更加完善算法监管体系,避免在“算法时代”成长起来的年轻人陷入“算法陷阱”。
在接受青年报·青春上海记者专访时,他就透露说,早在去年下半年,自己作为上海新联会会长,就带头针对先导产业组织了多次调研,形成的专报之一便涉及算力问题。他的主张是,要给看起来72般变幻,无所不能的人工智能算法这个“孙悟空”戴上“监管的紧箍咒”。
委员当起“神秘顾客”,明察暗访调研“算法陷阱”
“人工智能产业三大要素就是算法、算力和数据。”这几年,张毅始终关注人工智能产业的发展。去年全国两会上,他的提案关注了人工智能产业数据问题。两会结束后不久,他就开始酝酿算法治理体系的提案。提前一年为今年的提案做起了准备。
从两三万字的调研素材凝缩成千把字的提案,可以说,此次历时近一年的研究和调研后形成的算法提案,是他长期以来关注人工智能产业的顺理成章的成果。
在调研过程中,张毅化身“神秘顾客”和网约车不同的司机聊天,访谈监管机构工作人员、专家学者、技术人员。他发现现在不少平台都形成了“千人千面”的算法体系。“以网约车平台为例,我问过一个A先生,他抱怨自己叫到的网约车经常比别人的要贵些,他自己猜测,也许因为在平台的用户画像里,他更愿意叫贵的车。算法是无差别计算的,并非针对A先生个人,而是根据算出来的用户画像自行做匹配。算法一定程度上决定了成本。”



张毅还表示,有关部门要提醒人工智能算法形成价格垄断。“比如我是开拉面馆的,原来的价格是8元,后来根据算法,一条街的拉面馆都开出了统一价10元。人工智能分析用户画像的时候,会在无形中形成价格趋同性。这样的新现象让反垄断部门也无从处罚。”
专家:避免被数据裹挟成为较为困难的事
数据对年轻人意味着什么?年轻人如何在“算法时代”生存?这个问题,张毅曾请教过上海市人大代表、上海流程智造科技创新研究院公司董事总经理、上海新兴信息通信技术应用研究院首席专家贺仁龙,作为人工智能专家,他有足够的发言权。
对张毅调研时发现的人工智能隐藏的消费陷阱,贺仁龙透露说,这样的乱象比比皆是。“现在的人工智能已经能针对用户手机不同型号,判断出用户的身份,基于用户偏好,推送指定商品。有些恶意的已经属于价格歧视,违反市场交易的公平原则。欺负‘不计较钱的人’,严重的说,这已经涉嫌大数据欺诈。”
让贺仁龙感慨万千的是,生存在这个时代,避免被数据裹挟成为较为困难的事。“可以说,从某种意义上说,算法比你本人更了解你的行为习惯,大家深陷不公平的消费风险。”
但要开展算法的治理和审查,贺仁龙认为“难度也不小”,涉及到各个垂直领域的监管。
之所以造成监管难,贺仁龙认为,这是由人工智能的特性造成的。“如果说大数据还有算法代码,你还能找到原始明文,利用类似‘密码本’翻译摩尔斯密码的话,现在的人工智能可以实现深度学习,你完全不知道黑匣子的代码是什么。现在的人工智能是以结果为导向的,它会实现自我不断进化。”
和张毅的观点一致,贺仁龙也认为,人工智能需要法律上的监管。因为已经有一些不法分子利用算法自动生成恶意代码,更快地生成木马程序,这是传统杀毒软件根本检测不到的。还有的可以为用户设置数字分身,利用拿到的用户声音和视频文件进行AI诈骗。
此外,贺仁龙还认为,现在不少年轻人深陷信息茧房的桎梏,一些新闻资讯类平台也会根据用户的个性化喜好推送头条,并不断加强。
问题:我国尚未设立统一的算法监管机构,产生监管真空或失焦
2024年2月,文生视频大模型Sora发布,引发全球AI热潮。张毅认为,这一方面说明算法技术全面步入应用阶段,但同时也引发了诸如算法歧视、算法黑箱、信息茧房、算法霸权等法律甚至伦理的一系列问题。“如何在促进发展的同时,更好完善人工智能算法治理体系,监管手段和能力如何提升,对我国相关产业的发展和国家治理能力现代化至关重要。”
他表示,我国已出台的算法管理规定存在不足。比如当前相关管理规定主要为部门规章、规范性文件和推荐性国家标准,法律效力较低;监管客体仅限于民商事主体提供算法服务,不直接规制政府算法行为;法律责任上多为框架化、倡导性原则,导致算法治理内容与违法侵权间未形成充分对应关系。
“实践中主要通过算法备案和生成式人工智能(大模型)备案两项制度作为问责起点,但大模型备案尚在‘实验期’,缺乏成熟规则指引。受限于部门规章的效力层级,未形成算法问责完整架构。”他还一针见血地指出,在责任主体上,未对“服务提供者”等概念进行明确划分,不足以应对实践中复杂角色定位,也造成监管难以问责。
他还介绍说,我国尚未设立统一的算法监管机构,依据《生成式人工智能服务管理暂行办法》,网信、发改、工信、公安等均有权对其职权范围内的算法问题进行监管。部门化的监管格局对综合型算法监管时容易产生监管竞合,但对新型算法又容易出现监管真空。
张毅认为,算法提供者拥有信息资源和技术优势,算法机制和决策过程不可解释或难以理解等原因,被算法侵害对象面临“理解难、取证难”问题,而执法者也面临“认定难”问题。此外,生成式人工智能技术(“AIGC”)大模型具有基于海量数据进行自学习特性,迭代快,其在垂类领域应用也在快速多样化,难以为现有监管体系和技术/工具覆盖,从而产生监管真空或失焦的情况。
建议尽快推进《人工智能法》的出台
贺仁龙将算法的监管比喻为一杆公平秤。“这就好比在菜场买菜,必须要有公平秤。以前的消费者会拿一块钱硬币试一下分量是否对。”因此,他认为,人工智能的监管也要有一把尺。“菜市场里的公平秤由计量院专门校验,我们的算法也要有新的权威部门制定依据和计量办法,由官方机构检验,才允许上市备案。”
“部分大数据算法的流氓行径扰乱了市场公平,让消费者在不等价不公平的情况下利益受损。”贺仁龙说,目前这样的监管是缺位的,新闻媒体也应该在“3·15”快要来临前曝光这一现象。
在经过近一年的调研,以及对相关专家的走访后,今年全国两会举行期间,张毅给出了不少建设性建议。他建议要尽快推进《人工智能法》的出台,构建人工智能算法治理体系,弥补监管体系空白。同时,可考虑通过针对性的法规予以补充规范。针对产业链上各主体,采取权责相统一原则,根据不同主体对于人工智能系统的控制力度来加诸相应的合规义务。将人工智能和算法技术按风险等级进行划分并采取不同监管措施,并设置事前、事中和事后全生命周期监管措施义务。
他还强调要强化和创新算法监管。强化由网信牵头,发展改革、数据、工信、公安等多部门共同参与的算法治理联席会议制度,完善“横向协同,纵向联动”算法治理格局。借助市场力量,外聘或者借调算法及人工智能领域的专家共同参与监管流程,补齐监管技术短板。引入“监管沙盒”制度,允许算法及人工智能企业在监管机构的监督下,于相对可控的环境内进行试验性的开发、测试和验证。此外,或可考虑探索将人工智能技术应用于人工智能监管,以提高监管效率。
“有关部门要进一步保障用户权利。推进算法服务商以个人能够理解的方式披露算法风险与可能产生的损害、算法运行步骤与决策结果间关系等运行规则,减少专业术语,便于用户理解和决策。要求算法服务商在个人用户决定选择拒绝使用算法服务的情况下,进一步优化用户便捷关闭算法服务的选项。”张毅强调说。
他还说,要拓展算法侵害行为维权路径与责任模式,增强用户维权力量。在算法侵权的诉讼中采取“过错推定”归责原则,实行“举证责任倒置”。用户仅承担受到算法损害的责任,由算法服务商对算法和损害之间无因果关系,以及无过错承担举证责任。探索人工智能算法领域的民事公益诉讼制度。此外,不宜局限于要求具体损害结果的责任模式,可考虑综合考量训练数据、科技伦理等多维度

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册