找回密码
 立即注册
搜索

大数据杀熟、隐私泄露……金融安全隐患关山难越,新概念“可信AI”能否破局

数字化转型的大浪潮之下,人工智能、云计算、区块链等新兴技术发挥着重要作用。一日千里的发展背后,离不开海量用户数据,而这也引发了业内对该类技术安全性的新担扰。6月7日,北京商报记者留意到,在人工智能范畴,可信任的人工智能(即“可信AI“)概念末尾兴起。可信AI又将如何打破现阶段技术的限制、兼顾用户对数据安全保护的诉求,如何补齐算法短板打破安全难题?



可信AI打破数据孤岛

北京商报记者多方了解到,可信AI实践上是经过底层技术框架处理人工智能运用过程中能够存在的多类成绩,由此建立牢靠的人工智能生态。理想上,近年来, AI换脸被黑产盯上、买卖隐私信息等各类围绕用户个人隐私数据产生的安全成绩屡见报端,公众对于隐私保护、数据安全等成绩关注程度也在不断提高。

在6月7日举行的2021全球人工智能技术大会可信AI专题论坛上,科技部高技术研讨发展中心研讨员、ACM中国理事会常务理事嵇智源指出,可信AI就是确保人工智能的公平性、可解释性、健壮性和透明性,确保算法可被人信任。

针对这些乱象,一方面监管频频出手,在用户数据搜集、运用方面做出明白要求,从法律层面为数据安全提供保障;另一方面,北京商报记者留意到,多家从事人工智能相关业务的科技公司针对构建可信AI也在不断新陈代谢。

以同盾科技提出的“知识联邦”为例,“知识联邦” 经过将数据转化成为模型策略知识,再对分散的知识聚合,最终完成智能决策。同时,围绕可信AI,同盾科技开发了天启智能开放操作系统,并进一步开放了联邦市场,提供数据商店、模型商店和运用商店,方便数据消费要素的充分流通和运用。

同盾人工智能研讨院院长李晓林告诉北京商报记者,数据孤岛是制约人工智能发展的重要妨碍,知识联邦以更合规的方式来打破数据孤岛,在应用数据的同时,做到保护数据隐私。“经过数据安全交换协议来有效应用多方的数据,停止知识共创、共享和推理,完成数据可用不可见。”

隐私计算作为人工智能的底层支撑技术之一,其对于构建可信AI也有贡献。隐私计算全栈技术与基础设备提供商星云Clustar于2021年4月发布了“星云隐私计算全栈处理方案”,进一步协助合作机构完成数据安全共享与流通。

星云Clustar创始人陈凯指出,星云隐私计算平台集成了主流隐私计算技术,包括联邦学习、多方安全计算等,重点关注安全和效率成绩。以目前星云Clustar为某国有大型银行构建的全行级隐私计算平台为例,星云Clustar结合该银行需求停止了定制化开发,为其提供基于联邦学习的多方安全建模平台,协助该银行以“可用不可见”的方式打通全行内外部的数据共享,优化流程标准与降低管理成本,充分盘活了不同业务板块的数据价值,也为该银行将来停止数据开放提供了技术基础。

在冰鉴科技研讨院高级研讨员王诗强看来,人工智能是基于“大数据+算法”得出的技术结论,这一结论在落地过程中能否值得置信、能否能产生长期的正面影响有待考量,可信AI实践上是为规范人工智能发展提出的自律性要求。

苏宁金融研讨院金融科技研讨中心主任孙扬则进一步表示,从当前行业现状来看,违规采集、运用用户数据等成绩照旧频发,人工智能的安全性、牢靠性与可信性都需求加强,打破数据孤岛过程中如何防止技术公司滥用数据优势,也向技术公司提出了更高的数据运用要求。

金融范畴仍是主战场

随着技术的不断发展,人工智能技术在金融、医疗、教育等众多行业中找到落地场景。北京商报记者了解到,由于触及到多类用户信息,金融范畴场景尤为火热。多位人工智能行业从业者也向北京商报记者坦言,金融范畴当前仍是最次要的“战场”, 人工智能在风控、投顾、营销、理赔等方面发挥了突出作用。

对于传统信贷业务投入产出不对等或者无法停止风险评价等状况,人工智能技术可以协助银行等金融机构辨认风险客户,降低逾期率,线上化的金融业务也更为便利。“在风险可控的状况下,更多长尾客户获得金融服务,对于普通用户来说,这也是可信AI的表现方式之一。”王诗强表示。

除了助力传统金融机构转型外,人工智能在防控金融风险方面发挥着重要作用,并进一步末尾向监管科技范畴拓展。北京商报记者梳理发现,在多个试点城市披露的金融科技创新监管运用中,也大量出现了人工智能的身影。

广州于6月4日公示的第二批4个创新运用中,便包括“基于知识图谱技术的风险买卖预警服务”“基于知识图谱的外汇违法违规风险行为辨认运用”等产品。经过聚焦大数据、人工智能、区块链等前沿技术,进一步加强金融监管的专业性与传统性。

孙扬指出,在金融范畴的相关活动中,金融机构运用科技分析数据、科技公司经过技术获取数据,都要保持穿透式的监管。在监管科技方面,可以应用联邦学习、知识图谱、区块链、物联网金融等技术来完成金融活动监管。比如物联网金融用于供应链金融,区块链用于反洗钱,知识图谱用于贷款中介辨认等。

此外,有从业机构担任人向北京商报记者泄漏,在经过可信AI强化监管科技方面也在发力,例如在自主研发的系统中嵌入监管中心运用板块,便于监管层对体系内金融机构处理用户数据能否违规等行为停止管控,但目前相关板块业务仍处于完善调整阶段。

防止矫枉过正

值得一提的是,可信AI发展的过程异样面临难题。李晓林直言,在同盾知识联邦体系中,如何确立一个可信的第三方充当合格的协调者和监管者,如何完善各参与方的激励方式,激发各方的积极性和配合度等成绩,仍需求进一步克制。

“人工智能技术不断更新换代,可信AI是针对能够出现的安全成绩构建的新防线,”王诗强以为,除了发展可信AI所面临的成绩外,可信AI越成熟,也意味着技术对数据分析等各方面才能越高,也越能够出现更为精准的大数据杀熟、价格歧视等矫枉过正的状况。部分企业甚至能够出现过分追求先进技术,在实践落地过程中忽略了安全、隐私等成绩。

王诗强表示,人工智能技术是一把双刃剑,需求小心对待,规范其发展提高需求企业与监管等多方合力。监管部门要制定合适的政策标准,及时处理负面的技术创新,以良币驱逐劣币,要加强违法处置力度,对于违法行为停止惩罚、震慑;企业则要守住道德底线,加强自律,将数据安全放在首位,最终保证技术服务社会并创造价值。

“相关机构都应该严厉遵守监管框架,确保不侵犯消费者的权益,确保提供给消费者的业务是可信的、安全的、符合伦理的。切忌以科技之名,侵犯用户的数据和隐私权利。”孙扬补充道。

北京商报记者 岳品瑜 廖蒙

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册