请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

人工智能的全球分歧:地缘政治阻碍强大技术的全球监管





地缘政治冲突如何影响人工智能技术的全球监管?2024年3月,美国芝加哥大学教授在《外交事务》(FOREIGN AFFAIRS)期刊上发表了全球人工智能意见分歧的最新研究成果,研究指出,地缘政治将阻碍国际社会形成全新的全球人工智能治理体制。在一个支离破碎的法律秩序中,极为危险的人工智能模型将被作为地缘政治冲突的工具而被开发和传播。元战略编译文章重要内容,为读者探讨地缘政治对全球人工智能监管的影响提供参考。






2023年11月,中国、美国和欧盟等国家共同签署了《布莱切利宣言》,就如何应对前沿人工智能(以ChatGPT为代表的最先进的生成模型)的风险提出了广泛的意见。宣言指出了人工智能被滥用于“虚假信息”以及在网络安全和生物技术领域引发“严重甚至灾难性”风险的可能性。通过多国公报和双边会谈,一个规范人工智能的国际框架似乎正在形成。从美国总统拜登于2023年10月发布的人工智能行政命令;欧盟于2023年12月批准通过的《人工智能法案》(AI Act);以及中国最近出台的一系列相关法规,我们会发现它们在某种程度上惊人地趋于一致,共同目标大致都是防止人工智能被滥用,同时又不限制创新。乐观主义者提出了对人工智能进行更密切国际管理的建议,如地缘政治分析家伊恩·布雷默(Ian Bremmer)和企业家穆斯塔法·苏莱曼(Mustafa Suleyman)在《外交事务》期刊上提出的观点,以及苏莱曼和谷歌前CEO埃里克·施密特(Eric Schmidt)在《金融时报》上提出的计划,他们在计划中呼吁成立一个类似于联合国政府间气候变化专门委员会的国际小组,以“向各国政府通报人工智能能力的现状,并对未来做出基于证据的预测”。
但是,建立全新的全球人工智能治理体制可能会遇到一个不幸的障碍:地缘政治。大国可能会公开坚称,它们希望在人工智能监管方面开展合作,然而它们的行动表明,未来将是各自为政、相互竞争的局面。在获取半导体、制定技术标准以及监管数据和算法方面,不同的法律制度正在形成,这将阻碍各国之间的各种合作,并形成一个由相互交战的监管集团组成的充满意见分歧的格局,“利用人工智能造福人类”的崇高理想将在地缘政治紧张局势的礁石上化为泡影。一、人工智能相关的冲突领域


2022年10月,美国商务部发布了首个针对先进芯片和芯片制造技术出口的全面许可制度。OpenAI、Anthropic和其他技术前沿公司所使用的尖端人工智能模型都需要这些先进芯片来制造设备。由于世界贸易组织(WTO)制定的国际贸易法没有充分限制各国政府实施的出口管制,因此各国有可能在半导体领域展开针锋相对的竞争。该组织过去很少涉及这个问题,而自从美国前总统唐纳德·特朗普(Donald Trump)在2018年通过阻止任命新成员的方式使世贸组织的上诉机构失去作用以来,由一个权威的全球机构来可信地执行新的正式规则前景一直渺茫。


第二个冲突的领域涉及技术标准。长期以来,任何重大技术的使用都离不开这些标准的支持:试想一下,如果每个州都有不同的法律规定的铁轨轨距,那么要在全美范围内修建一条铁路是多么困难。数字时代的兴起见证了各种标准的普及,这使得人们能够在全球范围内生产和购买复杂的产品。例如,iPhone 13近200个零部件来自十几个国家。如果要让这些不同的部件协同工作,制造出能够与基站、卫星和物联网通信的产品,它们就必须共享一套技术标准。这些标准的选择影响深远,它决定了创新能否以及如何找到商业用途或获得市场份额。正如德国工业家维尔纳·冯·塞门斯(Werner von Seimens)在19世纪末所说:“谁拥有标准,谁就拥有市场”。目前,国际电信联盟(ITU)、国际电工委员会(IEC)、国际标准化组织(ISO)和互联网工程任务组(IETF)等一系列鲜为人知的机构正在就数字技术的总体技术标准进行协商。这些机构总部设在日内瓦,以非营利组织或联合国附属机构的形式运作,在制定全球数字贸易和竞争条件方面发挥着重要作用。这些机构的成员根据多数原则对标准进行表决,迄今为止,这些论坛一直由美国和欧洲的官员和企业主导,但这种情况正在改变。


在人工智能领域,被不同技术标准分割开来的市场将减缓新人工智能工具的传播。这也会使可在全球范围内应用的技术解决方案变得更加困难,以解决虚假信息或深度伪造等问题。实际上,大国认为需要共同解决的问题将变得更加难以解决,关于人工智能相关技术标准的分歧已经出现。例如,欧盟的《人工智能法案》规定使用“适当的风险管理措施”,为了定义这一术语,该法案希望由三个独立的标准制定组织来制定和颁布有关人工智能安全风险的具体标准。值得注意的是,迄今为止立法中指定的三个机构都是欧洲的,而不是上文提到的国际机构。这似乎是有意识地将欧洲的法规与美国和中国的法规区分开来,这也意味着人工智能相关标准的碎片化。


二、地缘政治冲突对人工智能所需无形资产的影响


地缘政治冲突不仅塑造了人工智能实物商品的新的国际监管格局,还加剧了这项技术所需的无形资产的分歧。同样,新出现的法律制度巩固了存在分歧意见的世界秩序,在这种秩序下,广泛的集体解决方案很可能会失败。


人工智能的第一项所需的无形资产是数据。ChatGPT等人工智能工具建立在海量数据的基础上。然而,要想取得成功,它们还需要更有针对性的大量数据。生成式人工智能工具能够根据简短的提示生成段落文字或扩展视频,功能强大得令人难以置信,但它们往往不适合特定的任务,它们必须通过更小的、特定环境的数据集进行微调,才能完成特定的工作。例如,一家公司在使用生成式人工智能工具来开发客户服务机器人时,可能会使用自己的消费者互动记录来训练这种工具。简而言之,人工智能既需要大型数据储存库,也需要更小、更定制化的数据池。


因此,企业和政府将不可避免地为获取不同类型的数据而展开竞争。有关数据流动的国际冲突并不新鲜:在欧盟法院于2015年否决了一项允许公司在美国和欧洲的服务器之间移动数据的安全港协议(SafeHarbor)后,美国和欧盟就数据跨越大西洋的条件问题多次发生冲突。现在,此类分歧的规模正在扩大,影响着数据的流动方式,使数据更难跨越国界。直到最近,美国还在推广全球数据自由传输的模式,这是出于对开放市场的承诺,也是出于国家安全的需要。美国华盛顿一直在积极利用双边贸易协议来推动这一愿景。与此相反,欧洲法律长期以来对数据隐私更为谨慎。


最后,关于国家是否以及何时可以要求披露支持人工智能工具算法的全球竞争正在涌现。例如,欧盟提出的《人工智能法案》要求大型科技公司向政府机构提供某些模型的内部运作情况,以确保这些模型不会对个人造成潜在伤害。美国的做法更为复杂,也不完全一致。一方面,拜登在2023年10月发布的行政命令要求披露“双重用途基础模型”(既可用于商业用途又可用于安全相关用途的尖端模型)的目录。另一方面,特朗普和拜登政府推行的贸易协议中包含了许多条款,禁止其他国家在其法律中强制要求披露“专有源代码和算法”。实际上,美国的立场似乎是在国内要求公开,而在海外则禁止公开。


尽管这种对算法的监管还处于起步阶段,但各国很可能会沿着全球数据监管所开辟的意见分歧之路前行。随着技术设计决策(如人工智能负责优化的精确指标)的重要性被越来越多的人所了解,各国很可能会试图迫使公司披露这些信息,但同时也会试图禁止这些公司与其他政府分享这些信息。


三、分裂的法律秩序与全球合作的缺失


在全球应对其他挑战的决心摇摆不定的时代,大国最初在应对人工智能问题上表现出乐观的态度。人们似乎普遍认为,人工智能可能造成严重危害,需要采取协调一致的跨国行动,然而,各国并没有走上这条道路。


由此产生的法律秩序的特点将是分裂和疏远,它将使各国相互猜疑,削弱善意,同时,也很难提出更好的人工智能全球治理建议。新出现的制度会增加收集信息和评估新技术风险的难度,更危险的是,由于人工智能监管在法律上日益碎片化,所带来的技术障碍可能会使某些全球性解决方案变得不可能,比如成立一个人工智能政府间小组。


在一个支离破碎的法律秩序中,极为危险的人工智能模型将被作为地缘政治冲突的工具而被开发和传播。一个国家管理人工智能的努力很容易受到境外势力的破坏。因此,如果全球对人工智能监管的努力从未真正实现,那么世界将会有很多的损失。


免责声明:本文转自元战略,原作者Zoie Y. Lee文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!



转自丨元战略
作者Zoie Y. Lee




研究所简介


国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。



地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er



本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册