请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

朱荣生 王豪:对人工智能火热发展的冷思考

TYMOVE 2024-4-25 21:33:18 显示全部楼层 阅读模式



2月16日,美国OpenAI发布文生视频大模型Sora。从OpenAI官网的介绍来看,Sora可以根据人类输入的文字生成播放顺畅的虚拟影片。这一文生视频技术的进步再次激发了社会各界关于人工智能(AI)将对人类社会产生何种影响的讨论。舆论在热议AI时代的美好前景同时,也担忧人类社会是否有足够的能力和韧性来适应技术变革。这种期待与焦虑交织的感受长期伴随着人们对AI技术发展及其影响的讨论。




2023年11月2日,首届人工智能安全峰会在英国布莱奇利庄园举行,峰会发布《布莱奇利宣言》。


文生视频“GPT3”时刻的期待与焦虑

在2023年,产业界研发的生成视频模型主要包括Runway的Gen-2、Stability的Stable Video Diffusion、谷歌的Video Poet。这些模型大多仅支持生成时长2至20秒的视频,而Sora突破了当前视觉大模型生成“60秒超长视频”的瓶颈。从这一角度看,文生视频似乎较快进入了“GPT3时代”。

AI技术将加速迭代,并带来社会效率的提升。360集团创始人兼董事长周鸿祎认为,Sora的出现意味着通用人工智能出现的时间将从十年缩短到一年。有“通用人工智能之父”之称的美国科学家本·戈泽尔更加乐观地评估道,AI即将迎来指数级“智能爆炸”,在未来三到八年时间里达到人类智慧的水平。当前的文生视频技术的赋能性效果可能更多体现在提高工作效率方面,可以通过算法自主学习快速合成影视作品的场景、角色和动作,进而减少自动化剪辑、特效渲染等工作的成本。特别是,文生视频技术可以让缺少经验和资源的创作者制作出令人惊叹的高质量视频。从这一技术赋能的路径看,一个“人人都是影视创作者”的时代即将到来。

在颠覆性技术概念不断涌现的当下,技术变革所产生的不确定性也催生了某种焦虑情绪。AI大模型从实现流畅的人机对话到生成视频的快速发展,再次触发了人们对新兴技术冲击部分传统行业、加大失业就业失衡、加剧虚假信息泛滥等社会稳定方面挑战的担忧。从国家间关系的角度看,AI“强者先行”的发展特点也将强化国际竞争压力。在2024年世界政府峰会上,英伟达创始人兼CEO黄仁勋提出“主权人工智能”(Sovereign AI)的概念。他表示,每个国家都需要拥有自己的AI基础设施,以便保护自己的文化和经济安全。

尽管每个国家都有维护自身“主权人工智能”利益的需求,但是大国和小国因实力的不均衡面临着不同程度的脆弱性。大国具有更强的技术储备和抗风险能力,能够在国际技术交流网络中处于核心地位。相比之下,小国恐怕会因缺少足够的资源而越发依赖于大国的技术供给,从而在全球AI生态体系发展中处于边缘位置。技术弱国可能被动性地拉大与技术强国的实力差距,而技术强国则可能为了争夺国际核心地位而更加奉行过度安全化的政策。这将进一步提高数字地缘政治竞争的烈度,压缩大国之间本已有限的关系缓和空间。





机器取代人类?

自2016年AlphaGo战胜韩国围棋大师李世石以来,AI技术发展在进入快车道的同时,也引发了舆论界对人类能否适应快速变革的担忧,更有人甚至提出了带有科幻色彩的“AI奴役人类、取代人类”的激进论断。这些言论反映了人们面临时代变革所产生的不安全感,大家愈发迫切地希望在充满不确定性的未来中寻找应对诸多挑战的路径和方案。

当前的文生视频技术距离人类智能还有较大差距。有技术专家认为,AI技术不具备人类理解和处理复杂问题的能力。图灵奖得主、Meta首席AI科学家杨立昆表示,人工智能模型生成逼真视频的能力不等同于它可以像人类一样理解世界。他认为,目前的AI技术还难以在理解物理世界中因果关系的基础上生成视频。北京邮电大学人机交互与认知工程实验室主任刘伟做出了类似的判断。在他看来,Sora的核心模型与GPT大语言模型十分相似,都是建立在转换架构基础上的软件系统,存在无法深刻理解人文艺术、道德伦理的技术障碍。由此来看,这两个AI大模型有较强的学习能力,却远未达到处理复杂事务的水平。

人们应当理性看待AI技术应用对社会发展产生的影响。尽管科技界和产业界对能够达到人类智能水平的AI最终走入大众视野存在乐观预期,但是当前的人工智能技术还没有表现出引发社会结构颠覆性变化的效果。从ChatGPT到Sora,AI所发挥的主要赋能作用是提高用户的工作效率,还没有达到“大量机器取代人类就业”的变革程度。

当然,忽视AI技术失序发展可能产生的风险是不负责任的。美国计算机科学家未来学家雷蒙德·库兹韦尔宣称,到2029年,AI的智慧将达到人类的水平,“有人认为我的这个判断比较保守”。埃隆·马斯克在社交媒体上转发了这一评论,并表示“人工智能明年可能比任何一个人类都聪明,到了2029年,可能比所有人的智慧总和都更聪明”。如果AI依然延续当前通过不断叠加算力的“暴力计算”方式来提高能力,并且最终实现超越人类的“智能外溢”,那么放纵AI技术无限度发展的潜在风险就是极其巨大的,这就包括机器可能会产生自我安全保护的意识,进而采取摆脱人类控制的行动,由此控制、奴役甚至消灭人类。

从规制人工智能潜在风险的角度出发,国家在维护“主权人工智能”利益的同时,应推动AI全球治理合作。AI领域的相关治理攸关人类命运,是全球治理面临的严峻课题。国际社会需要重视广大发展中国家在新兴技术浪潮中的脆弱性。技术强国不应只顾本国利益而一味采取“脱钩断链”手段。AI是军民两用技术,就其民用领域来说,引导全球AI行业健康发展,实现“AI向善”,进而促进AI技术造福于全人类,符合各国共同利益。而在更为敏感的军事安全方面,AI的军事化应用越发引起国际舆论的关注。据国际媒体报道,AI技术已在新一轮巴以冲突中被运用,造成平民伤亡。从建构人工智能全球安全治理规则的角度出发,国际社会恐怕需要探索建立某种“有人道的AI”的共同主张,以避免算法定生死酿成的人道主义灾难。

总之,要推动实现“AI为了人类”的目标,就需要以人类命运共同体理念为指导,确立“全球人工智能”的意识和行动,推动技术进步与赋能、防风险和国际规范制定的统筹并进、相得益彰。








朱荣生为清华大学战略与安全研究中心特约专家


王豪为北京理工大学博士后
本文刊登在《世界知识》2024年第7期责编:绯银


杂志

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册