请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

清华大学苏世民书院院长薛澜:发展人工智能一定要设“红线”

每经记者:周逸斐 每经编辑:陈星

2024中关村论坛年会于4月25日至29日举行。《每日经济新闻》记者从现场获悉,本届年会以“创新:建设更加美好的世界”为主题,设置了论坛会议、技术交易、成果发布、前沿大赛、配套活动5大板块。

中关村论坛是中国面向全球科技创新交流合作的国家级平台,已成功举办14届。本届论坛设置了论坛会议、技术交易、成果发布、前沿大赛、配套活动5大板块,将举办近120场活动,100多个国家和地区、150余家外国政府部门和国际组织机构等受邀参会。

在26日举行的全球科技集群创新论坛上,清华大学苏世民书院院长薛澜发表了题为《国际科技创新中心评估——结果与启示》的主旨演讲。

人工智能发展迅速,也引起一部分人的担忧:若预防AI(人工智能)犯错的技术落后于AI自身的发展,很可能会出现失控局面。对此,薛澜回应《每日经济新闻》记者,发展人工智能的时候,一定要设“红线”。



薛澜接受采访 每经记者 周逸斐 摄

诸多业内人士也呼吁要给人工智能“装上刹车再上路”。薛澜表示,所谓“刹车”就是一套针对人工智能潜在风险的治理体系,它可以对滥用、恶用、误用人工智能等潜在风险进行合理规制。

他进一步解释,这套治理体系分多个层次。从国家层面来看,2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。2021年,《新一代人工智能伦理规范》发布,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。此外,国家还出台了个人信息保护法等法律。

在具体领域也有一些法规、措施出台。比如针对“骑手困在算法中”等问题,相关部门专门出台了关于算法的规定,保护劳动者、消费者的权益。2023年,中国还出台了全球首部专门规范生成式人工智能服务的立法。

另外,国家鼓励相关企业加强内部机制建设,保证企业技术应用符合前述法律法规。

薛澜认为,上述多层次、综合性措施可以保证人工智能“上路”是有“刹车”的。

记者注意到,一段时间以来,如何避免被人工智能取代的话题被反复提及。薛澜认为,目前更需要探讨的是怎样利用人工智能技术为人类服务?人类下一步发展更希望得到什么?哪些工作可能是人工智能无法替代的?思考后找到的方向就是人类需要掌握的技能。

“另一方面也需要开拓就业新领域。随着新技术的发展和物质文化生活的不断丰富,人类会产生更多的新需求,这些需求也许就是未来的就业新模式、新方向。”薛澜说。

每日经济新闻

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册