财联社1月19日讯(编辑 牛占林)世界卫生组织(WHO)周四发布了关于多模态大模型伦理标准和治理指南一文,指出人工智能(AI)在整个医疗卫生领域应用前景广阔,但同时也要防范其中可能出现的诸如“自动化偏见”导致的过度依赖等风险。
上述指南概述了40多项建议,供各国政府、技术公司和医疗服务提供者予以参考,以确保适当使用人工智能技术,促进和保护人口健康。
作为一项快速发展的生成式人工智能技术,多模态大模型是指能够处理图像、文本、声音等多种类型数据的深度学习模型,广泛应用于医疗卫生领域。其普及速度比历史上任何消费应用都要快,如ChatGPT、Bard的的快速流行。
世卫组织首席科学家Jeremy Farrar博士指出,生成式人工智能技术具有改善卫生保健的潜力,但前提是这些技术的开发、管理和使用人员能够识别并充分考虑到相关风险,并对其进行监管并制定相关规范。
Farrar表示,我们需要透明的信息和政策来管理多模态大模型的设计、开发和使用,以实现更好的医疗成果,并克服持续存在的不公平现象。
风险和建议
总体而言,世卫组织概述了多模态大模型在卫生领域的五种广泛而基础的应用:①诊断和临床护理,如答复病人的书面询问;②患者指导使用,例如用于调查症状和治疗;③文书和行政工作;④医学和护理教育;⑤科学研究和药物开发。
世卫组织也提到了多模态大模型使用时可能的风险,如产生虚假、不准确、有偏见或不完整陈述的信息,这可能会损害使用此类信息做出健康决定的人。
此外,多模态大模型可能在质量较差或有偏见的数据上进行训练,无论是种族、民族、血统、性别、性别认同还是年龄等方面。
该指南还详细说明了卫生系统面临的更广泛风险,例如表现最佳的多模态大模型的可及性和可负担性;多模态大模型可能助长“自动化偏见”,使医疗专业人员和患者过于依赖人工智能,忽略原本可以由人发现的差错,或把困难的选择不恰当地交给多模态大模型;多模态大模型与其他形式的人工智能一样,也容易受到网络安全风险的影响,从而危及患者信息安全、有损算法的可信度等。
基于上述风险,世卫组织认为各国政府负有制定多模态大模型使用规范的主要责任,以便将其整合和用于公共卫生和医疗目的。
世卫组织建议称,政府应该投资或提供非营利的公共基础设施,包括算力和公共数据集,供公共、私人和非营利部门的开发人员访问,这要求用户遵守道德原则和价值观,以换取访问权限。在大规模部署大模型时,应该由独立第三方实施强制性的审计和影响评估,包括数据保护和人权方面的评估。 |