WHO 发布多模态大模型的 AI 伦理与治理指南
首页 > 资讯 > WHO 发布多模态大模型的 AI 伦理与治理指南 出自识林
WHO 发布多模态大模型的 AI 伦理与治理指南
笔记 2024-01-22 世界卫生组织(WHO)于 1 月 18 日发布了关于多模态大模型(LMM)的伦理和治理的新指南,LMM 是一种快速增长的生成式人工智能(AI)技术,可应用于整个医疗保健行业。 指南概述了40多条供政府、技术公司和医疗保健提供者考虑的建议,以确保适当使用 LMM 来促进和保护人群的健康。 LMM 可以接受一种或多种类型的数据输入,例如文本、视频和图像,并生成不限于输入数据类型的各种输出。LMM 在模仿人类交流以及执行未明确编程的任务方面是独一无二的。LMM 的应用速度比历史上任何消费者应用程序都要快,2023年有几个平台(例如ChatGPT,Bard和Bert)进入公众视野。 WHO首席科学家 Jeremy Farrar 博士表示:“生成式 AI 技术有可能改善医疗保健,但前提是开发、监管和使用这些技术的人识别并充分考虑相关风险。我们需要透明的信息和政策来管理 LMM 的设计、开发和使用,以取得更好的健康结果,并克服持续存在的健康不公平现象。” WHO 的新指南概述了 LMM 在健康方面的五大应用:
虽然 LMM 开始用于特定的健康相关目的,但也存在产生错误、不准确、有偏见或不完整陈述的风险,这些风险可能会对使用此类信息做出健康决定的人造成伤害。此外,LMM 可能接受过质量差或有偏见的数据训练,无论是按种族、族裔、血统、性别、性别认同还是年龄。 指南还详细说明了卫生系统面临的更广泛的风险,例如表现最佳的 LMM 的可及性和可负担性。LMMS 还可能鼓励医疗保健专业人员和患者产生“自动化偏见”,从而忽略本应发现的错误,或者将困难的选择不正确地交给 LMM。与其它形式的 AI 一样,LMM 也容易受到网络安全风险的影响,这些风险可能危及患者信息或这些算法的可信度以及更广泛的医疗保健服务。 为了创建安全有效的 LMM,WHO 强调,需要政府、技术公司、医疗保健提供者、患者和公民社会等各利益攸关方参与此类技术开发和部署的各个阶段,包括其监督和法规。 主要建议 WHO 的指南中包括对各国政府的建议,因为各国政府在制定 LMM 的开发和部署标准,以及将其整合到公共卫生和医疗目的方面负有主要责任。例如,政府应:
指南还包括对 LMM 开发人员的以下主要建议,开发人员应确保:
作者:识林-蓝杉 识林®版权所有,未经许可不得转载 |