首页
>
资讯
>
WHO 发布多模态大模型的 AI 伦理与治理指南
出自识林
2024-01-22
世界卫生组织(WHO)于 1 月 18 日发布了关于多模态大模型(LMM)的伦理和治理的新指南,LMM 是一种快速增长的生成式人工智能(AI)技术,可应用于整个医疗保健行业。
指南概述了40多条供政府、技术公司和医疗保健提供者考虑的建议,以确保适当使用 LMM 来促进和保护人群的健康。
LMM 可以接受一种或多种类型的数据输入,例如文本、视频和图像,并生成不限于输入数据类型的各种输出。LMM 在模仿人类交流以及执行未明确编程的任务方面是独一无二的。LMM 的应用速度比历史上任何消费者应用程序都要快,2023年有几个平台(例如ChatGPT,Bard和Bert)进入公众视野。
WHO首席科学家 Jeremy Farrar 博士表示:“生成式 AI 技术有可能改善医疗保健,但前提是开发、监管和使用这些技术的人识别并充分考虑相关风险。我们需要透明的信息和政策来管理 LMM 的设计、开发和使用,以取得更好的健康结果,并克服持续存在的健康不公平现象。”
WHO 的新指南概述了 LMM 在健康方面的五大应用:
- 文书和行政任务,例如,在电子健康记录中记录和总结患者就诊情况;
- 医疗和护理教育,包括为受训人员提供模拟患者会诊,以及
虽然 LMM 开始用于特定的健康相关目的,但也存在产生错误、不准确、有偏见或不完整陈述的风险,这些风险可能会对使用此类信息做出健康决定的人造成伤害。此外,LMM 可能接受过质量差或有偏见的数据训练,无论是按种族、族裔、血统、性别、性别认同还是年龄。
指南还详细说明了卫生系统面临的更广泛的风险,例如表现最佳的 LMM 的可及性和可负担性。LMMS 还可能鼓励医疗保健专业人员和患者产生“自动化偏见”,从而忽略本应发现的错误,或者将困难的选择不正确地交给 LMM。与其它形式的 AI 一样,LMM 也容易受到网络安全风险的影响,这些风险可能危及患者信息或这些算法的可信度以及更广泛的医疗保健服务。
为了创建安全有效的 LMM,WHO 强调,需要政府、技术公司、医疗保健提供者、患者和公民社会等各利益攸关方参与此类技术开发和部署的各个阶段,包括其监督和法规。
主要建议
WHO 的指南中包括对各国政府的建议,因为各国政府在制定 LMM 的开发和部署标准,以及将其整合到公共卫生和医疗目的方面负有主要责任。例如,政府应:
- 投资或提供非营利或公共基础设施,包括公共、私营和非营利部门的开发人员可以访问的计算能力和公共数据集,这些基础设施要求用户遵守伦理原则和价值观,以换取使用权。
- 利用法律、政策和法规来确保医疗保健和医学中使用的 LMM 和应用程序,无论与 AI 技术相关的风险或利益如何,均符合影响个人尊严、自主权或隐私等方面的伦理义务和人权标准。
- 在资源允许的情况下,指派现有的或新的监管机构来评估和批准计划用于医疗保健或医药学的 LMM 和应用程序。
- 当大规模部署 LMM 时,引入强制性的发布后审计和影响评估,包括由独立第三方进行的数据保护和人权评估。审计和影响评估应予以公布,并应包括按使用者类型分类的结果和影响,例如按年龄、种族或残疾人。
指南还包括对 LMM 开发人员的以下主要建议,开发人员应确保:
- LMM 不仅由科学家和工程师设计。潜在用户和所有直接和间接利益攸关方,包括医疗服务提供者、科研人员、医疗保健专业人员和患者,应从 AI 开发的早期阶段就参与其中,并有机会提出伦理问题、表达担忧和为正在考虑的AI应用提供意见。
- LMM 旨在以必要的准确性和可靠性执行明确定义的任务,以提高医疗卫生系统的能力并改善患者利益。开发人员还应能够预测和了解潜在的次要结果。
作者:识林-蓝杉
识林®版权所有,未经许可不得转载
|