• 知识
  • 视频
  • 社区
  •  首页
政策法规
  •  国内药监
  •  FDA
  •  EU
  •  PIC/S
  •  WHO
  •  ICH
  •  MHRA
  •  PMDA
  •  TGA
研发注册
  •  概览
  •  监管动态
  •  研究专题
生产质量
  •  概览
  •  监管动态
  •  各国GMP
  •  中国GMP
  •  中国GMP指南
  •  GMP对比
  •  检查缺陷
  •  研究专题
主题词库
  •  主题词库
帮助中心
  •  帮助中心
关于识林
  •  识林介绍
  •  识林FAQs
  •  功能介绍
  •  团队诊断
  •  联系我们
登录
  •  登录
  •  注册
替换
查找内容:
替换为:
全部替换
插入链接
链接网址:
链接显示标题:
请选择网址类型
点我插入链接
插入文件
文件名称:
文件显示标题:
请选择文件类型
点我插入文件
发现错误 发表观点

原文内容

反馈意见

提交 正在提交..... 反馈历史

复制下面的地址分享给好友

确定 正在提交.....
train

你好,

关闭
提交 重做 重新开始 关闭
跳转
  • 新建同级
  • 新建子级
  • 删除
  • 重命名
选择收藏夹
新建收藏夹
公开

取消 确定

1. 基本信息
姓名:
企业:
职位:
联系方式:
邮箱:
2. 请在此填写您的问题,我们将优先安排答疑
提交

报名成功!
课程观看链接如下:
请添加课程助理微信,获得更多信息:
确认
确定

  • 知识
  • 视频
  • 社区
  • 政策法规
    • 国内药监
    • FDA
    • EU
    • PIC/S
    • WHO
    • ICH
    • MHRA
    • PMDA
    • TGA
  • 研发注册
    • 概览
    • 监管动态
    • 研究专题
  • 生产质量
    • 概览
    • 监管动态
    • 各国GMP
    • 中国GMP
    • 中国GMP指南
    • GMP对比
    • 检查缺陷
    • 研究专题
  • 主题词库
  • 帮助中心
  • 关于识林
    • 识林介绍
    • 识林FAQs
    • 功能介绍
    • 团队诊断
    • 联系我们
  • 30天免登录

    忘记密码?

识林

WHO 发布多模态大模型的 AI 伦理与治理指南

首页 > 资讯 > WHO 发布多模态大模型的 AI 伦理与治理指南

页面比对

出自识林

WHO 发布多模态大模型的 AI 伦理与治理指南
AI
页面比对
笔记

2024-01-22

跳转到: 导航, 搜索

世界卫生组织(WHO)于 1 月 18 日发布了关于多模态大模型(LMM)的伦理和治理的新指南,LMM 是一种快速增长的生成式人工智能(AI)技术,可应用于整个医疗保健行业。

指南概述了40多条供政府、技术公司和医疗保健提供者考虑的建议,以确保适当使用 LMM 来促进和保护人群的健康。

LMM 可以接受一种或多种类型的数据输入,例如文本、视频和图像,并生成不限于输入数据类型的各种输出。LMM 在模仿人类交流以及执行未明确编程的任务方面是独一无二的。LMM 的应用速度比历史上任何消费者应用程序都要快,2023年有几个平台(例如ChatGPT,Bard和Bert)进入公众视野。

WHO首席科学家 Jeremy Farrar 博士表示:“生成式 AI 技术有可能改善医疗保健,但前提是开发、监管和使用这些技术的人识别并充分考虑相关风险。我们需要透明的信息和政策来管理 LMM 的设计、开发和使用,以取得更好的健康结果,并克服持续存在的健康不公平现象。”

WHO 的新指南概述了 LMM 在健康方面的五大应用:

  • 诊断和临床护理,例如,回复患者的书面询问;
  • 患者指导使用,例如,调查症状和治疗;
  • 文书和行政任务,例如,在电子健康记录中记录和总结患者就诊情况;
  • 医疗和护理教育,包括为受训人员提供模拟患者会诊,以及
  • 科学研究和药物开发,包括鉴定新的化合物。

虽然 LMM 开始用于特定的健康相关目的,但也存在产生错误、不准确、有偏见或不完整陈述的风险,这些风险可能会对使用此类信息做出健康决定的人造成伤害。此外,LMM 可能接受过质量差或有偏见的数据训练,无论是按种族、族裔、血统、性别、性别认同还是年龄。

指南还详细说明了卫生系统面临的更广泛的风险,例如表现最佳的 LMM 的可及性和可负担性。LMMS 还可能鼓励医疗保健专业人员和患者产生“自动化偏见”,从而忽略本应发现的错误,或者将困难的选择不正确地交给 LMM。与其它形式的 AI 一样,LMM 也容易受到网络安全风险的影响,这些风险可能危及患者信息或这些算法的可信度以及更广泛的医疗保健服务。

为了创建安全有效的 LMM,WHO 强调,需要政府、技术公司、医疗保健提供者、患者和公民社会等各利益攸关方参与此类技术开发和部署的各个阶段,包括其监督和法规。

主要建议

WHO 的指南中包括对各国政府的建议,因为各国政府在制定 LMM 的开发和部署标准,以及将其整合到公共卫生和医疗目的方面负有主要责任。例如,政府应:

  • 投资或提供非营利或公共基础设施,包括公共、私营和非营利部门的开发人员可以访问的计算能力和公共数据集,这些基础设施要求用户遵守伦理原则和价值观,以换取使用权。
  • 利用法律、政策和法规来确保医疗保健和医学中使用的 LMM 和应用程序,无论与 AI 技术相关的风险或利益如何,均符合影响个人尊严、自主权或隐私等方面的伦理义务和人权标准。
  • 在资源允许的情况下,指派现有的或新的监管机构来评估和批准计划用于医疗保健或医药学的 LMM 和应用程序。
  • 当大规模部署 LMM 时,引入强制性的发布后审计和影响评估,包括由独立第三方进行的数据保护和人权评估。审计和影响评估应予以公布,并应包括按使用者类型分类的结果和影响,例如按年龄、种族或残疾人。

指南还包括对 LMM 开发人员的以下主要建议,开发人员应确保:

  • LMM 不仅由科学家和工程师设计。潜在用户和所有直接和间接利益攸关方,包括医疗服务提供者、科研人员、医疗保健专业人员和患者,应从 AI 开发的早期阶段就参与其中,并有机会提出伦理问题、表达担忧和为正在考虑的AI应用提供意见。
  • LMM 旨在以必要的准确性和可靠性执行明确定义的任务,以提高医疗卫生系统的能力并改善患者利益。开发人员还应能够预测和了解潜在的次要结果。

作者:识林-蓝杉

识林®版权所有,未经许可不得转载

取自“https://lib.shilinx.com/wiki/index.php?title=WHO_%E5%8F%91%E5%B8%83%E5%A4%9A%E6%A8%A1%E6%80%81%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%9A%84_AI_%E4%BC%A6%E7%90%86%E4%B8%8E%E6%B2%BB%E7%90%86%E6%8C%87%E5%8D%97”
上一页: 国内药政每周导读:CDE发布干细胞非临床,抗肿瘤说明书,罕见病基因治疗临床等10份指南,专利补偿业务,上海局重点人员管理
下一页: FDA_发布2023年合规办公室年报
相关内容
相关新闻
  • WHO 称受污染止咳糖浆风险继...
  • WHO 疫情应对独立中期调查报...
  • WHO 用于预防传染病的 mRNA...
  • WHO 生物类似药问答指南草案...
  • WHO 第四次就印度产受污染止...
热点新闻
  • ICH 发布新 Q1 稳定性指南...
  • 学习 “药典文献汇编” 迎接...
  • 【直播】25年4月全球法规月报...
  • 国内无菌附录征求意见稿发布,...
  • 国内药政每周导读:工艺验证检...

 反馈意见

Copyright ©2011-2025 shilinx.com All Rights Reserved.
识林网站版权所有 京ICP备12018650号-2 (京)网药械信息备字(2022)第00078号
请登录APP查看
打开APP