人工智能(AI)是指以技术编码的算法从数据中学习的能力,以使其可以执行自动化任务,而无需人工明确编程流程中的每个步骤。WHO 认识到 AI 在公共卫生和医药实践方面具有广阔前景。WHO 还认识到,要充分利用 AI 的好处,必须解决医疗保健体系、从业人员以及医疗和公共卫生服务受益人面临的伦理挑战。WHO 指出,报告中描述的许多伦理问题早于 AI 的出现,但人工智能本身提出了许多新的问题。
指南文件由 WHO 卫生研究部的卫生伦理和管治团队以及数字卫生与创新部联合编写,基于 WHO 医疗 AI 伦理和管治专家组的集体意见,专家组由 20 名公共卫生、医学、法律、人权、技术和伦理方面的专家组成。专家组分析了 AI 的许多机遇和挑战,并推荐了将人工智能用于医疗健康的伦理使用政策、原则和做法,以及避免滥用 AI 损害人群和法律权益的方法。
用于医疗卫生的 AI 受到新冠(COVID-19)大流行的影响。虽然大流行并不是指南的重点,但说明了与医疗卫生 AI 相关的机遇和挑战。应对大流行的一些应用程序引发了与监视、侵犯隐私和自主权、健康和社会不平等以及数据密集型应用程序信任和合法使用所需条件有关的伦理问题。在指南报告审议期间,专家组成员还编写了 WHO 临时指南,用于指导新冠接触者近距离追踪应用程序。
保护人类自主权。AI 的使用可能导致决策权可以转移到机器的情况。自主原则要求使用 AI 或其它计算系统不会破坏人类的自主性。在医疗保健方面,这意味着人类应该继续控制医疗保健系统和医疗决策。尊重人类自主权还需要相关职责,以确保提供者安全、有效使用 AI 系统所需的信息,并确保人们了解此类系统在他们的护理中发挥的作用。还要求通过适当的数据保护法律框架保护隐私和保密性并获得有效的知情同意。
促进人类福祉和安全以及公共利益。AI 技术不应该伤害人类。AI 技术的设计者应符合明确定义的使用案例或适应症的安全性、准确性和有效性的监管要求。应提供实践中的质量控制措施和随着时间的推移 AI 使用的质量改进。预防伤害要求 AI 不会导致可以通过使用替代实践或方法避免的精神或身体伤害。
确保透明度、可解释性和可理解性。AI 技术应该为开发者、医疗专业人员、患者、用户和监管机构所理解或了解。提高 AI 技术的透明度和使 AI 技术具有可解释性是两种广泛的增强可理解性方法。透明度要求在设计或部署 AI 技术之前发布或记录足够的信息,并且此类信息有助于就技术的设计方式、应该或不应该以及如何使用进行有意义的公众咨询和辩论。AI 技术应该根据其面对的解释对象的理解能力进行解释。
培育责任和问责制。人类需要对系统可以执行的任务以及它们可以实现所需性能的条件进行清晰、透明的规范。尽管 AI 技术执行特定任务,但利益相关者有责任确保其能够执行这些任务,并确保在适当条件下由经过适当培训的人员使用 AI。责任可以通过应用“人为维护(human warranty)”来保证,这意味着患者和临床医生在 AI 技术的开发和部署中进行评估。人工维护需要通过建立人工监督点来应用算法上游和下游的监管原则。如果 AI 技术出现问题,就应该追究责任。对于受到基于算法决定的不利影响的个人和群体,应该有适当的机制来进行质疑和纠正。
确保包容性和公平性。包容性要求医疗卫生 AI 被设计用于鼓励尽可能广泛地适当、公平地使用和获取,而不论年龄、性别、收入、种族、民族、性取向、能力或受人权法保护的其它特征。与任何其他技术一样,AI 技术应该尽可能广泛地共享。AI 技术不仅应可用于高收入环境中的环境和需求,还应可用于中低收入国家的环境和能力以及多样性。AI 技术不应该对可识别群体,尤其是已经被边缘化的群体不利的偏见进行编码。偏见是对包容性和公平的威胁,因为其可能导致对平等待遇的背离。AI 技术应该最大限度地减少在提供者和患者之间、决策者和民众之间以及创建和部署 AI 技术的公司和政府与使用或依赖 AI 技术的公司和政府之间不可避免的权力差距。应监控和评估 AI 工具和系统,以确定对特定人群的不成比例影响。任何技术,无论是 AI 还是其它技术都不应维持或恶化现有形式的偏见和歧视。
促进具有响应性和可持续性的人工智能。响应性要求设计者、开发者和用户在实际使用过程中持续、系统和透明地评估 AI 应用程序。他们应该确定 AI 是否根据沟通的、合法的期望和要求做出充分和适当的响应。响应能力还要求 AI 技术与卫生系统、环境和工作场所的可持续性的更广泛促进保持一致。AI 系统的设计应尽量减少其对环境的影响并提高能源效率。也就是说,AI 的使用应符合全球减少人类对地球环境、生态系统和气候影响的努力。可持续性还要求政府和公司解决工作场所的预期中断,包括培训医护人员以适应 AI 系统的使用,以及由于使用自动化系统而导致的潜在失业。
指南概览
指南分为九个章节和一个附件。第一章解释了 WHO 参与该主题的利益以及报告发现、分析和建议的预期读者。第二章和第三章通过其方法和应用定义了用于医疗卫生的 AI。第二章提供了 AI 的非技术定义,还定义了“大数据”。第三章提供了医疗卫生 AI 的非全面分类和示例。第四章总结了适用或可能适用于医疗卫生 AI 的法律、政策和原则。第五章详细介绍了专家组确定的上述六项伦理原则,用于指导医疗卫生 AI 的开发和使用。第六章介绍了专家组确定和讨论的这些指导性伦理原则适用的伦理挑战。第七章研究了各利益相关者如何引入伦理实践、计划和措施来预测或满足伦理规范和法律义务。第八章讨论了责任制度如何随着医疗卫生中 AI 的使用增加而演变。第九章介绍了医疗卫生 AI 的管治框架要素。最后,报告为三类利益相关者提供了实施 WHO 指南的使用建议,这三类利益相关者包括 AI 技术开发者、卫生部门以及医疗保健提供者。
WHO 指出,医疗卫生 AI 是一个快速、不断发展的领域,WHO 可能会考虑发布针对其它工具和应用的具体指南,并可能定期更新该指南。