首页
>
资讯
>
欧盟发布大语言模型 AI 辅助监管决策的指导原则
出自识林
2024-09-10
欧洲药品管理局(EMA)和药监机构首脑团体(HMA)于 9 月 9 日为其全体员工发布了在使用大语言模型(large language models,LLM)做出监管决策时应遵循的原则和建议 。
LLM 是一种生成式人工智能 (AI),其应用程序可以显著支持药品监管机构的任务和流程。无论是用于查询监管机构日常收到的大量文件,自动化知识/数据挖掘过程,还是作为日常管理任务中的虚拟 AI 助手 - LLM 都具有巨大的变革潜力。
但 LLM 也面临挑战,例如结果的可变性、返回不相关或不准确的回答(所谓的幻觉)以及潜在的数据安全性风险。
欧盟指出,指导原则的目的是让欧盟监管机构的工作人员了解这些应用程序的能力和局限性,以便他们能够有效地利用 LLM 的潜力,同时避免缺陷和风险。
指导原则包括使用 LLM 的一般伦理考量因素,来自多个参考来源,包括欧洲科学和新技术伦理小组(European Group on Ethics in science and new technologies,EGE)、高级专家组(High-Level Expert Group,HLEG)和学术界。伦理考量包括人的尊严、自主、法治、问责、保障、安全、透明度、非歧视、错误信息伤害和恶意使用等原则。
EMA 表示,“个人数据的保护也值得特别关注。虽然文件重点介绍了 LLM 的使用,但 LLM 中个人数据处理可能会在其开发、实施和使用过程中发生,但不一定是显而易见的。”
文件深入探讨了用户级别和组织级别的原则。在用户层面,EMA 指出利益相关者应确保数据负责任且安全地输入 LLM,不断学习如何有效使用 LLM,并咨询和报告 LLM 可能出现的问题。在组织层面,EMA 指出,应该有一些原则来定义如何安全和负责任地使用 LLM,通过提供适当的训练来最大化 LLM 的价值,并协作和分享经验。
EMA 表示,“考虑到人工智能快速变化的性质,以网络形式分享经验是关键,因为这样可以减少不确定性,促进更快地共识,并作为监管知识管理工具,帮助监管机构投资和实验。”
EMA 还指出,LLM 指导原则是 EMA 和 HMA 多年人工智能工作计划 的一部分,该工作计划于 2023 年开始,预计于 2028 年结束。EMA 指出,指导原则将根据需要定期更新,并计划于 9 月 13 日举行网络研讨会介绍该指导原则。
识林-Aspen
识林® 版权所有,未经许可不得转载
岗位必读建议:
RA(注册):必读。了解大型语言模型在药品注册中的应用和监管要求。 QA(质量管理):必读。掌握大型语言模型在质量保证过程中的合规性。 研发:必读。确保研发过程中使用的大型语言模型符合监管指南。 临床:必读。了解在临床研究中使用大型语言模型的指导原则。 工作建议:
RA:在注册文件中明确指出大型语言模型的使用情况及其合规性评估。 QA:监控大型语言模型在质量控制中的应用,确保数据的准确性和完整性。 研发:在研发报告中详细记录大型语言模型的使用细节,包括算法的选择和验证过程。 临床:在临床研究报告中包含大型语言模型的使用说明,以及对结果的影响分析。 文件适用范围: 本文适用于使用大型语言模型进行监管科学和药品监管活动的机构和个人。涉及的药品类型包括化学药、生物制品等,适用于创新药、仿制药、生物类似药等注册分类。发布机构为欧洲药品管理局(EMA),适用于跨国药企、Biotech公司、CRO和CDMO等企业类别。
文件要点总结:
合规性要求: 明确指出大型语言模型的使用必须遵守相关的法规和指导原则。数据保护: 强调在使用大型语言模型时,必须确保患者数据的隐私和安全。透明度和可解释性: 要求在使用模型时提供足够的透明度,并对模型的决策过程进行解释。模型验证: 规定了对大型语言模型进行严格验证的必要性,以确保其在监管活动中的可靠性。持续监控: 鼓励对大型语言模型的性能进行持续监控,以适应监管科学的发展。以上仅为部分要点,请阅读原文,深入理解监管要求。