首页
>
资讯
>
欧盟更新药物开发中的人工智能思考性文件
出自识林
2024-10-02
欧洲药品管理局(EMA)于 9 月 30 日更新了《关于人工智能(AI)在药品生命周期中的使用的思考性文件》 ,根据利益相关者提交的反馈意见澄清并提供了有关该文件范围的更多信息。更新后的文件还包括根据最近通过的欧盟人工智能法案进行的一些修订。
EMA 于去年 7 月份发布了该思考性文件的征求意见稿 ,之后收到了来自 66 个利益相关者(包括监管机构和公共财团)的反馈。根据收到的 1342 条反馈意见,EMA 决定更新该文件的关键部分。
EMA 表示,总体而言,一些反馈意见提出了一些话题或要求提供一定程度的规范性细节,而这些细节无法在关于人工智能使用的初步思考性文件中得到满足。这些意见将在未来人工智能领域正式的 EMA 科学指南起草的过程中予以考虑。
EMA 补充指出,“根据反馈意见,技术术语和定义已尽可能统一,并且扩展了术语表。”此外,思考性文件的范围得到进一步明确,不排除浅层机器学习技术,这方面的机器学习可能具有思考性文件中所涉及的许多功能和挑战。
浅层机器学习通常称为传统机器学习,在神经网络中使用的抽象级别比深度机器学习更少。浅层学习模型用于更简单的任务,而深度机器学习则用于识别捕获数据中更复杂的关系。
思考性文件使用了经济合作与发展组织(OECD)制定的人工智能的定义,指出“人工智能系统是一种基于机器的系统,旨在以不同程度的自主性运行,并且在部署后可能表现出适应性,例如,对于明确或隐含目标,从接收到的输入推断如何生成可能影响物理或虚拟环境的预测、内容、建议或决策的输出。在这篇思考性文件中,术语人工智能/机器学习(AI/ML)用于涵盖通过机器学习过程开发的所有模型,无论具体的模型架构如何。”
EMA 还指出,在《人工智能法案》附件 3 包含如何定义高风险人工智能的具体内容后,思考性文件修订了人工智能产品的风险定义。更具体地说,EMA 将“高风险”一词替换为“高监管影响”和“高患者风险”,以澄清与思考性文件相关的大多数人工智能监管要求都是基于欧盟立法。
例如,在开发人工智能模型的部分中,文件现在指出,如果在具有高监管影响或高患者风险的医药产品生命周期 中使用第三方人工智能模型或服务,则软件开发人员应使用方法学认证过程提供特定使用背景。
EMA 表示,“为了回应反馈意见,我们进一步澄清了建模中使用的数据的可用性要求、第三方人工智能系统的使用以及机器学习模型前瞻性测试的需要。思考性文件中的关键信息仍然是,虽然认识到人工智能技术有潜力改善医药产品生命周期的许多方面(如果不是所有方面),但绝不能因新技术的引入而损害监管机构、支付方和患者信任。”
识林-苜蓿
识林® 版权所有,未经许可不得转载。
适用岗位:
RA (注册):必读。应关注AI在药品注册流程中的应用和要求。R&D (研发):必读。需理解AI在药物研发中的使用及其对研究数据的影响。QA (质量管理):必读。需掌握AI技术在质量控制中的应用和合规性。IT (信息技术):必读。需了解AI技术在药品生命周期中的集成和数据安全要求。工作建议:
RA :评估AI技术在注册文件中的使用,确保符合EMA的最新指南。R&D :在研发过程中整合AI技术,同时确保数据的完整性和可靠性。QA :监控AI系统的性能,确保其符合GMP要求。IT :确保AI系统的安全性和数据保护符合法规要求。适用范围: 本文适用于所有在欧洲药品生命周期中使用人工智能技术的化学药、生物制品、疫苗和中药。适用于Biotech、大型药企、跨国药企、CRO和CDMO等各类企业。
文件要点:
AI技术应用: 明确了AI在药品生命周期中的应用,包括研发、生产、质量控制和监管决策。数据管理: 强调了使用AI时数据的质量和完整性的重要性。监管要求: 规定了AI系统必须遵守的监管要求,包括透明度和可追溯性。风险管理: 鼓励使用AI的企业进行风险评估和管理。伦理和患者安全: 特别强调了在AI应用中保护患者隐私和安全的重要性。以上仅为部分要点,请阅读原文,深入理解监管要求。