美国 FDA 于 3 月 1 日发布了一份题为“药物生产中的人工智能”的讨论文件,为利益相关者提供信息并就新兴和先进制造技术的特定领域公开征求意见。讨论文件介绍了 FDA 药品审评与研究中心(CDER)与人工智能(AI)在制药生产中的应用相关的科学和政策专家确定的需要考虑的领域和政策制定。讨论文件包括一系列问题,以促进公众反馈。
讨论文件介绍了与 AI 在药品制造中的应用相关的领域,这些是 FDA 在评估现有的基于风险的监管框架时已确定需要考虑的领域。CDER 科学和政策专家通过对适用于批准使用 AI 技术制造的药物的现有监管要求的综合分析确定了这些领域。讨论文件中的考虑领域是 FDA 希望获得公众反馈的领域。FDA 在每个考虑领域后都列出了可能与之相关的现有法规要求和政策指南。
文件未涵盖其它需要考虑的领域,例如,由于对如何将现有法规应用于 AI 的含糊不清或缺乏 FDA 指南或经验可能导致的困难。讨论文件中提出的考虑领域侧重于根据新药申请(NDA)、简化新药申请(ANDA)或生物制品许可申请(BLA)上市销售的药品。
在这些环境中必须确保数据可靠性和数据质量。虽然 FDA 允许在制造商的适当监督下使用第三方的 CGMP 功能,但制造商与第三方之间的现有质量协议(例如,云数据管理)可能在管理 AI 在制造监测和控制的风险方面存在差距。在检查期间,这可能会给有关确保第三方创建和更新 AI 软件提供适当的数据安全保障措施方面带来挑战。
此外,由于管理第三方云数据和模型的复杂性,可能需要扩展用于记录管理证据收集的 FDA 检查方法。例如,云应用程序和过程控制之间的持续交互可能会使建立数据可追溯性的能力复杂化,产生潜在的网络安全漏洞,并需要评估现有程序以在检查期间监控数据可靠性漏洞。
可用于影响产品质量的模型开发和验证的行业标准和 FDA 指南有限,这可能会给建立特定用途模型的可信度带来挑战。
基础数据的稳健性决定了 AI 模型做出的决策。这会给模型开发和验证过程中避免意外偏差带来挑战。AI 模型还可以存储在针对特定用例的开发过程中获得的知识,然后将其应用于不同但相关的用例以加速模型开发。申请人和制造商可能需要清楚地了解如何将学习从一种人工智能模型转移到另一种人工智能模型的潜力纳入模型开发和验证。
随着 AI 方法变得越来越复杂,解释模型输入的变化如何影响模型输出变得更具挑战性。在这些情况下,申请者可能会面临定义验证模型和维持模型输出的可解释性以及对产品质量影响的标准的挑战。
确定何时可以将 AI 模型视为过程的既定条件可能具有挑战性。作为产品生命周期模型维护的一部分,确定模型变更监管通知的标准也可能具有挑战性。申请人可能需要明确:(a) 模型生命周期策略验证的期望和 FDA 在现场检查期间检查持续更新的 AI 控制模型的方法,以及 (b) 在 AI 模型引入的制造条件变更后建立产品可比性的期望,其是生物制品。
问题和反馈
为促进反馈,FDA 根据上面的考虑领域提出了一系列问题,包括:
1. 设想在药品制造中使用哪些类型的 AI 应用?
2. 当前监管框架是否还有其他方面(例如,上面未列出的方面)可能影响 AI 在药物制造中的实施并应由 FDA 考虑?