首页
>
资讯
>
【周末杂谈】AI 在工厂应用的关键环节– HITL
出自识林
【周末杂谈】AI 在工厂应用的关键环节– HITL
2025-11-16
Ian Thrussell先生自编的,展示AI、GMP与HITL关系的生动小故事
【编者按】上周六的北京大学国际药物工程管理(IPEM)硕士项目2025年会 是连续第三年以AI 为主题。与前两年不同,今年的报告已不只是探索AI的应用,而是实实在在地将AI用在日常工作中。报告会覆盖的领域包括:药品生产、质量和合规管理,上市药品宣传和医院用药等。AI已经辅助的具体工作包括:生产质量领域的专业文档翻译、偏差调查 、变更管理 、年度报告 、GMP 迎检、合规回复等,以及创新药的竞品分析、宣传公号文、临床用药参考等。
在场的IPEM讲师、著名前英国和世卫组织GMP检查官Ian Thrussell先生,前后问了一连串的问题,但都围绕一个关键点,即AI是用来作为GMP管控一部分,还仅仅是为了降本增效。若是前者,就要考虑很多相关问题。会后,Thrussell先生,根据英国咨询师Martin Lush先生的原创,编了一个说明上述观点的生动小故事。笔者将其译为中文,附在后面,与大家分享。
为便于理解这个小故事,笔者先提供一点背景知识。
IPEM的美方设计师、曾担任FDA GMP项目主要负责工作的Nicholas Buhay先生曾说:“GMP is all about controls(GMP就是有关控制的)”。他进一步解释如下。若企业用信息技术仅仅是为了降本增效,而不是作为GMP控制的一部分,那就随便做。例如,SOP 是用手写的,打字机打的,还是用Word文档打印的,FDA不关心。若欲将信息技术作为GMP 控制的一部分,例如:自动生成检测记录,那就要确保过程可验证 、可追踪、可…,就要满足一系列严格的监管要求。
虽然Buhay先生的这番话是20年前针对信息技术说的,但今天对AI技术也应适用,毕竟创立GMP法规时的初衷之一就是技术中立(technology neutral)。
Ian Thrussell先生的小故事,经翻译和剪辑,简述如下。
当检查人员敲门而入时,他们不是来审查你的AI的,他们是来审查你的
一位压力深重的质量受权人(QP) 露西给我打了个电话 – 她所在的工厂一直在使用AI:高压灭菌器的预测性维护、环境监测 数据的趋势分析、偏差 聚类等等,不胜枚举。
露西为什么压力深重?因为她完全不了解AI系统的设计、验证或监控。当她质疑风险时,得到的答复却是:“别担心,你是我们的‘人工介入’(Human-in-the-Loop,HITL),我们系统的安全保障。”
她与其说是系统安全保障,不如说是方便的替罪羊!
看看英国和欧盟的法规是怎么说的。
欧盟AI法案和GMP指南附录22(草案) 明确:人为监控必须是真实、有效且有据可查的,而非象征性的。HITL必须全面了解AI,尤其是其不足的地方。
英国QP准则规定,QP对产品保障负有法律责任,不能委托给算法。QP有权质疑、推翻和记录各种决定,而不是对不理解的输出结果全盘照接。
如果 QP 被冠以HITL,却无法获得AI的基础数据、验证证据或预期指标,那工厂就不是在保护合规性,而是在制造监管风险和患者风险。
露西最担心的三件事是什么?
1. 问责失控。
2. 数据可靠性 (data integrity)风险:AI赋能设备(例如高压灭菌器)输出的数据会用于产品放行。如果没有审计跟踪 和验证 ,她如何证明满足ALCOA+ 要求?
3. 虚假的安全感。管理层将HITL视为安全保障,但未予充分的AI培训,此保障毫无价值。
我能想到的一些降低风险的初步建议如下。
建立HITL的能力框架:QP 和QA 人员需要接受AI 的专门培训,需要理解偏倚 、漂移和验证原则。能力必须经过评估,不能假设经过培训就行;
建立治理体系:组建一个跨部门的AI管理委员会(包括QA、IT和工程人员),负责审查AI生命周期 的管理:验证、再培训和预期指标。
若药监局明天来工厂检查,问:“请展示你们的QP如何对你们的AI系统做有效的监控。”
工厂能否过关?让QP承担全部责任?
HITL并非一句口号,而是一套控制、培训和治理体系。缺少这套体系,HITL就会变成一个陷阱,使QP面临难以接受的个人和职业风险。
如果你和露西一样压力很大,你会怎么办?
识林-榆木疙瘩
识林® 版权所有,未经许可不得转载
适用岗位:
IT :负责计算机化系统和人工智能模型的技术实施和维护,确保系统的安全性和数据完整性。QA :监督人工智能模型在GMP环境中的使用,确保其符合质量标准和法规要求。研发 :参与人工智能模型的选择、训练、验证和测试,确保模型适用于研发流程。生产 :在生产过程中使用人工智能模型时,确保其符合生产标准和患者安全要求。工作建议:
IT :与QA和研发团队合作,确保人工智能模型的技术实施符合GMP要求,包括数据保护和访问控制。QA :制定和审核人工智能模型的质量控制流程,包括测试数据的独立性和模型性能的监控。研发 :在模型开发过程中,与数据科学家合作,确保模型的训练和验证符合GMP原则。生产 :在使用人工智能模型辅助生产决策时,确保有适当的人员培训和监督机制,以符合HITL原则。适用范围: 本文适用于欧盟GMP框架下,涉及使用人工智能模型的计算机化系统,特别是在药品和活性物质生产中对患者安全、产品质量或数据完整性有直接影响的关键应用。适用于通过数据训练而非显式编程获得功能的机器学习模型,不包括动态模型和生成性AI及大型语言模型。
文件要点总结: 本文强调了在GMP环境中使用人工智能模型时,必须确保模型的确定性输出和独立测试数据集,以保障患者安全、产品质量和数据完整性。文档详细阐述了模型的预期用途、验收标准、测试数据的选择和独立性、测试执行、可解释性和置信度等关键方面。特别指出,模型的验收标准不应低于其所替代流程的性能,且在测试中应避免使用生成性AI生成的数据。此外,文档还强调了模型操作中的变更控制、配置控制和系统性能监控的重要性,以及在人机交互环节中保持人类审查的必要性。这些要求旨在确保人工智能模型在GMP环境中的合规使用,同时保持其性能和安全性。
以上仅为部分要点,请阅读原文,深入理解监管要求。