|
首页
>
资讯
>
FDA 部署“智能体式 AI”能力平台,鼓励员工自建智能体
出自识林
FDA 部署“智能体式 AI”能力平台,鼓励员工自建智能体
2025-12-03
FDA于12月1日宣布,其已面向全体员工部署了智能体式人工智能(Agentic AI)能力平台。FDA将此次部署视为其机构内部AI应用战略迈出的关键一步,旨在通过构建更复杂的AI工作流来协助处理多步骤任务,从而提升药品及医疗器械等受监管产品全生命周期管理的效率与科学性。
不是新Elsa,可能是很多个Elsa
FDA曾于5月宣布将全面推广AI工具,随后不到30天,就在6月初部署了一款基于大语言模型(LLM)的工具Elsa,但Elsa问世前后,FDA对其具体用途和效果均语焉不详,引发业界诸多质疑。最新通告中FDA分享了Elsa的一个数据:有超过70%内部员工自愿使用。
但此次发布的智能体式AI平台并非另一个Elsa,也不仅仅是一个AI智能体(AI Agent)。
在AI领域,AI智能体通常被定义为由 LLM 驱动、用于特定任务自动化的模块化系统。它们通过工具集成(Function Calling)、提示工程(Prompt Engineering)和增强的推理能力(如 ReAct)来执行明确定义的任务,定位为任务执行者。
而智能体式AI平台则代表了一种新的设计范式,其核心特征是多智能体协作、动态任务分解、持久化记忆和协调自治。它并非单个智能体的功能增强,而是由多个专业智能体组成的、能够完成复杂长期目标的协同系统。
基于上述定义,如果Elsa可以被视为是一个极简的智能体(例如仅仅用于一问一答),那么此次部署的智能体式AI平台有望“批量”构建更多更复杂的Elsa,乃至由Elsa们组成的虚拟项目组或部门(见题图)。
FDA正是这么考虑的。在新闻稿中,FDA称其同时启动了一项为期两个月的“智能体式AI挑战赛”。该赛事鼓励员工构建智能体式AI解决方案,并拟于2026年1月的FDA科学计算日(Scientific Computing Day)上进行演示。
按新闻稿所言,这些智能体将被用于会议管理、上市前审评、审评验证、上市后监测、检查和合规,以及行政功能。值得注意的是“审评验证”(review validation)的提法,未见于FDA其他文件。但顾名思义,似是用于验证审评人员(或AI)的审评结论。
人总是“在场”,也没用药企数据做训练
除了憧憬其效果,FDA谨慎强调,尽管智能体式AI平台能够通过规划、推理和执行多步骤行动以实现特定目标,此类系统还是嵌入了包括人类监督在内的内置指导原则(built-in guidelines,不知道所谓“内置”是否是通过预训练实现),以确保输出结果的可靠性。FDA还特别指出该工具对所有员工完全可选,采用自愿使用原则。这番强调,令编者联想到欧盟GMP《附录22人工智能》草案中提到的“人在回路”(HITL),此前一篇“周末杂谈”对此有些思考,可供读者参考。
监管机构运用AI,另一个绕不开的话题是数据安全和商业秘密保护。FDA还是明确指出,该智能体式AI平台构建于一个高安全性的政府云(GovCloud)环境之中。平台内的模型不会基于输入数据进行训练,也不会利用受监管行业提交的任何数据进行训练。
识林-实木
识林®版权所有,未经许可不得转载
适用岗位: - IT:负责计算机化系统和人工智能模型的技术实施和维护,确保系统的安全性和数据完整性。
- QA:监督人工智能模型在GMP环境中的使用,确保其符合质量标准和法规要求。
- 研发:参与人工智能模型的选择、训练、验证和测试,确保模型适用于研发流程。
- 生产:在生产过程中使用人工智能模型时,确保其符合生产标准和患者安全要求。
工作建议: - IT:与QA和研发团队合作,确保人工智能模型的技术实施符合GMP要求,包括数据保护和访问控制。
- QA:制定和审核人工智能模型的质量控制流程,包括测试数据的独立性和模型性能的监控。
- 研发:在模型开发过程中,与数据科学家合作,确保模型的训练和验证符合GMP原则。
- 生产:在使用人工智能模型辅助生产决策时,确保有适当的人员培训和监督机制,以符合HITL原则。
适用范围: 本文适用于欧盟GMP框架下,涉及使用人工智能模型的计算机化系统,特别是在药品和活性物质生产中对患者安全、产品质量或数据完整性有直接影响的关键应用。适用于通过数据训练而非显式编程获得功能的机器学习模型,不包括动态模型和生成性AI及大型语言模型。 文件要点总结: 本文强调了在GMP环境中使用人工智能模型时,必须确保模型的确定性输出和独立测试数据集,以保障患者安全、产品质量和数据完整性。文档详细阐述了模型的预期用途、验收标准、测试数据的选择和独立性、测试执行、可解释性和置信度等关键方面。特别指出,模型的验收标准不应低于其所替代流程的性能,且在测试中应避免使用生成性AI生成的数据。此外,文档还强调了模型操作中的变更控制、配置控制和系统性能监控的重要性,以及在人机交互环节中保持人类审查的必要性。这些要求旨在确保人工智能模型在GMP环境中的合规使用,同时保持其性能和安全性。 以上仅为部分要点,请阅读原文,深入理解监管要求。
|