首页
>
资讯
>
行业团体呼吁 FDA 采用基于风险的方法监管 AI-ML 并强调透明度
出自识林
行业团体呼吁 FDA 采用基于风险的方法监管 AI-ML 并强调透明度
2023-08-14
行业团体和研究人员呼吁美国 FDA 与其他监管机构协调一致,与自己的专家协调,并在考虑在开发中如何透明地使用人工智能和机器学习(AI/ML)工具时采用基于风险的方法。
FDA 于 5 月 10 日发布了题为“在药品和生物制品研发中使用人工智能和机器学习”的讨论文件 ,就 AI/ML 在药物开发 中的机遇和挑战,以及打算与药物一起使用的伴随医疗器械 的机遇和挑战,向公众展开为期三个月的反馈意见征求期。一些组织和个人希望 FDA 敦促采取基于风险的方法来监管此类工具。
国际制药工程学会(ISPE)表示,透明度是一个“主要障碍”,因为最终用户不了解 AI/ML 软件在其整个生命周期中是如何进行训练、验证和更新的。ISPE 补充指出,最终用户必须信任输入和输出数据之间的关系才能发挥作用。
ISPE 表示,重要的是,AI/ML 软件的训练和操作方式必须透明,并且应该以最终用户可以理解其工作原理的方式进行描述。ISPE 还表示,软件还应该对其运行原理以及在输出结果时使用多少外部信息保持透明。
在强调透明度的必要性的同时,ISPE 还表示,FDA 在确定操作 AI/ML 软件需要多少人为参与时,应使用基于风险的方法。“人类参与的程度应该与 AI/ML 模型的利用率和风险成正比。为人类后续行动提供建议或可选方向的模型比做出决策的模型(例如与过程控制相关的决策)需要更少的人类参与。做出与产品质量、安全性或疗效(例如,批次放行)相关的独立决策的模型将具有最高水平的风险,因此需要最大程度的人类监督。”
生物技术创新组织(BIO)还评论了在监督用于开发新药和生物制品 的 AI/ML 软件时需要多大程度的透明度。其表示模型架构、数据源、验证、道德考虑和保障措施等要素的透明度都是 FDA 应该考虑的问题。
BIO 指出,“不同的利益相关者和不同的使用案例需要不同程度的透明度。例如,FDA 可能需要更高级别的透明度,而另一种级别的透明度可能更适合患者。为支持申办人 和监管机构之间的透明度,BIO 认为应该向监管机构传达一套全面的文档,作为整个 AI/ML 生命周期的审计追踪 。”
BIO 还希望 FDA 继续向利益相关者通报其正在开展的 AI/ML 相关项目的最新情况,并制定决策树或快速入门指南,以便他们知道在哪里解决与 AI/ML 相关的问题。
由学术计算研究人员组成的计算社区联盟 (CCC) 表示,AI/ML 软件所需的透明度水平应取决于其在药物开发过程中的使用方式。该联盟表示:“例如,如果人工智能用于配方优化,并且研究人员随后进行了实验验证,那么由于后续的实验工作,并不迫切需要高水平的透明度。但是,如果研究人员想要加快临床试验 的速度,就需要提高代码和数据的透明度,以证明更快的进度是合理的。”
CCC 联合签署人之一是东北大学计算机工程教授 Kevin Fu,他曾担任 FDA 器械和放射健康中心 (CDRH)医疗器械网络安全代理主任。他和共同签署人指出,FDA 已经在人工智能/机器学习方面拥有丰富的专业知识,包括 CDRH 的专业知识,并表示 FDA 应该利用这些专业知识来创建一个致力于跨中心制定人工智能/机器学习法规的计划。
CCC 表示,“AI/ML 正在迅速成为所有药物研发申请的一个普遍方面,因此我们认为,更重要的是关注与人工智能使用相关的对话,而不是孤立地看待这个问题。”
同样,BIO 表示 FDA 和其他机构应将其 AI/ML 标准与美国国家标准与技术研究所 (NIST) 制定的标准保持一致。BIO 补充表示,不同部门需要制定“高级原则和标准”,以便联邦政府所有机构达成共识。
ISPE 则更进一步,希望 FDA 确保其制定的 AI/ML 法规与其他监管机构和联邦机构保持一致。ISPE 表示,调整法规将有助于世界各地的药物开发商更容易地采纳 AI/ML模型。
ISPE 表示:“需要国际协调来推动 AI/ML 在先进药品制造中的使用。如果没有共同的监管方法,新技术的实施可能会受到限制,因为大多数药品制造都是国际化的。”
识林-蓝杉
识林® 版权所有,未经许可不得转载