替换
查找内容:
替换为:
全部替换
插入链接
链接网址:
链接显示标题:
请选择网址类型
点我插入链接
插入文件
文件名称:
文件显示标题:
请选择文件类型
点我插入文件
发现错误 发表观点

原文内容

反馈意见

提交 正在提交..... 反馈历史

复制下面的地址分享给好友

确定 正在提交.....
train

你好,

关闭
提交 重做 重新开始 关闭
跳转
  • 新建同级
  • 新建子级
  • 删除
  • 重命名
选择收藏夹
新建收藏夹
公开

取消 确定

1. 基本信息
姓名:
企业:
职位:
联系方式:
邮箱:
2. 请在此填写您的问题,我们将优先安排答疑
提交

报名成功!
课程观看链接如下:
请添加课程助理微信,获得更多信息:
确认
确定
取消 确认

识林

  • 知识
  • 视频
  • 社区
  • 政策法规
    • 国内药监
    • FDA
    • EU
    • PIC/S
    • WHO
    • ICH
    • 英国MHRA
    • 日本PMDA
    • 加拿大HC
    • 澳大利亚TGA
    • 新加坡HSA
    • 瑞士Swissmedic
    • 韩国MFDS
    • 沙特阿拉伯SFDA
    • 巴西ANVISA
  • 研发注册
    • 概览
    • 监管动态
    • 研究专题
  • 生产质量
    • 概览
    • 监管动态
    • 各国GMP
    • 中国GMP
    • 中国GMP指南(第二版)
    • GMP对比
    • 检查缺陷
    • 研究专题
  • 主题词库
  • 帮助中心
  • 关于识林
    • 识林介绍
    • 识林FAQs
    • 功能介绍
    • 团队诊断
    • 联系我们
  • 30天免登录

    忘记密码?

白宫发布 AI 政策总纲,灵活监管以保全球领先

首页 > 资讯 > 白宫发布 AI 政策总纲,灵活监管以保全球领先

页面比对

出自识林

白宫发布 AI 政策总纲,灵活监管以保全球领先
页面比对
笔记

2026-03-24

跳转到: 导航, 搜索
*截取自文件封面

3月20日,美国白宫发布《国家人工智能政策框架》(National Policy Framework for Artificial Intelligence, NPFAI)立法建议文件,旨在确立统一的人工智能(Artificial Intelligence, AI)联邦政策框架,消除各州监管标准不一产生的碎片化现象,确立美国在 AI 领域的全球主导地位。

2024年,欧盟率先立法监管AI,随后发布首份AI GMP,但美国选择了另一条道路,在特朗普的多份以促进为导向的行政令指导下,美国一直未对AI制定联邦法律。FDA更多在内部推动AI应用,仅在2025年1月发布指南草案,但对行业的监管细则仍不明确。2026年1月,FDA联合EMA发布GAiP十项指导原则,避谈细枝末节,意图在监管和创新之间找到平衡。读者可阅读《从2025看2026:制药业 AI 应用与监管的官方动态观察与展望》了解当前AI制药监管动态。

这份NPFAI是本届美国政府迄今为止AI监管思路的集大成,尽管尚待漫长繁杂的立法流程,读者从中也可窥见制药行业与AI融合的风险与机会。

联邦优先权:统一“国标”,集中立法,AI开发商无连带责任

NPFAI 第七部分详细阐述了联邦优先权(Federal Preemption)的确立原则。美国政府认为,AI 开发具有跨州属性,并涉及外交政策与国家安全,不属于各州监管范畴。白宫对国会的建议包括:

  • 美国国会应制定负担最小化的统一的国家标准,并优先于施加不当负担的各州 AI 法律。此举旨在避免企业面临多个互不协调的合规要求。
  • 联邦优先权禁止各州监管 AI 开发行为。各州不得对使用 AI 开展合法活动的行为施加额外负担。同时,法律禁止各州因第三方利用 AI 模型从事违法行为而惩罚 AI 开发商。
  • 除此之外,国会应允许各州保留执行具有普遍适用性的传统警察权力(Traditional Police Powers),包括保护儿童、预防欺诈及保护消费者等法律。此外,各州政府保留决定 AI 基础设施(如数据中心)选址的分区权力。此外,各州政府可自行规定其自身在采购或提供执法、公共教育等服务时使用 AI 的要求。

从制药业角度,联邦优先权的确立利好跨州临床试验。它旨在防止各州政府利用地方性 AI 法规或数据隐私条款对算法临床决策设置准入门槛,促进全美范围内临床数据的合规互认。统一的国家标准消除了企业在多州开展数字化临床研究时必须面对的“补丁式”合规压力。此外,AI开发商规避了连带责任,也意味着药企可能对AI造成的损失负有全责。

赋能创新:监管沙盒、分享国家数据、不设专管机构

NPFAI 第五部分聚焦于消除创新障碍,确保美国在 AI 领域的领先地位。该框架明确拒绝设立新的联邦机构,主张依托现有行业监管机构开展治理。白宫对国会的建议包括:

  • 国会应建立 AI 应用监管沙盒(Regulatory Sandboxes)。该机制旨在提供受控的测试环境,通过容错机制激发技术创新,加速 AI 系统的部署与应用。
  • 开放联邦数据集:国会应提供资源,将联邦数据集转化为 AI 就绪格式(AI-ready Formats)。这些数据将向工业界与学术界开放,用于 AI 模型与系统的训练。
  • NPFAI 明确反对创建新的联邦机构来监管 AI。该框架建议通过具有专业知识的现有监管机构,结合行业主导的标准(industry-led standards),支持特定领域的 AI 应用。

这意味着FDA将继续作为制药 AI 的核心监管者,并获得更大的裁量权。对于行业而言,监管沙盒为基于 AI 的全生命周期应用提供了合规试点空间,允许企业在受控环境下测试前沿技术。另外耐人寻味的是,美政府明确强调AI监管应结合“行业主导的标准”,这也许意味着FDA不会给出过于具体的验证或确认的细则。

合理保护知识产权:版权数据可用于训练、集体授权、严控“数字人”

NPFAI 第三部分聚焦于平衡创作者权益与技术创新,旨在建立一个既能保护美国知识产权,又不削弱合法创新与表达自由的法律环境。该框架主张通过司法判例与市场化机制解决 AI 训练中的版权争议。白宫对国会的建议包括:

  • 政府认为在受版权保护的材料上训练 AI 模型不违反版权法。框架明确支持由法院通过司法途径解决此类争议,并建议国会不应采取任何干预司法判定“合理使用(Fair Use)”的行动。
  • 国会应考虑建立授权框架或集体权利制度,允许权利持有人集体与 AI 供应商谈判补偿方案,且不产生反垄断法律责任。此类立法仅提供谈判机制,不应强制规定何时或是否必须进行许可。
  • 国会应建立联邦框架,防止未经授权分发或商业化利用 AI 生成的数字副本(Digital Replicas),保护个人的声音、肖像及其他可识别属性。但该框架需为讽刺、模仿、新闻报道等受第一修正案保护的表达性作品提供明确豁免,防止其被滥用于压制在线言论自由。

“合理使用”机制为利用海量已发表论文、蛋白质结构数据和专利文本训练垂直领域大生物模型提供了政策安全港。制药企业在药物早期发现阶段整合外部数据资产的法律门槛显著降低。不过“数字副本”保护制度可能对“临床数字孪生”等应用来带一定合规约束。

其它领域政策:强调儿童保护,加强职业教育,支持AI基建以及AI言论自由

除了上述章节,NPFAI 还涵盖了以下内容:

  • 儿童保护与家长授权:要求 AI 平台采取商业合理的年龄验证措施,并实施预防功能防止对未成年人的伤害。
  • 建议采取非监管手段将 AI 培训纳入现有的教育计划,并扩大对 AI 驱动的工作调整趋势的研究,为劳动力市场做好准备。
  • 社区与能源保障:要求确保居民电费不会因 AI 数据中心建设而上涨。同时提议简化联邦许可流程,支持 AI 基础设施建设。
  • 禁止联邦政府(也就是发文者自身)强制技术供应商基于党派或意识形态议程禁止或篡改内容。

识林-实木

识林®版权所有,未经许可不得转载

适用岗位:

  • IT:负责计算机化系统和人工智能模型的技术实施和维护,确保系统的安全性和数据完整性。
  • QA:监督人工智能模型在GMP环境中的使用,确保其符合质量标准和法规要求。
  • 研发:参与人工智能模型的选择、训练、验证和测试,确保模型适用于研发流程。
  • 生产:在生产过程中使用人工智能模型时,确保其符合生产标准和患者安全要求。

工作建议:

  • IT:与QA和研发团队合作,确保人工智能模型的技术实施符合GMP要求,包括数据保护和访问控制。
  • QA:制定和审核人工智能模型的质量控制流程,包括测试数据的独立性和模型性能的监控。
  • 研发:在模型开发过程中,与数据科学家合作,确保模型的训练和验证符合GMP原则。
  • 生产:在使用人工智能模型辅助生产决策时,确保有适当的人员培训和监督机制,以符合HITL原则。

适用范围:
本文适用于欧盟GMP框架下,涉及使用人工智能模型的计算机化系统,特别是在药品和活性物质生产中对患者安全、产品质量或数据完整性有直接影响的关键应用。适用于通过数据训练而非显式编程获得功能的机器学习模型,不包括动态模型和生成性AI及大型语言模型。

文件要点总结:
本文强调了在GMP环境中使用人工智能模型时,必须确保模型的确定性输出和独立测试数据集,以保障患者安全、产品质量和数据完整性。文档详细阐述了模型的预期用途、验收标准、测试数据的选择和独立性、测试执行、可解释性和置信度等关键方面。特别指出,模型的验收标准不应低于其所替代流程的性能,且在测试中应避免使用生成性AI生成的数据。此外,文档还强调了模型操作中的变更控制、配置控制和系统性能监控的重要性,以及在人机交互环节中保持人类审查的必要性。这些要求旨在确保人工智能模型在GMP环境中的合规使用,同时保持其性能和安全性。

以上仅为部分要点,请阅读原文,深入理解监管要求。

【文件概要】

该文件由FDA与EMA联合发布,提出人工智能(AI)在药物开发中应用的10项核心原则(GAiP),涵盖非临床、临床、上市后及生产阶段。原则强调以人为本的设计、基于风险的方法、合规性、明确应用场景、多学科协作、数据治理、模型开发规范、性能评估、生命周期管理及信息透明性。文件旨在为AI技术的开发、部署和维护提供框架,确保其输出结果的可靠性,同时支持创新、缩短研发周期、优化监管决策并减少动物试验依赖。文件明确需遵循GxP要求,并呼吁国际合作以推动标准协调,为未来监管指南提供参考。

【适用范围】

本文适用于化学药、生物制品及先进疗法(ATMPs)等全类型药品的开发阶段,涉及创新药、仿制药及生物类似药。发布机构为FDA与EMA,适用企业包括跨国药企、Biotech、CRO及CDMO等涉及AI技术应用的机构。

【影响评估】

本文为AI在药物开发中的质量管理提供首个国际共识框架,可能加速AI工具在临床试验、生产及监管决策中的整合。企业需调整现有流程以满足原则要求,尤其在数据治理、模型验证及生命周期管理方面,可能增加合规成本,但长期可提升研发效率与监管接受度。

【实施建议】

  • 必读岗位:
    • 注册:评估AI应用对申报资料的影响,确保符合监管要求。
    • 研发:整合原则1-7至AI模型开发,强化数据治理与模型可解释性。
    • QA:建立基于原则9的生命周期监控体系,定期评估AI性能漂移。
    • 临床:依据原则8设计风险性能评估方案,优化人机交互流程。
    • 生产:应用原则6-7确保AI驱动的GMP环节数据可追溯。

以上仅为部分要点,请阅读原文,深入理解监管要求。

取自“https://lib.shilinx.com/wiki/index.php?title=%E7%99%BD%E5%AE%AB%E5%8F%91%E5%B8%83_AI_%E6%94%BF%E7%AD%96%E6%80%BB%E7%BA%B2%EF%BC%8C%E7%81%B5%E6%B4%BB%E7%9B%91%E7%AE%A1%E4%BB%A5%E4%BF%9D%E5%85%A8%E7%90%83%E9%A2%86%E5%85%88”
上一页: 美众议院听证会聚焦中国生物技术产业挑战
下一页: 国内药政每周导读:肿瘤药基于后线的前线研究,全合成多肽仿制路径,新生儿低龄儿剂量,乙类非处方药确定原则
相关内容
热点新闻
  • 【直播预告】2026年2月全球法...
  • FDA 发483回复指南:从内容,...
  • 为诠释“新 CTD”,ICH 发布...
  • 【周末杂谈】对 FDA 警告信...
  • 不用再“猜”处方,美仿制药 Q...

 反馈意见

Copyright ©2011-2026 shilinx.com All Rights Reserved.
识林网站版权所有 京ICP备12018650号-2 (京)网药械信息备字(2022)第00078号
请登录APP查看
打开APP