制药企业希望更好地了解生成式人工智能(Generative AI,GAI)如何促进创新。早期采用者可以获得明显的优势,同时正确管理下面讨论的首要潜在风险。盛德律所的两名律师 Francesca Blythe 和 Steve McInerney 解释了应考虑的公司治理原则。
GAI 根据文本、图像、计算机代码或化学结构等输入创建新内容。GAI 有潜力改善制药公司的许多流程,例如加快药物发现和开发、增强医学成像/诊断以及简化临床试验。在积极利用制药公司持有的大量数据方面,还可能提供战略市场优势。
然而,这些优势必须与这个新领域的风险相平衡,特别是在公平、道德、隐私和网络安全方面。因此,希望使用 GAI 的制药公司应考虑实施 GAI 治理框架,以降低法律风险,确保合规性和负责任/道德地使用 GAI,并培养客户和患者的信任。这样的框架可能包括以下内容:
1. 遵守快速发展的 AI 立法和指南。这些范围从软法律原则或标准(例如,美国 NIST AI 风险管理框架以及医疗保健和隐私监管机构发布的各种指导文件)到规范性立法(例如,欧盟即将出台的 AI 法案)。制药公司应确定他们正在或将要遵守的框架,考虑他们对 GAI 的预期用途,然后相应地开发他们的 GAI 治理框架。
2. 考虑允许哪些类型的 GAI。从广义上讲,GAI 系统分为两类:“开放”系统和“封闭”系统。“开放”或公共 GAI 系统通常允许输入的任何数据用于进一步训练 GAI 算法。选择这种许可模式的制药公司应围绕允许人员输入的数据类型设置严格的护栏。制药公司可以转而选择或额外选择许可“封闭”系统,在该系统中公司输入的任何数据都不会公开披露,并且 GAI 算法将仅根据公司的数据进行训练。根据所采用的模型不同,风险可能有所不同。
3. 识别并记录可接受的使用案例。确定允许、禁止和限制使用 GAI 的具体活动,并将这些活动记录在内部 GAI 政策中。此类政策应:(a) 确定允许使用的具体 GAI 系统,(b) 确定可以输入的数据类型和可接受的数据来源,(c) 提供有关预期人工审查水平的指导以及何时/如何实施纠正措施,以及 (d) 确定其它技术、组织或外包措施。例如,至关重要的是,即使在封闭系统内,也要继续遵守对临床试验数据的保护。应定期审查和修改使用案例,并为人员提供明确的指导。
4. 就 GAI 的使用进行利益相关者咨询。建立一个由来自公司各个部门的代表组成的国际多学科团队,包括临床、监管事务、网络安全和隐私。考虑建立 AI 道德委员会并任命一名 AI 官。
5. 请注意 GAI 的任何意外后果。鉴于制药公司对 AI 的商业使用固有的敏感性,特别是在患者数据的背景下,至关重要的是要考虑到使用 GAI 带来的任何意外后果。为了减轻此类风险,应考虑利用影响评估来衡量和减轻伤害,并考虑是否需要遵循公平和道德框架。