Purcell 还提供了有关这些最佳实践应该是什么样子的一些见解。首先,“理想”的 AI 项目应该有一个由跨学科团体组成的数据治理小组,该小组不仅包括技术人员,还包括律师和监管专家,以及其他”了解 AI 监管治理的人。“项目还应包括负责任的 AI 问责政策、风险管理框架、AI/机器学习应用程序的中央存储库和算法存储库,以确保“我们都知道如何使用这项技术。”
另外,还应有一套通用的 AI 术语和分类法。Purcell 指出,诸如“验证”之类的常用术语可以在不同学科中使用。
Purnell 表示,这些最佳实践不必“从头开始”编写,而是可以结合其它政府机构和标准制定机构已经使用的现有方法。这可以包括美国国家标准与技术研究所(NIST)最近为 AI 制定的风险管理框架,以及为生成式 AI 制定的另一框架。此外,企业可以参考艾伦图灵研究所为欧洲委员会开发的 AI 系统的人权、民主和法治保障框架(HUDERIA)。
ISO/IEC 等标准制定机构制定了涵盖人工智能的标准,例如关于人工智能管理系统的 42001-2023,以及关于人工智能的 ISO/IEC 风险管理标准 (ISO 3100-2018)。其它标准包括 ISO/IEC 指南 51 安全方面 (ISO 指南 51:2014)、IEEE 系统设计过程中解决伦理问题的标准模型流程 (IEEE 7000-21)。或者其它国家可以利用的最佳实践,例如新加坡的人工智能治理和测试框架和工具包。所有这些框架都包括“核心人工智能伦理原则”,例如公平、透明、人类责任和监督。
在监管领域,Purcell 指出,公众对美国 FDA 和欧洲药品管理局(EMA)最近的讨论文件和思考性文件反馈意见呼应了一些共同的主题。这些文件都探讨了 AI 的监管框架。
但反馈意见中也存在分歧,EMA 思考性文件的反馈者呼吁框架适应现有法规,确保高水平的健康保护,并明确这种框架如何与相关法规配合使用。反馈者还希望明确定义 AI 特定术语,并为创新者提供强有力的知识产权保护。对 FDA 讨论文件的反馈意见寻求明确 FDA 监管权限的范围,并呼吁就此主题与 FDA 进行更频繁的非正式沟通。
除了这些努力之外,其它机构也在开发 AI框架,包括 WHO 的卫生 AI 全球倡议。另外,国际药品监管机构联盟(ICMRA) 已为人工智能专门设立了“几个工作流”。