知识亮点 10 July 2024

2024年5月30日,新加坡推出了生成型人工智能治理框架(简称“生成型AI框架”),旨在通过系统性的且平衡的方法解决生成型人工智能的相关问题,同时继续促进创新。该框架要求所有关键利益相关者,包括政策制定者、行业从业人员、研究人员和更广泛的公众采取共同努力。

生成型AI框架的九个维度

生成型AI框架确定了支持全面和可信的人工智能生态系统的九个维度。以下是这九个维度的简要概述:

  1. 责任: 为AI系统开发生命周期中的不同参与者(如模型开发者、应用程序部署者和云服务提供商)建立适当的激励结构,使其对终端用户负责。生成型AI框架下,建议可以借鉴云行业的共享责任模型,通过预先分配责任来涵盖终端用户。在生成型AI框架下,值得纳入考虑并作为安全网的额外的措施包括赔偿和保险等概念。此外,更新法律框架以使其更灵活并能轻松公平地解决新兴风险也很重要。对于未能涵盖的遗留问题,可以考虑无过错保险等替代解决方案。
  2. 数据: 确保数据质量(例如,使用可信数据来源)并以务实的方式解决潜在争议的训练数据(如个人数据和版权材料)。在生成型AI框架下,由于个人数据在现有法律制度内运作,因此政策制定者应澄清现有个人数据法律如何适用于生成型人工智能。了解隐私增强技术(如匿名化技术)在AI中的应用,以在保护数据机密性和隐私的同时使用数据也很重要。由于AI训练涉及大量数据,因此需要通过与各个利益相关方进行坦诚的对话,找到解决困难问题的方法(例如解决在训练数据时集中使用版权材料而产生的担忧)。在组织层面,AI开发者应采取数据质量控制的措施并采用数据治理的最佳实践。
  3. 可信开发和部署: 基于行业最佳实践,在开发、披露和评估方面增强透明度。
    • 开发: 有关生成型AI框架的安全措施正在迅速发展,而模型开发者和应用部署者最适合决定使用哪些安全措施。即便如此,行业实践正在围绕一些共同的安全措施趋于一致,例如通过人类反馈强化学习(RLHF)引导模型生成更安全的输出,检索增强生成(RAG)和碎片化学习,这些技术通常用于减少AI的错觉并提高其准确性。
    • 披露: 生成型AI框架规定,相关信息应披露给终端用户。披露内容可能包括使用的数据、训练基础设施、评估结果、缓解措施和安全措施、风险和限制、预期用途和用户数据保护等。披露的详细程度可以根据透明度需求与保护专有信息之间的平衡来校准。对于高风险模型,还需要向政府部门增加透明度。
    • 评估: 在生成型AI框架下,各方需要朝着更全面和系统性的安全评估方法做出努力。行业可以开发一致评估AI前端性能和后端安全的方法。行业和部门政策制定者需要共同改进评估基准和工具,同时保持基础和部门特定要求的一致性。
  4. 事件报告: 实施事件管理系统,及时通知、补救并持续改进AI系统。在事件发生前,软件产品所有者应当采用漏洞报告作为整体主动安全方法的一部分。AI开发者可以采用类似的概念和方法,以应对AI系统中的未发现安全漏洞。在安全事件发生后,组织需要遵守内部流程并报告事件,以便及时通知和补救。这可能涉及通知其他利益相关者,如公众和政府。报告应当适度,即在全面报告和实用性之间取得平衡。
  5. 测试和保证: 通过第三方测试提供外部验证来源并建立信任,并从已建立的审核实践中开发通用AI测试标准,以确保AI系统的质量和一致性。发展第三方测试生态系统涉及两个关键方面:
    • 如何测试: 定义可靠且一致的测试方法,并指定测试范围以补充内部测试。
    • 谁来测试: 确定进行测试的实体,以确保独立性。
  6. 安全性: 适应现有的信息安全框架(例如通过设计阶段的安全性概念,达到系统漏洞的最小化并减少攻击面),并开发新测试工具(例如输入过滤器和生成型AI的数字取证工具)以应对通过生成型AI模型出现的新威胁。
  7. 内容溯源: 探索技术解决方案,如数字水印和加密溯源,为终端用户提供内容来源的透明度,并对抗虚假信息等危害。生成型AI框架规定,需要与内容生命周期中的关键方(如出版商和内容创作者)合作,支持嵌入和显示数字水印和溯源细节。为改善终端用户体验并使消费者能够辨别非AI和AI生成的内容,可以标准化标记的编辑类型。终端用户还需要更好地了解内容生命周期中的溯源,并学会利用工具验证真实性。
  8. 安全与对齐研发: 通过全球AI安全研发机构的合作,加速研发以提高模型与人类意图和价值的对齐。
  9. 公益AI 负责任的AI包括通过民主化技术访问和提高数字素养来造福公众,提高公共部门采用AI的水平,提升工人技能,并可持续发展AI系统。

生成型AI框架预计将随着技术和政策讨论的发展而不断演变。

查看更多观点