《通用人工智能实践准则初稿》的发布标志着欧盟致力于为通用人工智能模型创建全面的监管指南。
该草案的制定是一项合作努力,涉及来自不同部门的投入,包括工业界、学术界和民间社会。该倡议由四个专门工作组领导,每个工作组都处理人工智能治理和风险缓解的特定方面:
- 第1工作组:透明度和版权相关规则
- 第2工作组:系统性风险的风险识别和评估
- 第3工作组:系统性风险的技术风险缓解
- 第4工作组:减轻系统性风险的治理风险
该草案与《欧盟基本权利宪章》等现有法律保持一致。它考虑到了国际方法,努力与风险相称,并旨在通过考虑快速的技术变革来抵御未来。
草案中概述的主要目标包括:
- 阐明通用AI模型提供者的合规方法
- 促进对整个AI价值链的理解,确保将AI模型无缝集成到下游产品中
- 确保遵守联盟版权法,特别是关于使用受版权保护的材料进行模型培训的法律
- 持续评估和减轻与人工智能模型相关的系统性风险
识别和减轻系统性风险
该草案的一个核心特征是其系统性风险分类,包括此类风险的类型、性质和来源。该文件概述了各种威胁,如网络犯罪、生物风险、对自主人工智能模型的失控和大规模虚假信息。通过承认人工智能技术不断发展的性质,草案认识到这一分类需要更新才能保持相关性。
随着具有系统性风险的人工智能模型变得越来越普遍,草案强调需要强大的安全和安保框架。它提出了度量、子度量和关键绩效指标(KPI)的层次结构,以确保在模型的整个生命周期中进行适当的风险识别、分析和缓解。
该草案建议提供商建立识别和报告与其人工智能模型相关的严重事件的流程,根据需要提供详细的评估和纠正。它还鼓励与独立专家合作进行风险评估,特别是对构成重大系统性风险的模型。
对人工智能监管指导采取积极态度
2024年8月1日生效的《欧盟人工智能法案》要求该准则的最终版本在2025年5月1日之前准备就绪。这一举措强调了欧盟对人工智能监管的积极立场,强调人工智能安全、透明度和问责制的必要性。
随着草案的不断发展,工作组邀请利益相关者积极参与完善文件。他们的合作意见将形成一个监管框架,旨在保护创新,同时保护社会免受人工智能技术的潜在陷阱。
欧盟通用人工智能模型实践准则虽然仍处于草案阶段,但可以为全球负责任的人工智能开发和部署设定基准。通过解决透明度、风险管理和版权合规等关键问题,该准则旨在创造一个促进创新、维护基本权利并确保高水平消费者保护的监管环境。
该草案在2024年11月28日之前开放供书面反馈。
本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!