该指南在7 月 10 日发布的一份名为通用人工智能行为准则 (GPAI) 的文件中进行了概述,它涵盖模型安全和训练数据收集等主题。对于等 AI 开发商来说,实施 GPAI 是自愿的。GPAI 由 55 页组成,分为三个章节。这些章节侧重于三个不同的主题:版权、透明度和安全。
该框架旨在帮助公司遵守欧盟去年实施的一项立法《人工智能法案》。该法律为人工智能开发人员制定了一套广泛的规则,被视为低风险的算法只需遵守《人工智能法案》条款的一部分,而高风险模型将受到更严格的监管。
“我们已经仔细审查了欧盟委员会的通用人工智能 (GPAI) 模型行为准则,Meta不会签署该准Kaiyun官网 登录入口则,”Meta 首席全球事务官乔尔·卡普兰 (Joel Kaplan) 在18日的一份声明中表示。“该准则给模型开发人员带来了许多法律不确定性,以及远远超出《人工智能法案》范围的措施。”
签署 GPAI 的公司必须使其人工智能项目符合欧盟版权法。此外,他们还需要披露有关其人工智能模型的各种技术细节。该列表包括模型的架构以及获取其训练数据的方式。GPAI 的第三章重点关注人工智能模型安全,比其他两章的总和还要长。它概述了人工智能提供商必须实施的一系列措施,以减轻与其算法相关的风险。这些措施只需要应用于“最先进的人工智能模型”。
签署者对 GPAI 的遵守情况将由人工智能办公室监督,该办公室也负责执行《人工智能法案》的监管机构。它是欧盟执行机构欧盟委员会的一部分。在 Meta 宣布不会签署 GPAI 的同时,欧盟委员会为人工智能公司推出了一套新的指导方针。该指南旨在补充 GPAI。他们的主要目标是澄清《人工智能法案》中引入的一些监管术语。
根据该立法,被监管机构指定为“通用人工智能模型”的人工智能受到与其他算法不同的规则的约束。今天发布的指南规定,如果算法可以生成文本、音频、图像或视频,并且使用超过 100,000 exaflops 的处理能力进行训练,则可以授予此名称。一个 exaflop 对应大约 20 个 Blackwell B200 芯片的计算能力。
新指南还阐明了公司何时有资格成为人工智能提供商。此外,他们还提供了有关适用于开源人工智能模型(例如 Meta 的 Llama 系列)的规则的更多信息。在某些情况下,开源模型不必遵守适用于专有算法的人工智能法案的一些规定。