欧盟(EU)在人工智能法案上取得了突破性进展,建立了一个全面的法律框架,规范其管辖范围内人工智能的使用。这一关键性协议旨在规范人工智能在各个领域的应用,并为不同类别的人工智能系统制定了独特的指导方针。
分级风险管理系统
欧盟《人工智能法》引入了一个分级风险管理系统,根据人工智能系统对基本权利的潜在影响对其进行分类。它将大多数人工智能系统归类为 "最低风险",涵盖自动推荐系统和垃圾邮件过滤器等功能。对于提供此类服务的供应商来说,参与人工智能行为准则仍然是自愿的。
另一方面,被称为 "高风险 "的人工智能系统包括基础设施、教育评估、执法和生物识别等关键领域。更严格的法规要求提供详细的文档、更高质量的数据集、人工监督和风险缓解机制。
不可接受的风险和限制
任何对基本权利构成威胁的人工智能都属于 "不可接受的风险 "类别,并面临严格禁止。这方面的例子包括预测性警务、工作场所情绪识别系统,以及任何形式的行为操纵,这些操纵会损害自由意志或基于政治倾向、种族或性取向等因素的歧视。
严格的要求和合规性
该法案要求对深度伪造和人工智能生成的内容进行标注,并要求在与聊天机器人对话时保持透明。此外,需要大量计算资源的基础人工智能模型将在 12 个月后面临更严格的监管。
人工智能开发者必须在该法案通过后六个月内迅速删除属于 "不可接受的风险 "类别的功能。在同一时限内,还必须遵守针对高风险人工智能的规定。
对企业的影响
不遵守该法案将被处以巨额罚款,这引起了人工智能专家和企业的担忧。罚款额度从全球营业额的 1.5% 到 7% 不等,构成了巨大的财务风险。人工智能法律专家巴里-斯坎内尔(Barry Scannell)强调了企业涉足生物识别和情感识别技术可能带来的战略转变和运营挑战。
关注和批评之声
欧洲议会议员斯文雅-哈恩(Svenja Hahn)称赞该法案防止了过度监管,但对其对创新和公民权利的影响表示担忧。立法者和包括计算机与通信行业协会(CCIA)在内的行业巨头的批评意见,凸显了他们对欧洲人工智能公司的创新和运营限制可能受到的制约持保留意见。
结论和持续进程
虽然该协议标志着一个重要的里程碑,但仍有待欧洲议会和理事会的正式批准。一旦在官方公报上公布,该法案将在 20 天后生效。尽管取得了这一进展,但有关该法案影响的讨论仍在继续,欧盟不断承诺通过各种全球平台参与国际人工智能监管。
一些专家表示,需要在监管和创新之间采取更加平衡的方法,而业界的声音则强调,该法案可能对欧洲的人工智能发展和人才保留构成潜在挑战。