鉴于确保人工智能安全使用需要监管,欧盟推出了全球最全面的法律指南《欧盟人工智能法案》,旨在对其管辖范围内运行的人工智能系统实施严格要求。该法案目标明确,但其实施与执行面临挑战,关于其对创新影响的争论也日益激烈。
《欧盟人工智能法案》于2024年8月正式生效,旨在规范人工智能系统的开发与应用,特别是被认定为"高风险"的系统。 该法案的核心在于确保人工智能在严格规范下安全、合乎伦理且透明地运行。2025年2月2日,随着禁止使用特定人工智能系统、保障员工技术素养等条款的截止期限届满,法案正式进入执行阶段。
违规行为必将付出代价。为确保合规,违反《通用数据保护条例》()的企业可能面临750万欧元(780万美元)至3500万欧元(3580万美元)的罚款,或其全球年度营业额的1%至7%。这构成了一种强有力的财务威慑。
风险分类体系是《禁止危害性人工智能法案》的关键组成部分。人工智能系统被划分为"禁止的人工智能实践",例如基于种族或性取向对个人进行分类的生物识别技术、操纵性人工智能以及某些预测性警务应用,这些均被明令禁止。 同时,"高风险"人工智能系统虽获准使用,但须遵守严格合规措施,包括全面风险评估、数据治理要求及透明度义务。具有有限透明度风险的人工智能系统则需遵循《人工智能法案》第50条规定的透明度义务,要求企业在用户与人工智能系统交互时予以告知。最后,风险极低或无风险的人工智能系统不受监管。
欧盟《人工智能法案》并非没有反对之声。其他国家和大型科技公司正对其实施提出异议。例如,科技公司认为严格的监管将抑制创新,进而使欧洲初创企业更难在全球竞争。批评者还指出,该法案通过施加沉重的合规负担,可能将人工智能研发推离欧洲,转向监管较少的地区,从而削弱欧洲大陆的技术竞争力。
在多重压力下,欧盟已缩减了部分最初的监管目标,例如撤销拟议中的《欧盟人工智能责任指令》——该指令本将使消费者更容易起诉人工智能供应商。欧盟在保护公民权利的同时培育技术进步环境,必须在这两者之间寻求微妙的平衡。
朝着正确方向迈出的一步
欧盟《人工智能法案》能否成为其他国家的范本,尚待观察。总而言之,立法过程必将充满成长的阵痛,欧盟也应做好对法案进行多次修订的准备。但总体而言,拥有一个可供批判与修订的起点是积极的。当前的框架或许不够完美,却是全球人工智能监管对话不可或缺的起点。