인공지능의 안전한 사용을 보장하기 위한 규제 필요성을 인식한 유럽연합(EU)은 관할권 내에서 운영되는 인공지능 시스템에 엄격한 요건을 부과하기 위해 세계에서 가장 포괄적인 법적 지침인 EU 인공지능법을 도입했다. 그 목표는 분명하지만, 시행과 집행에는 어려움이 따르며 혁신에 미치는 영향에 대한 논쟁은 더욱 거세지고 있다.
2024년 8월 공식 발효된 EU 인공지능법은 인공지능 시스템, 특히 '고위험'으로 분류된 시스템의 개발 및 사용을 규제하는 것을 목표로 합니다. 주요 초점은 AI가 안전하고 윤리적이며 엄격한 지침 내에서 투명하게 운영되도록 보장하는 데 있습니다. 금지 조항(예: 특정 AI 시스템 사용 금지, 직원 기술 이해도 확보 등)의 이행 기한이 만료된 2025년 2월 2일, 법의 시행이 공식적으로 시작되었습니다.
규정 미준수에는 대가가 따릅니다. 규정 준수를 보장하기 위한 목적으로, 위반이 적발된 기업 은 750만 유로(780만 달러)에서 3,500만 유로(3,580만 달러) 또는 해당 기업의 전 세계 연간 매출액의 1%에서 7%에 해당하는 벌금을 부과받을 수 있습니다. 이는 상당한 재정적 억제 수단입니다.
위험 분류 체계는 인공지능 책임법(I Act)의 핵심 요소입니다. 인공지능 시스템은 인종이나 성적 지향에 따라 개인을 분류하는 생체 인식 기술, 조작적 인공지능, 특정 예측형 경찰 활동 애플리케이션 등 '금지된 인공지능 관행'으로 분류되어 사용이 금지됩니다. 한편, "고위험" AI 시스템은 허용되지만 포괄적 위험 평가, 데이터 거버넌스 요건, 투명성 의무 등 엄격한 준수 조치를 적용받습니다. 투명성 위험이 제한적인 AI 시스템은 AI법 제50조에 따른 투명성 의무 대상이며, 기업은 사용자가 AI 시스템과 상호작용할 때 이를 알려야 합니다. 마지막으로, 위험이 최소 또는 전혀 없는 AI 시스템은 규제 대상이 아닙니다.
EU 인공지능법에는 반대 의견도 존재한다. 다른 국가들과 대형 기술 기업들은 이 법의 시행에 저항하고 있다. 예를 들어 기술 기업들은 엄격한 규제가 혁신을 저해할 것이며, 이는 결국 유럽 스타트업들이 글로벌 시장에서 경쟁하는 것을 더욱 어렵게 만들 것이라고 주장한다. 비판자들은 또한 이 법이 과도한 준수 부담을 부과함으로써 인공지능 개발을 유럽 밖으로 밀어내고 규제가 덜한 지역으로 이동시켜 유럽 대륙의 기술 경쟁력을 저해할 수 있다고 지적한다.
전반적인 압박을 느끼고 있는 유럽연합(EU)은 초기 규제 목표 중 일부를 후퇴시켰다. 예를 들어, 소비자들이 인공지능(AI) 공급업체를 더 쉽게 소송할 수 있도록 할 예정이었던 'EU AI 책임 지침' 제안을 철회한 것이 대표적이다. EU는 시민의 권리를 보호하면서도 기술 발전을 장려하는 환경을 조성하는 데 있어 미묘한 균형을 유지해야 한다.
올바른 방향으로의 한 걸음
EU 인공지능법이 다른 국가들의 모델이 될지는 아직 두고 봐야 할 일이다. 요컨대 성장통은 피할 수 없으며, EU는 법안을 수차례 수정해야 할 것을 예상해야 한다. 그러나 전반적으로 비판과 수정을 위한 출발점이 마련된 것은 긍정적이다. 현재의 틀이 완벽하지는 않더라도, 인공지능 규제에 관한 글로벌 논의의 필수적인 출발점임은 분명하다.