대부분의 신기술과 마찬가지로 인공지능(AI) 발전 속도가 규제를 빠르게 앞지르고 있으며, 이에 따라 다양한 중요한 법적 고려사항이 대두되고 있습니다. 보다 강력한 규제 감독을 위한 움직임이 있었음에도 불구하고, 연방 차원의 규제는 아직 구체화되지 않은 상태입니다. 본사 혁신기술 부문 인공지능 공동 책임자인 나타샤 앨런은 AI 스타트업이 직면한 현재의 법적·규제적 문제점과 향후 주목해야 할 사항을 살펴봅니다.
현재 규제 환경을 놓고 볼 때, 나타샤는 이를 매끄러운 체계라기보다는 조각보에 비유한다. 주 정부들은 인공지능 관련 위험에 신속히 대응해 왔지만, 연방 정부는 아직까지 명확한 법안을 제정하지 못하고 있다. 그녀는 바이든 행정부가 지속적으로 강조해 온 두 가지 핵심 주제, 즉 책임 있는 인공지능과 투명성/설명 가능성에 주목하며, 인공지능 산출물에 대한 인간의 감독 필요성이 점점 더 커지고 있음을 강조한다.
인공지능 시스템이 점점 더 자율적으로 발전함에 따라, 인공지능 모델이 내린 결정에 대한 책임과 귀책사유에 대한 우려가 제기되고 있습니다. 나타샤는 AI를 사용하든 그렇지 않든 동일한 법적 원칙이 적용되며, 책임 있는 당사자는 어느 정도 책임을 져야 한다고 강조합니다. 그녀는 적절한 입력값을 선별하고 결과물 출력에 주의를 기울이는 것이 중요하다고 강조하며, 이는 기업들이 올바른 방향으로 나아가도록 하는 실천 방법이라고 말합니다. 그녀는 AI 관련 위험을 평가하는 데 있어 미국 국립표준기술연구소(NIST)의 프레임워크가 매우 유용한 자료라고 지적합니다.
AI 스타트업은 또한 독점 정보의 사용 및 AI 생성 콘텐츠의 소유권과 같은 문제를 다루기 위해 계약 구조를 설계해야 합니다. 나타샤는 많은 기업들이 자사의 기밀 정보가 대규모 언어 모델(LLM) 훈련에 사용될 때 이를 명시하는 조항을 요구하고 있다고 지적합니다. 기업들은 이러한 새로운 요구사항을 인지하고 계약서에서 데이터 사용 방식을 사전에 명시해야 합니다. 저작권과 관련해서는, 기업들은 순수하게 AI를 통해 생성된 콘텐츠와 유기적으로 또는 AI의 일부 지원을 받아 생성된 콘텐츠를 구분하여 기록을 보관해야 합니다.
인공지능의 급속한 발전과 변화하는 법적 환경을 고려할 때, 스타트업이 규제 변화에 대한 최신 정보를 파악하고 새로운 요구사항에 지속적으로 준수하는 것도 매우 중요합니다. 나타샤는 법률 자문과 긴밀히 협력하여 입법 변화를 이해하는 것의 중요성을 강조했습니다. 또한 폴리 로펌이 각 주에서 통과된 인공지능 관련 법안을 추적할 수 있는 방대한 자료를 보유하고 있다고 지적했습니다.
특정 AI 문제와 관련하여 나타샤는 2024년에는 선거에 영향을 미치기 위한 딥페이크 기술의 오용을 막는 데 더욱 집중할 것이라고 예측합니다. 또한 연방 정부가 포괄적인 AI 규제를 수립하기 위한 노력을 지속할 것이며, 다른 국가들도 자체 AI 법안을 최종 확정할 것으로 전망합니다. AI 혁신과 규제 사이에는 섬세한 균형이 존재하며, 규제 노력은 혁신을 억누르지 않으면서 동시에 필수적인 안전장치를 제공하는 것이 중요할 것입니다.
이 기술을 개발하는 스타트업과 이를 도입하는 기업들에게는 미국의 새로운 법규와 전 세계적 법적 진전을 따라가는 것이 핵심이 될 것이다.