人工知能(AI)の発展は、多くの新興技術と同様に規制を急速に追い越しており、これに伴い様々な重要な法的考慮事項が生じている。より強固な規制監督を求める動きはあるものの、連邦レベルでの規制はまだ具体化していない。当事務所の革新的技術部門における人工知能共同責任者であるナターシャ・アレンは、AIスタートアップが直面する現在の法的・規制上の課題と、今後の動向について考察する。
現在の規制環境について、ナターシャはシームレスな枠組みというよりむしろ継ぎはぎのキルトのような状態だと指摘する。州政府がAI関連のリスクに迅速に対応する一方で、連邦政府は未だに決定的な立法措置を講じていない。彼女はバイデン政権下で一貫して繰り返される二つのテーマ、すなわち「責任あるAI」と「透明性/説明可能性」に焦点を当て、AIの出力に対する人間の監視の必要性が高まっていることを強調している。
AIシステムが自律性を増すにつれ、AIモデルによる意思決定に対する責任と説明責任が懸念されている。 ナターシャは、AIを使用しているか否かにかかわらず、同じ法的原則が適用され、責任ある当事者は一定の責任を負うと強調する。適切な入力データの選定と結果としての出力への注意が重要であり、こうした実践が企業を正しい方向へ導いていると彼女は指摘する。また、米国国立標準技術研究所(NIST)のフレームワークが、AI関連のリスク評価において貴重なリソースであると述べている。
AIスタートアップ企業は、契約書の構成において、専有情報の利用やAI生成コンテンツの所有権といった問題に対処することも検討すべきである。 ナターシャは、多くの企業がLLMモデルの訓練に自社機密情報が使用される場合を明記する条項を求めていると指摘する。企業はこうした新たな要求を認識し、契約書においてデータの使用方法を事前に明記すべきである。著作権に関しては、AIのみを使用して生成されたコンテンツと、有機的に生成されたコンテンツや何らかのAI支援を受けて生成されたコンテンツを区別して記録を残す必要がある。
AIの急速な進歩と法制度の変遷を踏まえると、スタートアップ企業は規制の変更を常に把握し、新たな要件への継続的なコンプライアンスを確保することが極めて重要です。ナターシャは、法改正を理解するために法律顧問と緊密に連携することの重要性を強調しています。また、フォリー法律事務所が各州で成立したAI関連法規制を追跡する豊富なリソースを有している点も指摘しました。
特定のAI問題に関して、ナターシャは2024年には選挙に影響を与えるディープフェイク技術の悪用対策への注目が高まると予測している。また、連邦政府が包括的なAI規制の確立に向けた取り組みを継続すると同時に、他国も自国のAI法を最終決定する見通しだ。 AIの革新と規制の間には微妙なバランスが存在し、規制努力が革新を阻害することなく、同時に不可欠な安全策を提供することが重要となるだろう。
この技術を開発するスタートアップ企業と導入企業にとって、米国における新たな法規制や世界的な法整備の進展に追従することが重要となる。