人工知能(AI)の急速に進化する世界において、変革的な可能性を秘めた一つの進展が際立っている。それは生成AIツールの台頭である。 多くの主要テクノロジー企業が、これらのツールを支える大規模言語モデル(LLM)を開発し、数十億もの入力データで訓練している。しかし同業他社の中でも、OpenAIのChatGPTはゲームチェンジャーとして台頭し、1億ユーザーに到達した最速のウェブプラットフォームとなった。この節目はツールの能力を証明するだけでなく、生成AIが定着したことを明確に示すものである。
職場におけるChatGPTの普及
ChatGPTは汎用チャットボットとして利用可能になるよう微調整された大規模言語モデル(LLM)です。現在のベースモデルはOpenAIのGPT-3.5およびGPT-4 LLMです。ChatGPTは自然言語のプロンプトを理解し応答し、様々な専門分野での活用が始まっています。小規模スタートアップから多国籍企業まで、幅広い従業員がこのツールを活用して生産性を向上させ、ワークフローを効率化しています。
生成AIツールの職場での応用は多岐にわたる。コンテンツの起草、文書の生成、事実確認や調査の実施、さらにはソフトウェアコードの記述にまで活用されている。この広範な利用は生産性を高める一方で、組織が対処すべき数多くの潜在的なリスクも伴う。AIの職場への統合は単純なプラグアンドプレイのシナリオではなく、慎重な検討と戦略的な計画を必要とする。
従業員への指導提供の必要性
ChatGPTおよび類似ツールの使用に伴う潜在的なリスクを考慮すると、企業が従業員に対して指針を提供することが極めて重要です。この指針は、正式なポリシーとして、あるいは企業が既に実施している情報セキュリティポリシーを基盤としたより一般的なベストプラクティスガイドとして策定することが可能です。
一部の大企業は自社内で大規模言語モデル(LLM)を構築するリソースを有しているかもしれないが、ほとんどの企業にはその余裕がない。こうした企業にとって、サードパーティの生成AIツールを安全かつ適切な指導のもとで導入することは、自社LLMを保有する企業との競争力を維持する助けとなる。ただし、これは中小企業が十分な検討なしにこれらのツールを急いで導入すべきだという意味ではない。ChatGPTのようなAIツールの使用に伴う潜在的なリスクや課題を慎重に評価し、軽減する必要がある。
リスクを理解する
職場におけるChatGPTやその他の大規模言語モデル(LLM)の使用は、以下のような複数のリスクをもたらす可能性があります:
機密性:生成AIシステムに企業や顧客の機密情報を共有することは、契約上の義務違反となる可能性があり、営業秘密が公に開示されるリスクを伴います。これは特に機微なデータを扱う企業にとって重大な懸念事項です。 従業員は、AIツールへの機密情報提供に伴う潜在リスクを認識する必要があります。さらに、生成AIツールの大半はクラウドベースまたはSaaS(サービスとしてのソフトウェア)であるため、データは第三者のサービスプロバイダーに送信されます。企業がこれらの第三者プラットフォームに機密情報を提供し、その情報がモデル訓練のために再利用された場合、当該情報の営業秘密保護が失われる可能性があります。
個人データとプライバシー侵害:顧客、クライアント、または従業員に関する個人情報を生成AIシステムと共有することは、プライバシーリスクを生じさせる可能性があります。 これは特に、欧州連合の一般データ保護規則(GDPR)や、カリフォルニア州消費者プライバシー法(CCPA)を含む米国における州レベルのデータプライバシー法の増加といった、厳格なデータ保護規制の文脈において重要です。さらに、例えばデータ漏洩からスクレイピングされた情報など、個人情報がLLMのトレーニングデータに混入した場合、悪意のある行為者がモデルから個人情報を抽出することが可能となります。
品質管理:生成AIツールはその能力において驚異的である一方、誤った出力を生成する可能性が高く、品質管理上の問題を引き起こす恐れがあります。この不正確さへの傾向は、自動化バイアスと呼ばれる現象によってさらに悪化する可能性があります。これは、ユーザーがこれらのAIツールの出力を過度に信頼し、その正確性を疑問視することなく使用してしまう傾向を指します。 AIツールが生産性を大幅に向上させる一方で、それらは欠陥の影響を受けないわけではない。危険な点は、生成AIツールが人間のような生成を模倣し、その信憑性をユーザーに信じ込ませることで、非常に説得力のある形で誤った結果を生み出す可能性があることにある。
これらの生成AIツールが時間とともに進化するにつれ、精度は向上し、「幻覚」や虚偽の生成が減少する可能性が高く、誤った情報を検出することがますます困難になるだろう。 騙されてはいけない——「幻覚」という用語の使用は、単に「誤り」を婉曲に表現したものである。この検出難度の高まりは、自動化バイアスと相まって、個人が出力を徹底的な検証なしに受け入れやすくなる可能性を高め、結果として誤情報の拡散や誤った意思決定が行われるリスクを増大させる。 特に企業(ひいては従業員)は警戒を怠らず、生成AIツールの使用のみに依存して責任や法的義務を免れることはできません。生成された情報とそれに基づく行動が可能な限り正確かつ信頼できるものであることを確保する責務が彼らには課せられているのです。
偏見と差別:生成AIシステムは偏見 や差別的な結果を生み出す可能性があります。大規模言語モデル(LLM)はインターネット上のデータで訓練されるため、そこに存在する偏見を再現する能力を有しています。企業が生成AIツールに依存する場合、これらのツールの使用に基づく偏見や差別的な行為に関与しないよう確保する必要があります。こうしたリスクは特に、従業員の採用、選考、雇用に関連して顕著かつ深刻です。
製品責任:生成AIツールは、 製品の研究、設計、開発、製造の各段階で使用される可能性がある。製品は物理的(例:建設資材)またはソフトウェアベース(例:自動運転技術)である場合がある。AIを活用した製品やシステムがユーザーに危害を加える判断を行った場合、AIの開発と利用の「連鎖」に関わる全ての関係者や組織に対して、請求や責任が生じる可能性がある。
知的財産権の帰属:生成AIシステムの利用は、生成AIシステムによって生成された文書やコードが法的保護の対象となるか、生成AIシステムの出力を使用した企業に責任が問われるかなど、複雑な知的財産権の問題を引き起こす。 米国著作権局は「人間の著作者による創造的入力や介入なしに、無作為または自動的に動作する機械または単なる機械的プロセスによって生成された著作物は登録しない」と表明している。これは法的に未解決のグレーゾーンである。
一方、生成AIツールによって生成されたデータの所有権については、依然として不確実性が残っている。特定のツールの利用規約では、ユーザーがデータを所有すると明記されている。しかし、LLMの訓練に使用されたデータの所有者も、一定の所有権を主張する可能性がある。
虚偽表示:AI生成物であるにもかかわらず人間が作成したと主張することは、その使用方法によっては消費者保護法違反やその他の広報上の問題を引き起こす可能性があります。企業は、AIツールを誤って使用した場合、州法または連邦法に基づく不正または欺瞞的行為の申し立てリスクがあることを認識すべきです。 したがって、AIツール利用時には透明性が極めて重要です。さらに、ソーシャルメディアでは生成AIで作成されたにもかかわらず開示されていないコンテンツが非難されることで知られており、少なくともユーザーの評判と信頼性を損なう結果となります。
保険適用範囲:保険契約によっては、生成AIツールの使用に起因する責任を補償対象外とする場合があります。生成AIツールが業務に統合され、より多くの機能を自動化するにつれ、有害事象の発生可能性が高まり、企業にとって追加的なリスク要因となります。これらのツールは既存の保険契約の適用範囲外となる可能性があります。
将来の要件:企業が取引(売却や資金調達など)において表明を行う場合、またはベンダーや顧客との商業契約に関連して、AI生成コンテンツを明確に識別する必要が生じる可能性があります。透明性、同意、通知に関するその他の規制も制定される見込みです。
潜在的な雇用差別:生成AIシステムの利用は、それを使用しない個人の業績を同僚と比較して不利に作用する可能性がある。これにより、AIツールの使用または非使用に基づく雇用決定が生じ、保護対象となる個人(例:40歳以上)に対して差別的または不利な影響を与える恐れがある。 企業は、AIツールの使用が職場内に不公平な競争環境を生み出したり、雇用決定プロセスに潜在的な偏りを生じさせたりしないよう確保する必要がある。
リスクへの対応
企業は、生成AIツールを責任を持って使用する方法、およびその使用に伴うリスクを回避する方法について、従業員にガイダンスを提供すべきである。このガイダンスは、新たな生成AI適正利用ポリシーの形で提供されることもあれば、ベストプラクティスガイドのようなより非公式な形で提供されることもある。さらに、企業は追加的な仕組みを検討すべきであり、これには内部利用を監視するシステムや、生成AIシステムへの機密情報の意図しない共有を報告するための手順や仕組みの提供が含まれる。
機密性とプライバシー:データ漏洩の可能性や個人データ共有に伴うプライバシーリスクを踏まえ、企業の生成AI適正利用方針またはガイドラインでは、AIツールと共有可能なデータと不可能なデータを明確に定義すべきである。特に、機密性の高い企業情報、顧客情報、従業員情報の保護に重点を置く必要がある。このアプローチにより、契約上の義務や営業秘密を維持しつつ、GDPRなどのデータ保護規制への準拠が図られる。 さらに、企業がサードパーティサービスプロバイダーが提供する生成AIツールを利用する場合、顧客、ベンダー、従業員などに対する契約上の義務を遵守しつつ、当該プラットフォームとの情報共有が許可されていることを確認しなければならない。
従業員は、機械学習のトレーニングにデータが使用されることを拒否する選択肢が提供されている場合、その選択を求められるべきである。特定のサービスプロバイダーでは、ユーザーはベンダーが提供するメール送信またはフォーム記入によりオプトアウトできる。
企業はまた、機密情報やセンシティブなデータが生成AIツールに誤って共有された場合に、従業員が経営陣に報告できる仕組みを設けることも検討すべきである。この報告手段としては、上司への報告や、情報セキュリティチームが管理する指定メールアドレスへのメール送信などが考えられる。
品質管理と事実誤認: AI生成コンテンツの正確性欠如に起因する潜在的な品質管理問題を踏まえ 、企業の利用規定またはガイドラインでは、従業員に対し生成された出力の正確性と妥当性を確認するよう求めるべきである。 従業員は専門知識を活かし、出力結果の最適な活用方法について適切な判断を下す必要があります。さらに、企業が人間のレビューを経ずに生成AIツールの結果を直接顧客に提供する場合、これらのツールが誤った結果や不快な結果を生成する可能性があるため、より高いリスクを伴うことを理解しなければなりません。
知的財産リスク: 著作権法は管轄区域によって異なるため 、企業は生成AIソリューションから出力されるデータに対して著作権保護を受けられない可能性がある。 したがって、第三者は著作権侵害のリスクなしに当該データを複製できる可能性がある。また、生成AIツールの訓練に使用されたデータの所有者が、生成された出力に対して一定の所有権を主張する可能性がある点も懸念される。企業はこうしたコンテンツの利用に慎重であるべきであり、生成されたコンテンツについて明確な所有権や著作権保護が得られない可能性があることを理解する必要がある。
虚偽表示: 虚偽表示の主張や潜在的な広報上の問題を避けるため 、企業はAIツールの使用について透明性を保つ必要がある。消費者が真実性を重視する現代において、生成AIを用いてコンテンツが生成されたことを明かすことは倫理的であるだけでなく、視聴者から評価される可能性もある。 既に一部の法域では、チャットボットやその他の自動ボットの使用について消費者に通知することを義務付ける規定が存在し、生成AIツールの使用に関する通知提供を要求する追加規制が今後制定される可能性が高い。
保険: AI利用に伴うリスクを考慮すると 、保険契約もそれに合わせて進化させる必要がある。企業は保険会社や保険ブローカーと協議を行い、AI利用に起因する潜在的な責任まで補償範囲が及ぶことを確保しなければならない。
規制: AI規制の急速な進化を踏まえ 、企業は常に先手を打つことが重要です。潜在的な規制変更を予測し準備することで、企業はコンプライアンスを維持し、将来の混乱を最小限に抑えられます。
雇用: 職場における公平性を確保するため 、企業はChatGPTのようなAIツールの使用を監視する必要がある。AIツールを使用しない個人の業績評価が不利にならないよう対策を講じ、生成AIツールの早期導入者ではない従業員向けの研修を検討し、潜在的な差別を軽減すべきである。 さらに、企業の生成AI適正利用方針またはガイドラインでは、業務関連活動においてAIツールにログインする際の個人用メールアカウントの使用を制限することを検討すべきである。
より一般的には、各企業はこれらのリスクを評価し、生成AIの許容利用方針を実施する際にどのような種類の対策を講じるべきかを検討すべきである。生成AIツールの利用に対して非常に保守的なアプローチを取ると、従業員が個人所有のデバイス上で会社の管理範囲外でこれらのツールを使い続ける環境を生み出す可能性があることを企業は認識すべきである。したがって、従業員が生成AIを利用できるユースケースを理解し、どのような条件や状況が許容されるかを判断する、より微妙なアプローチが推奨される。
今こそ行動の時だ
ChatGPTをはじめとする生成AIツールの成長は鈍化していない。これらのツールが私たちの職業生活や私生活にますます統合されるにつれ、関連するリスクに対処することの重要性はますます高まっている。企業はこれらのリスクを理解し、軽減するための戦略を積極的に実施しなければならない。
将来的な規制の可能性とAI技術の進化する性質に直面する中、組織が常に情報を得て適応力を保つことが不可欠である。この新たな環境をナビゲートするにあたり、生成AIツールの力を活用する鍵は、その可能性を最大限に活用することとリスクを管理することのバランスを取ることにある。
ChatGPTをはじめとする生成AIツールの台頭は、機会と課題の両方をもたらす。従業員への明確な指針の提供、消費者への透明性確保、関連リスクの理解、そして強固なポリシーの実施を通じて、企業はこの新たな環境を責任を持って効果的に乗り切ることができる。
特定のリスク領域への対応に関するガイダンスが記載されたチートシートはこちらからダウンロードできます。
著者らは、カリフォルニア大学バークレー校ロースクールの学生であり、フォリー・アンド・ラーナー法律事務所の2023年夏季インターンであるマシュー・チャ氏の貢献に深く感謝する。