케이트 웨그진 서문, 샤비 칸 및 ChatGPT 글
어머니께서는 미래가 어떻게 될지 알고 싶다면 공상과학 소설을 읽으라고 하십니다. 50년 넘게 이 장르의 열렬한 독자로 살아오신 어머니는 한때 터무니없다고 여겨졌던 것들이 현실로 나타나는 것을 목격해 오셨습니다. 어머니께서 ChatGPT와 다른 생성형 인공지능에 대해 내리신 평가는, 그것이 우리 모두를 향해 다가오고 있다는 것입니다.
저는 역사 소설을 더 좋아하는 편이라서, 생성형 AI에 대한 제 견해는 좀 더 신중한 편입니다. 이는 1990년대와 2000년대 초반 인터넷이 그랬던 것처럼, 우리 일상생활의 필수적인 부분이 될 인상적인 도구입니다.
약 한 달 전, 동료 샤비 칸과 저는 직장에서 이 도구의 활용이 어떻게 계속 확대될지에 대해 논의했습니다. 업무 중 생성형 AI(예: ChatGPT) 사용과 관련된 법적 문제에 대해 블로그 글을 작성해야 한다는 데는 동의했지만, 이를 완성하는 데 상당한 시간이 소요될 것이라 아쉬워했습니다. 이는 누구에게나 어려운 과제이지만, 특히 판매하는 상품이 6분 단위로 나뉜 시간인 변호사들에게는 더욱 그렇습니다.
우리는 그냥 ChatGPT에게 블로그 글을 써달라고 부탁하면 어떨까 생각했다. 우리는 살짝 웃음을 터뜨렸다. 그렇게 '인간 대 기계' 실험이 시작되었다. 나는 ChatGPT에게 블로그 글 작성을 요청하는 임무를 맡기로 했고, 샤비는 '일반적인' 방식으로 초안을 작성하는 임무를 맡았다.
저자 주: ChatGPT는 입에 잘 안 붙는 이름이다. 분명 마케팅 담당자가 아니라 컴퓨터 프로그래머가 지은 이름일 것이다. 이제부터 나는 ChatGPT를 1960년대 당김줄 인형 '챗티 캐시(Chatty Cathy)'에서 따온 '캐시'라고 부르기로 한다. 당시로서는 기술적 경이로움 그 자체였던 그 인형처럼 말이다.
이 실험의 결과는 예상된 바였다:
- 효율성: 기계에 +1점. 이 실험에 제가 투자한 시간은 고작 11분(혹은 0.2시간의 비청구 가능 시간)에 불과했지만, 샤비는 8일 동안 10시간의 비청구 가능 시간을 들여 조사하고 고민한 끝에 마침내 글을 작성하고 편집했습니다. 당연히 캐시가 이 항목에서 승리합니다.
- 편향: 인간에게 +1점. 이 점수를 샤비에게 부여하는 이유는 캐시가 자신이 환각을 경험한다는 점(즉, 답을 모를 때 가끔 답변을 지어낸다는 점)을 언급하지 않았기 때문이다. 재미있는 점은, 이런 자기 인식 부족이 인간적인 특성일 거라고 생각할 수 있지만, 이 경우에는 그렇지 않다는 것이다. 캐시가 지나치게 자신만만하고 "모르는 것을 모른다"는 사실이 그녀를 의지하는 이로 하여금 실제보다 결과가 더 정확하다는 잘못된 믿음을 갖게 할 수 있다는 점에서 이 점은 더 큰 비중을 두어야 할지도 모른다. 이제 샤비는 지식재산권 변호사이며 그가 제시한 10가지 쟁점 대부분이 지식재산권 주제에 집중되어 있다. 하지만 채점 시 이 점을 감안했습니다. 샤비와 제가 이 프로젝트를 진행하기로 결정했을 때, 완벽하게 수행하려면 다양한 실무 분야(노동·고용, 데이터 프라이버시 등)의 동료들에게 의견을 구해야 한다는 데 양측이 동의했기 때문입니다. 그렇게 하면 진행 속도가 너무 느려져 블로그 게시물을 완성할 때쯤이면 ChatGPT가 구식 기술이 될 것이라고 판단했습니다. 아마도 이 점이 캐시에게 추가 점수를 부여해야 함을 보여주는 것 같습니다. 하지만 그녀는 이미 효율성 부문에서 점수를 받았고, 솔직히 말해 현재로서는 인간이 균형을 잡아줄 필요가 있다고 생각합니다.
- 가독성: 기계에 +1점. 캐시의 답변은 간결하고 짧으며 읽기 쉬웠다. 하지만 그 가독성은 깊이를 희생한 대가였다. 다음 항목 참조.
- 효과성: 인간에게 +1점샤비의 글은 캐시의 글보다 그가 제기한 주제들을 훨씬 깊이 있게 다루었습니다. 또한 그녀는 열 가지 목록을 완성하기 위해 동일한 문제들을 약간 다른 방식으로 여러 번 반복했습니다. 이러한 이유로 샤비에게 점수를 부여합니다.
승자: 제가 완전히 지어낸 점수 체계에서 인간과 기계가 각각 가능한 4점 중 2점씩을 획득하여, 우리는 동점 경기를 맞이했습니다.
주요 교훈: 이 실험과 기사 내용 자체를 통해 얻은 교훈은, 업무 현장에서 Cathy를 활용할 여지는 있지만 그 사용이 적절한 경계는 아직 정립 중이라는 점입니다. 당분간 Cathy(및 일반적인 생성형 AI)를 활용해 효율성을 높이고 문제를 피하기 위한 실용적인 팁은 다음과 같습니다:
- 최상의 결과를 얻을 수 있는 방식으로 프롬프트하는 방법을 알아내세요.
- 적절한 프로젝트에 활용하세요 – '인간 대 기계' 스타일 실험에 관한 블로그 포스트가 그러한 적절한 프로젝트의 좋은 예입니다.
- 기밀 정보를 입력하지 마십시오 – 사용자는 해당 정보가 어떻게 처리되는지 통제할 수 없습니다.
- 항상 그것이 제공하는 것이 정확한지 확인하라 – 믿되 검증하라.
- 그것이 제공하는 답변이 표절되지 않았는지 확인하기 위해 최선을 다하십시오.
- 해당 항목이 ChatGPT로 생성되었음을 알리는 적절한 고지 및 면책 조항을 포함하십시오. 언젠가는 이 내용이 Prop65 경고문처럼 모든 곳에 표시되어 독자에게 거의 인식되지 않을 것이라고 예상합니다.
결론적으로 모든 사람의 업무 방식이 급속도로 변화할 것이며, 법적 관점에서 이것이 무엇을 의미하는지 누구도 완벽히 명확히 알지 못합니다. 법률은 기술의 발전 속도를 따라잡기 위해 노력할 것입니다. 그동안 샤비와 캐시가 직장에서 생성형 AI 사용과 관련해 지적한 법적 문제점들은 다음과 같습니다:
직장에서 생성형 AI 사용 시 주의해야 할 10대 법적 문제점
|
저자: |
인간 (샤비 칸) |
ChatGPT-3.5 (케이트 웨그진에 의해 프롬프트됨) |
|
총 소요 시간: |
10시간 |
11분 |
|
완료된 작업: |
|
참고로, 제 초기 프롬프트는 "다음 주제에 대해 1500단어 분량의 블로그 글을 작성하세요: 직장에서 생성형 AI를 사용할 때 주요 법적 쟁점은 무엇인가?"였습니다. 1500단어가 임의적으로 제한적으로 느껴져서 상위 10개 목록 형식으로 전환했습니다.
|
|
결과: |
지난 몇 년간 다양한 생성형 AI 모델이 대중에게 공개되었지만, ChatGPT의 출시가 모든 이의 주목을 받았습니다. 출시 불과 두 달 만에 ChatGPT는 월간 사용자 1억 명을 돌파하며 역사상 가장 빠르게 성장한 소프트웨어 애플리케이션이 되었습니다.
생성형 인공지능(Generative AI)은 텍스트나 이미지 같은 새로운 콘텐츠를 생성할 수 있는 인공 지능을 의미합니다. 생성형 AI 소프트웨어는 웹사이트, 이미지, 동영상 등 방대한 양의 공개 데이터로 훈련된 복잡한 기계 학습 모델을 포함합니다. 텍스트 생성을 위해 소프트웨어는 이러한 머신러닝 모델을 활용하여 이전 단어 순서에 기반해 다음 단어를 예측하며, 완전한 텍스트 구절이 생성될 때까지 이 과정을 반복합니다. 마찬가지로 이미지 생성을 위해 소프트웨어는 머신러닝 모델을 활용하여 유사한 부분을 포함하는 다른 이미지들을 기반으로 이미지의 다음 부분을 예측하며, 완전한 이미지가 생성될 때까지 이 과정을 반복합니다.
많은 전문가들이 업무 현장에서 생성형 AI 기술을 활용하기 시작했습니다. 예를 들어 블로그 글 작성, 이메일 초안 작성, 그래픽 생성 등에 활용하며, 일부는 ChatGPT를 자동화된 챗봇으로 사용하기까지 합니다. 그러나 전문가들은 생성형 AI 사용과 관련된 비즈니스 및 법적 위험을 제대로 이해하지 못한 채 이러한 기술을 사용하는 경우가 많습니다. 다음은 생성형 AI 도구를 사용하는 기업과 그 직원들이 인지해야 할 주요 법적 문제 10가지입니다:
저작권이 있는 데이터를 생성형 AI 모델 훈련에 무단으로 사용하는 행위 생성형 AI 모델은 저작권이 있는 데이터를 포함한 방대한 양의 공개 데이터로 훈련됩니다. 이러한 머신러닝 모델 훈련에 저작권이 있는 데이터를 사용하는 것이 저작권자의 권리를 침해할 수 있다는 우려가 있습니다. 미국 법원은 아직 생성형 AI 시스템의 저작권 데이터 사용이 공정 이용 원칙에 따라 허용되는지에 대해 판단하지 않았습니다. 그러나 다른 관할권은 미국처럼 관대한 공정 이용 예외를 두지 않으므로, 미국 외 지역에서는 생성형 AI 기업들이 법적 위험에 노출될 수 있습니다. 생성형 AI 기업들이 저작권 침해로 책임이 인정될 경우 향후 해당 모델 사용이 허용될지 불확실하기 때문에, 이러한 모델을 활용해 출력을 생성한 최종 사용자나 기업에게도 책임이 확대될 수 있는지 여부에 대한 우려가 제기되고 있습니다.
출력물이 저작권법을 위반하는가? 생성형 AI 모델을 훈련시킨 기업에 부과될 수 있는 책임과는 별개로, 생성형 AI 시스템의 출력이 저작권 보호 대상 작품과 지나치게 유사할 경우 해당 출력이 저작권법을 위반할 수 있으며, 이로 인해 출력을 배포하거나 게시하는 주체가 저작권 침해 소송에 노출될 수 있다는 우려가 존재합니다. 여기서 가장 큰 위험은 사용자가 존재하는 모든 저작물을 알지 못하기 때문에, 출력이 저작물과 얼마나 유사한지 알지 못하고 무심코 출력을 게시할 수 있다는 점입니다(아마도 자신의 작품으로 위장하여). 이는 저작권 침해 소송을 유발하지는 않겠지만, 사용자의 평판에 심각한 손상을 초래할 수 있습니다.
프롬프트 입력의 기밀성 프롬프트는 사용자가 생성형 AI 시스템에 입력하여 출력을 생성하는 질의문입니다. 이러한 프롬프트는 생성형 AI 소프트웨어가 모델을 개선하거나 기타 목적으로 활용할 수 있습니다. 따라서 생성형 AI 시스템이 프롬프트를 통합하여 다른 사용자를 위한 출력을 생성할 수 있으므로 기밀 또는 민감한 정보 공유를 피하도록 주의해야 합니다. 많은 생성형 AI 시스템은 안전 및 관리 목적으로 입력과 출력을 검토하기 위해 제3자 계약자를 활용한다고 명시합니다. 이는 기밀 정보를 질의로 제출할 경우 기밀 유출로 인한 법적 책임이 발생할 수 있음을 의미합니다.
프롬프트와 출력물의 데이터 소유권 생성형 AI 소프트웨어 사용자는 생성형 AI 시스템의 이용 약관을 검토하여 입력 또는 프롬프트와 AI 시스템이 생성한 출력물에 대한 소유권 관련 사항을 이해해야 합니다. 사용자는 생성형 AI 시스템이 입력물에 대해 어떤 권리를 가지는지(있는 경우), 그리고 AI 시스템이 이를 어떻게 사용할 수 있는지 이해해야 합니다. 마찬가지로 사용자는 생성형 AI 소프트웨어와 사용자가 출력물에 대해 가질 수 있는 권리(있는 경우)와 출력물에 대한 사용자의 제한 사항을 이해해야 합니다. 생성형 AI 시스템이 출력 데이터에 대한 권리를 가질 수 있으므로, 해당 시스템이 동일한 출력물을 다른 사용자에게 재생산할 가능성이 있으며, 이 경우 저작권 침해 및 표절 주장이 발생할 수 있습니다. 따라서 사용자는 AI 시스템에서 생성된 출력물을 다룰 때 주의해야 합니다.
저작권 생성형 AI 시스템의 출력물 저작권은 누구에게 있는가? 프롬프트를 입력한 사람에게만 있는가, 아니면 출력을 생성한 생성형 AI 모델에게만 있는가, 아니면 둘의 결합인가? OpenAI는 사용자가 출력이 부분적으로 자사의 생성형 AI 모델을 사용하여 생성되었음을 명시할 것을 권장한다. 예를 들어, OpenAI는 사용자가 창작 과정을 설명할 때 사용할 수 있는 표준 문구를 제공했는데, 그 내용은 다음과 같다: 저자는 본 텍스트의 일부를 OpenAI의 대규모 언어 생성 모델인 GPT-3를 활용하여 생성하였습니다. 초안 언어 생성 후 저자는 본인의 판단에 따라 해당 언어를 검토, 편집 및 수정하였으며, 본 출판물의 내용에 대한 최종 책임을 집니다. 저자 정보를 정확히 기재하지 않을 경우 법적 책임이 발생할 수 있습니다. 특히, 특정 생성형 AI 시스템의 이용 약관을 위반할 수 있으며, 일부 시스템은 생성형 AI 소프트웨어의 출력이 인간이 생성한 것이 아닌 경우 저자가 이를 인간 생성물로 표시해서는 안 된다고 규정합니다. 또한 동일한 출력이 다른 사용자에게도 생성될 수 있으므로, 생성형 AI를 사용하여 콘텐츠를 생성했음을 표시하지 않을 경우 추후 발견 시 허위 진술로 인한 소송을 초래할 수 있습니다.
생성형 AI 콘텐츠에 대한 저작권 보호 추구 인공지능(AI) 생성물에 대한 저작권 보호는 국가마다 상이합니다. 예를 들어 미국에서는 컴퓨터만으로 생성된 작품은 저작권 보호 대상이 아니지만, 개인이 상당한 인간의 개입을 입증할 수 있는 작품은 저작권 보호를 받을 수 있습니다. 영국에서는 컴퓨터로 완전히 생성된 작품도 보호받을 수 있습니다. 유럽연합에서는 상황이 다소 모호하며, AI 시스템을 통해 인간의 창의성이 표현될 수 있도록 허용합니다. 특정 예술 작품에 대한 저작권 보호가 없다면, 기업들은 노골적인 복제 사례에서 타인에 대한 권리 행사를 할 수 없을 수 있습니다. 이는 생성한 작품에 대한 저작권 보호가 필요한 미디어 기업이나 개인에게 중요할 수 있습니다. 따라서 기업들은 이러한 작품에 대한 저작권 보호가 없을 경우의 위험성을 이해하는 것이 중요합니다.
출력 편향 사용자는 생성형 AI 소프트웨어를 다양한 용도로 활용할 수 있습니다. 예를 들어, ChatGPT를 챗봇으로 사용하거나 지원자의 이력서를 평가하거나 창작 글쓰기에 활용하는 경우입니다. 이러한 각 사용 사례에서 생성형 AI 소프트웨어의 출력은 편향을 보일 수 있으며, 이를 발견하지 못할 경우 차별적 행동으로 이어질 수 있습니다. 차별적이거나 모욕적인 행동은 부정적인 홍보 위기, 소송 위험 및 민사 처벌로 이어질 수 있습니다. 따라서 사용자와 기업은 생성형 AI 사용을 모니터링하여 시스템에 편향이 나타나지 않도록 해야 합니다.
출력물의 사실적 부정확성 생성형 AI 시스템은 콘텐츠를 자동으로 생성하는 데 탁월합니다. 그러나 생성된 콘텐츠가 사실과 다를 수 있습니다. 생성형 AI 시스템의 가장 큰 과제 중 하나는 '환각(hallucinations)' 개념입니다. 이는 생성형 AI가 사실처럼 보이지만 실제로는 존재하지 않는 정보를 만들어내는 능력을 의미합니다. 생성형 AI 모델이 더 많은 양의 정보를 출력하도록 요청받을 때 환각 발생 위험은 증가합니다. 사용자와 기업은 사실과 다른 정보에 기반한 잘못된 결론 도출이나 행동을 방지하기 위해 AI 생성 콘텐츠의 사실적 정확성을 반드시 확인해야 합니다. 이를 소홀히 할 경우 타인이 해당 정보를 신뢰하여 부적절한 행동을 취할 때 기업이 법적 책임을 질 수 있습니다. 예를 들어 의료 환경에서 생성형 AI 챗봇이 환자에게 심각한 알레르기 반응을 일으킬 수 있는 약물 복용을 권하는 환각을 보일 수 있습니다.
알고리즘적 환수 여러 생성형 인공지능 소프트웨어 기업들이 저작권 침해 주장으로 법적 도전에 직면해 있으며, 이들 기업이 어떤 책임이나 처벌을 받게 될지는 불분명하다. 최근 연방거래위원회(FTC)는 '알고리즘적 환수(algorithmic disgorgement)'라는 새로운 집행 메커니즘을 도입해 불법적으로 수집한 데이터로 알고리즘을 훈련시킨 기업을 처벌하고 있습니다. 해당 기업은 수집한 데이터를 삭제하거나, 해당 데이터로 개발한 알고리즘 또는 모델을 삭제해야 합니다. 알고리즘적 환수 위협은 해당 모델에서 생성된 결과물까지 확대될 수 있으며, 따라서 사용자는 타인의 권리를 침해한 생성형 AI 모델을 사용해 생성한 작업물을 잃을 위험에 처할 수 있습니다.
면책 다양한 생성형 AI 소프트웨어는 이용약관의 일환으로 사용자에게 해당 생성형 AI 소프트웨어에 대한 면책 조항을 요구합니다. 따라서 저작권 소유자는 자신의 저작권이 있는 데이터로 훈련된 생성형 AI 소프트웨어를 사용한 사용자를 상대로 소송을 제기할 수 있습니다. 이러한 노출 위험은 생성형 AI 모델을 사용하여 특정 시각 예술가의 저작물과 실질적으로 유사한 이미지를 출력하거나, 출력물에 해당 모델이 시각 예술가 또는 이미지 출처의 저작권 데이터로 훈련되었음을 나타내는 워터마크나 기타 표식이 삽입된 경우 더욱 높아집니다.
기업과 직원들이 업무 현장에서 생성형 AI 솔루션을 도입하기 시작함에 따라, 생성형 AI 도입과 관련된 위험을 이해하고 그러한 위험을 완화하는 데 도움이 될 정책을 수립해야 합니다.
|
생성형 인공지능(AI)은 기업의 운영 방식을 혁신하고, 반복적인 작업을 자동화하며, 새로운 제품과 디자인을 창출할 잠재력을 지니고 있습니다. 그러나 모든 신기술과 마찬가지로 고려해야 할 법적 함의도 존재합니다. 업무에서 생성형 AI를 활용하는 조직은 이 기술 사용 시 발생하는 주요 법적 문제점을 인지해야 합니다. 본 글에서는 업무 현장에서 생성형 AI를 사용할 때 조직이 직면하는 주요 10가지 법적 쟁점을 논의하겠습니다.
지적 재산권 직장에서 생성형 AI를 사용할 때 주요 법적 문제 중 하나는 지적 재산권입니다. 생성형 AI를 활용해 새로운 제품이나 디자인을 창작할 경우, 이러한 창작물에 대한 권리를 누가 소유하는지가 쟁점이 됩니다. 많은 경우 생성형 AI가 생성한 결과물은 AI 시스템과 인간 사용자가 권리를 공유하는 '공동 작업물'로 간주될 수 있습니다. 그러나 구체적인 권리 소유권과 분배는 복잡할 수 있으며 각 사례의 상황에 따라 달라질 수 있습니다.
데이터 프라이버시 조직이 업무에서 생성형 AI를 사용할 때 직면하는 또 다른 법적 문제는 데이터 개인정보 보호입니다. AI 시스템은 성능을 훈련하고 향상시키기 위해 방대한 양의 데이터가 필요하며, 이 데이터는 종종 민감하거나 개인적인 성격을 띠는 경우가 많습니다. 조직은 일반 데이터 보호 규정(GDPR) 및 캘리포니아 소비자 개인정보 보호법(CCPA)을 포함한 모든 관련 데이터 개인정보 보호 법률 및 규정을 준수해야 합니다.
고용법 인공지능 시스템은 기존에 인간이 수행하던 많은 업무를 자동화할 수 있으며, 이는 고용 환경에 상당한 영향을 미칠 수 있습니다. 조직은 자동화 대상 업무 선정에 있어 공정한 절차를 포함하여 모든 관련 고용 법규를 준수하고, 영향을 받는 직원들에게 적절한 교육과 지원을 제공해야 합니다.
책임 인공지능 시스템이 제품이나 서비스를 생성할 때, 해당 제품이나 서비스의 사용으로 인해 발생할 수 있는 피해에 대한 책임 소재가 문제가 됩니다. 조직은 잠재적인 청구 사항을 처리할 수 있도록 적절한 책임 보험을 반드시 마련해야 합니다.
차별 조직은 생성형 AI 사용으로 발생할 수 있는 잠재적 차별 위험도 인지해야 합니다. AI 시스템은 포용적으로 설계되어 특정 집단에 영향을 미칠 수 있는 편향을 피해야 합니다. AI 시스템이 공정하고 효과적으로 작동하는지 확인하기 위해 정기적인 모니터링과 감사를 실시해야 합니다.
공정성 생성형 인공지능의 사용 역시 공정하고 투명해야 합니다. 조직은 인공지능 시스템이 차별적이거나 편향된 결정을 내리지 않도록 보장해야 하며, 필요한 경우 결정 과정이 어떻게 이루어졌는지 입증할 수 있어야 합니다.
계약법 조직은 업무에서 생성형 AI를 활용할 때 계약법도 인지해야 합니다. 계약서는 AI 시스템, 인간 사용자, 그리고 결과물 생성 과정에 관여하는 기타 당사자들의 권리와 책임을 명확히 규정해야 합니다.
규정 준수 조직은 금융 서비스 규정이나 의료 규정과 같은 산업별 규정을 포함한 모든 관련 규정을 준수해야 합니다.
사이버 보안 직장에서 생성형 AI를 사용할 때 사이버 보안은 주요 관심사입니다. 조직은 데이터를 보호하기 위해 암호화, 접근 제어 및 모니터링 시스템을 포함한 적절한 보안 조치를 구현해야 합니다.
국제법 조직은 업무에서 생성형 AI를 사용할 때 국제법도 인지해야 합니다. 국가마다 AI 사용에 관한 법률과 규정이 다르며, 조직은 운영 중인 각 관할권의 법률 및 규정을 준수해야 합니다.
결론 생성형 AI는 기업의 운영 방식을 혁신하고, 반복적인 업무를 자동화하며, 새로운 제품과 디자인을 창출할 잠재력을 지닙니다. 그러나 조직은 업무 현장에서 생성형 AI를 활용할 때 발생할 수 있는 법적 함의를 반드시 인지해야 합니다.
|
문맥
이 실험에서 우리가 변호사로서 법률 콘텐츠를 테스트 사례로 사용했다는 점은 우리에게도 잘 알려져 있습니다. 특히 캐시에게 생성형 AI 사용과 관련된 법적 문제를 찾아내고 그에 대해 글을 쓰도록 요청한 것이죠. 변호사로서 우리는 고객 업무와, 여기처럼 일반 정보 제공을 목적으로 분석을 제시하는 경우 모두에서 정확한 콘텐츠를 제공하는 데 특히 신경을 씁니다. 후자의 경우 법적 조언으로 간주되지 않습니다. 그러나 정확성은 거의 모든 분야에서 매우 중요합니다.
따라서 앞서 언급한 바와 같이, 샤비가 자신의 작업을 공개적으로 게시하기 전에도 우리는 그가 일반적으로 더 지식이 풍부한 변호사들과 상담할 것이라고 말했습니다(이번에는 그러지 않았습니다). 캐시를 신뢰하는 모든 사람에게도 동일하게 적용됩니다. 그녀가 생성한 콘텐츠는 단독으로 사용되어서는 안 되며, 누군가가 이를 신뢰하거나 타인에게 권위 있는 자료로 제시하기 전에 반드시 검토 및 검증되어야 합니다. 물론, 이 실험을 통해 생성된 콘텐츠는 단순한 예시에 불과하며 실질적 정확성을 위해 의존할 목적으로 제작된 것이 아님을 다시 한번 강조합니다.
생성형 인공지능, 본문에 제기된 문제점 또는 인공지능 전반에 관한 문의 사항이 있으시면 Foley & Lardner LLP 인공지능 팀 구성원에게 연락주시기 바랍니다.