
이제 우리는 모두 AI 환각이 무엇인지 대략 알고 있습니다. 겉보기엔 맞는 말처럼 들리지만 실제로는 그렇지 않은 출력 결과죠. 때론 재미있기도 합니다. 예를 들어 구글의 바드(현 제미니) 챗봇이 홍보 영상과 라이브 데모에서 제임스 웹 우주 망원경이 외계 행성의 첫 사진을 찍었다고 자신 있게 주장한 사건이 있죠. 사실은 전혀 다른 망원경이 수년 전에 이미 그 사진을 찍었는데, 바드가 그냥 지어낸 이야기였습니다. 하지만 구글 경영진과 주주들에게는 전혀 재미있지 않은 일이었습니다. 구글의 모회사인 알파벳은 시가총액 약 1000억 달러를 잃었고, 데모 직후 주가가 8~9% 급락했습니다.
이는 단순한 기술적 결함이 아니라 AI 신뢰성에 생긴 균열을 의미한다. 연구에 따르면 최신형 고성능 AI 모델 일부가 유창성과 능력이 향상됨에도 불구하고.1 기업과 사회에 있어, AI 환각의 위험성과 결과는 현실 세계의 사건들에서 점점 더 분명해지고 있습니다. 당황스러운 챗봇 실수부터 막대한 법적 책임에 이르기까지 다양합니다.
기업들은 환각 현상과 그것이 회사에 초래할 수 있는 피해에 더 많은 관심을 기울이고 있다.
AI 환각이란 무엇인가?
간단히 말해, AI 환각은 AI 모델이 그럴듯하게 들리지만 사실이 아니거나 현실에 근거하지 않은 정보를 출력할 때 발생합니다. '환각'이라는 비유가 적절한 이유는, 마치 사람이 실제로 존재하지 않는 것을 보는 것처럼 AI가 현실에 실제로 존재하지 않는 패턴이나 답을 인지하기 때문입니다.
이러한 환각 현상이 발생하는 이유는 무엇인가요? 생성형 AI 모델은 진실을 검증하기보다는 그럴듯한 출력을 예측하도록 설계되었기 때문입니다. LLM은 방대한 훈련 데이터에서 학습한 패턴을 바탕으로 다음 단어나 문장을 통계적으로 예측하여 텍스트를 생성합니다. 이 과정은 정확도가 아닌 유창성(답변이 타당하게 들리고 잘 구성됨)과 프롬프트와의 관련성을 최적화합니다. 한 AI 엔지니어의 설명처럼, 모델의 주요 목표는 단어의 연속성을 타당해 보이는 방식으로 이어가는 것입니다— "출력이 현실이나 질문의 맥락과 일치하는지 여부와 무관하게".2
따라서 모델이 올바른 답을 학습하지 못했거나 프롬프트가 모델의 지식 범위를 벗어날 경우, 종종 즉흥적으로 대응하며 신뢰할 수 있어 보이지만 완전히 틀릴 수도 있는 정보 조각들을 이어붙이곤 합니다. 훈련 데이터의 방대한 규모(대부분 검증되지 않은 인터넷 콘텐츠)는 모델이 무수한 부정확성과 편향을 흡수했음을 의미하며, 이를 그대로 토해내거나 재조합하여 새로운 허위 정보를 생성할 수 있습니다. 현재의 AI는 내장된 사실 확인 메커니즘이 부족합니다. 즉, 진실과 허구를 구분하는 근거 있는 이해가 결여되어 있습니다.
정확한 정보만으로 훈련된 인공지능이라도 텍스트 생성 과정의 확률적 특성으로 인해 사실을 잘못된 방식으로 재조합할 수 있다. 인공지능 시스템은 정보를 진정으로 이해하기보다는 방대한 양의 텍스트를 통계적으로 처리하고, 훈련 데이터에서 학습한 패턴에 따라 문맥이나 사실적 근거를 인식하지 못한 채 단어를 재조합한다. 이러한 '지식 맹목적' 생성이 바로 인공지능 출력이 권위적으로 들리면서도 완전히 오류일 수 있는 이유이며, 이는 사용자를 당황하게 만든다.
인공지능 환각 현상이 기업에 비용을 초래하는 이유와 방법
인공지능 시스템이 허위 정보를 생성할 때 그 결과는 사소한 불편함에서 심각한 피해에 이르기까지 다양할 수 있습니다. 이러한 허위 출력이 특히 위험한 이유는 종종 매우 확신에 찬 일관된 방식으로 전달되어 사용자가 사실과 허구를 구분하기 어렵게 만들기 때문입니다.
신뢰와 브랜드 평판의 훼손. 인공지능의 환각 현상은 기업과 그 제품 및 서비스에 대한 신뢰를 심각하게 훼손할 수 있습니다. 고객들은 "인공지능이 실수를 했다"와 "당신이 허위 정보를 제공했다"를 구분하지 않습니다. 어느 쪽이든 기업의 신뢰도가 위태로워집니다. 단 한 번의 주목받는 실수만으로도 어렵게 쌓아온 신뢰가 무너질 수 있습니다. 앞서 언급된 구글 바드 사건은 공개된 환각 현상이 막대한 재정적·평판적 손실로 이어질 수 있음을 보여줍니다. 경영진들은 AI 기반 서비스가 단 한 번의 잘못된 조언이나 허위 인용을 제공해도 수년간 쌓아온 고객 신뢰가 순식간에 사라질 수 있다고 지적합니다. 한 사례에서 항공사의 챗봇이 잘못된 정책 정보를 제공했습니다. 진실이 드러나자 해당 기업은 법적 책임을 지게 되었고 봇을 중단해야 했으며, 이는 고객 신뢰와 확신을 손상시켰습니다.³ 법정과 여론에서 'AI의 잘못'이라는 변명은 통하지 않았습니다.
환각은 인간 오류보다 더 심각하다. 인공지능의 실수는 인간의 실수보다 더 큰 피해를 초래할 수 있다. 소비자들은 일반적으로 인간의 실수를 인공지능이 생성한 오류보다 더 이해하고 용서할 수 있다고 여긴다. 이는 인간이 실수할 수 있다는 점에 공감하면서도 인공지능 시스템에는 더 높은 정확성을 기대하기 때문이다. 인공지능의 환각 현상은 자의적으로 보이며, 책임감과 공감 능력이 결여되어 소비자의 통제감을 약화시켜 좌절감을 증폭시키고 신뢰를 훼손한다. 결국, 결함이 있는 인공지능에 의존하는 기업의 이미지는 직원들의 실수보다 소비자에게 더 큰 불안을 안긴다.
잘못된 정보와 부적절한 의사 결정. 환각된 출력은 직원과 기업이 실제 결과를 초래하는 잘못된 결정을 내리게 할 수 있습니다. 예를 들어 금융 서비스 시나리오를 생각해 보십시오. AI 어시스턴트가 오래된 금리나 잘못 계산된 위험 평가를 제공하면, 그 잘못된 정보를 바탕으로 행동하는 고객이나 은행 직원은 금전적 손실을 입거나 규정 준수 규칙을 위반할 수 있습니다.
공공 부문에서는 뉴욕시에서 놀라운 사례가 발생했다. 시민을 돕기 위해 도입된 시정부 챗봇이 잘못된 조언을 제공했을 뿐만 아니라 실제로 불법적인 내용을 제시한 것이다. 이 챗봇은 시민들이 시 및 연방 법률을 무심코 위반하게 될 행동을 권유했다. 만약 사용자들이 식품 안전부터 공중 보건에 이르는 다양한 주제에 관한 이러한 지침을 따랐다면 벌금이나 기타 처벌을 받을 수 있었다.⁴
재정적 손실과 숨겨진 비용. 인공지능 환각의 직접적 비용은 상당할 수 있다. 앞서 언급한 항공사 사건에서, 환불 자체 외에도 항공사는 법률 비용, 부정적 보도, 고객 신뢰도 하락을 겪었다. 챗봇이 잘못된 투자 조언이나 부적절한 규정 준수 지침을 제공했다면, 그로 인한 재정적 피해는 훨씬 더 클 수 있다.
이러한 직접적 손실 외에도 환각 현상은 숨겨진 비용을 초래한다. AI가 오류를 생성할 때마다 인간이 이를 발견하고 수정해야 한다. 예를 들어 코드 생성 AI를 사용하는 소프트웨어 개발자들은 환각 코드(버그, 잘못된 API 등)가 생산성 향상을 무효화할 수 있음을 발견했다. AI가 작성한 코드를 디버깅하는 데 추가 시간을 소모하며, 때로는 직접 작성했을 때보다 더 많은 시간이 걸리기도 한다. 기업들은 또한 품질 보장을 위해 감독 메커니즘(인적 검토, 테스트 등)에 투자해야 하며, 이는 사실상 AI 산출물에 대한 '세금'을 내는 것과 같습니다. 이러한 모든 간접 비용은 환각 현상이 빈번할 경우 AI의 효율성 향상 효과가 약화되거나 심지어 역전될 수 있음을 의미합니다.
법적 책임 및 규정 준수 위험.규제 대상 분야나 고위험 분야에서 AI 시스템이 허위 정보를 제공할 경우, 조직은 법적 문제에 휘말릴 수 있습니다. 변호사들도 결코 예외가 아닙니다.
법학자 데미안 샤를로탱이 큐레이팅한 웹사이트'AI 환각 사례 데이터베이스'는 AI가 생성한 허위 법적 콘텐츠 사례를 강조하는 사법 결정들을 점점 더 많이 기록하고 있다. 여기에는 조작된 인용, 허위 인용, 왜곡된 판례 등이 포함된다.5 최근 업데이트 기준, 이 데이터베이스에는 전 세계적으로 200건 이상의 사례가 등재되어 있으며, 미국에서만 125건 이상이 기록되어 있다.6 이러한 사례들은 전문직 위법 행위로 간주될 수 있으며 실제 처벌로 이어지기도 했다.
법정 밖에서도 인공지능이 생성한 명예훼손과 허위정보는 점점 더 큰 책임 문제로 대두되고 있다. 특히 ChatGPT는 호주 한 시장에 대한 허위 뇌물 수수 혐의를 조작해 제작사 오픈AI를 상대로 명예훼손 소송이 거의 제기될 뻔했다. (해당 사건에서 시장은 가해자가 아닌 내부 고발자였다.)7
규제 당국은 이러한 위험을 잘 인지하고 있으며, AI로 인한 오류가 소비자 피해를 초래할 경우 기업은 규제 조치를 받을 수 있습니다. 최소한 누군가가 AI 출력 결과에 의존했는데 그것이 허위이며 피해를 입히는 것으로 드러날 경우, 기업은 소송, 제재 또는 규제적 처벌의 위험에 직면합니다. 법적 원칙은 명확합니다. AI가 기업의 대리인 역할을 한다면, AI가 사람들에게 전달하는 내용에 대해 기업이 책임을 질 가능성이 높습니다.
안전 및 신체 상해 위험. 자율주행 차량 내비게이션, 드론 운영, 로봇 수술 등 물리적 프로세스 제어에 책임이 있는 AI 시스템이 허위 신호를 생성하거나 센서 데이터를 오해할 경우 심각한 사고, 신체적 피해, 심지어 사망까지 초래할 수 있습니다. 완전 생성형 AI가 안전이 중요한 분야에 널리 배포되지 않아 이러한 사고는 드물지만, 재앙적 결과의 가능성은 여전히 크다. 고객 지원 AI는 잘못된 지침을 환각하여 사용자에게 위험한 기계의 부적절한 취급, 위험 물질의 잘못된 혼합, 안전하지 않은 수리 시도 등 안전하지 않은 행동을 지시할 수 있습니다. 마찬가지로, 잘못된 의료 조언이나 약물 용량을 환각하는 AI 기반 의료 보조 시스템은 환자의 부상이나 사망으로 직접 이어질 수 있습니다.
인공지능 활용의 미래에 미치는 영향
도입에 대한 신중함. 환각 현상 문제가 더 잘 통제될 때까지 많은 조직들은 핵심 프로세스에 AI를 통합하는 데 여전히 신중한 태도를 유지하고 있다. 금융 분야 등의 설문조사에 따르면 정확성과 데이터 무결성에 대한 우려가 AI 도입의 주요 장벽으로 꼽힌다. 리더들은 고위험 상황에서 AI의 단일 오류(예: 잘못된 규정 준수 정보 제공 또는 고객에 대한 데이터 오보고)가 막대한 파장을 초래할 수 있음을 인지하고 있습니다. 따라서 머지않아 AI는 임무 핵심 업무에 제한적이거나 엄격한 감독 하에 활용될 것으로 예상됩니다.
의료 분야에서 AI 진단 제안은 완전 자동화되기보다는 의료 전문가의 최종 승인을 필요로 할 가능성이 높다. 이러한 '인간 개입(human in the loop)' 방식은 광범위한 인식의 반영이다. 즉, AI가 특정 작업을 수행할 때 신뢰할 수 있게 '환각'을 일으키지 않을 때까지 완전 자동화는 위험하다는 점이다. 반면 AI를 도입하는 기관들은 지속적인 감독 비용을 예산에 반영해야 하며, 이는 AI 기반 효율성 향상을 늦출 수 있다.
신뢰와 사용자 수용. 환각 현상의 지속은 중대한 시점에서 대중의 AI 신뢰를 훼손할 위험이 있습니다. 고객, 클라이언트, 사용자가 AI 출력을 신뢰할 수 없다고 인식하게 되면, 중요한 사안에 이러한 도구를 사용하려는 의향이 줄어들 것입니다. 잘못된 답변이나 기이한 응답을 하는 챗봇을 경험한 사용자들은 종종 신뢰할 수 있는 정보를 얻기 위해 기존 검색 엔진이나 인간 상담사로 회귀한다. 환각 현상에 대한 인식은 일부 사용자 집단에서 긍정적인 행동 변화를 촉발했다. 연구에 따르면 AI가 틀릴 수 있다는 사실을 아는 사용자들은 정보를 더 꼼꼼히 검증하게 되는데, 이는 개발해야 할 좋은 디지털 리터러시 기술이다.⁸
신뢰성을 위한 기술적 군비 경쟁. 환각 현상은 AI를 보다 '진실성' 있고 현실 기반이 되도록 만들기 위한 본질적인 군비 경쟁인 치열한 연구 개발 노력을 촉발시켰다. 주요 AI 연구소들은 다양한 기법을 탐구하고 있다. 인간 피드백을 통한 강화 학습(잘못된 출력에 대한 페널티 부여), 실시간 지식 검색 통합, "모를 때를 아는" 향상된 아키텍처 등이 대표적이다. 오픈AI의 CEO 샘 알트먼은 진전이 있을 것이라는 낙관론을 표명하며, 1~2년 안에 문제가 "훨씬, 훨씬 나아질 것"이라 예측했다. 그 정도가 되면 우리는 이 문제를 그다지 많이 논의하지 않을 수도 있다고 덧붙였다.
규제 및 법적 환경. 특히 AI 환각 현상의 확산은 입법자 및 규제 기관의 주목을 받고 있으며, 이는 AI 활용 방식에 영향을 미칠 것입니다. 이미 미국 법을 비롯한 여러 지역에서 AI 생성 콘텐츠에 대한 투명성 의무화(AI 기반 허위 정보 확산 방지 목적)를 요구하는 규정 및 제안이 등장하고 있습니다. 향후 기업들은 특정 안전장치를 마련해야 할 가능성이 높아질 것이며(그렇지 않을 경우 법적 책임을 지게 될 수 있음).
이 모든 것이 기업 전략을 형성하고 있습니다. 기업들은 데이터 프라이버시나 사이버보안과 마찬가지로 AI에 대한 컴플라이언스 프레임워크를 갖춰야 합니다. 환각 현상은 AI 거버넌스의 성숙을 촉진하고 있습니다. 정책, 기술, 교육을 통해 위험을 잘 관리하는 기업들은 AI를 더 자유롭게 활용할 수 있을 것이며, 그렇지 못한 기업들은 사건에 의해 갑작스럽게 타격을 받거나 규제 당국과 대중의 불신으로 인해 주변부로 밀려날 것입니다.
환각 위험 관리 및 완화
1. 오류가 증명될 때까지 오류를 가정하라. 기업은 유창함(잘 작성되고 듣기 좋은 AI 응답)이 정확성과 동일하지 않다는 사고방식을 함양해야 한다. 직원들은 검증되지 않은 한 모든 자신감 넘치는 AI 출력을 잠재적으로 잘못된 것으로 간주해야 한다. 이 원칙은 기업 문화와 교육에 깊이 뿌리내려야 한다. 기본적으로 AI 사용자는 인간 신입 직원의 놀랍거나 중요한 답변이나 분석을 확인할 때와 마찬가지로, AI가 제공하는 핵심 사실을 항상 재확인해야 한다.
2. 인간 개입형 감독 체계 구현. 인공지능의 허상(hallucinations)에 대한 가장 신뢰할 수 있는 방어책은 인간의 검토와 검증입니다. 인공지능 챗봇이나 콘텐츠 생성기를 도입하는 기업은 고객 접점이나 고위험 출력물에 대해 반드시 자격을 갖춘 인력이 사전에 개입하거나 사후에 면밀히 모니터링하도록 해야 합니다. 예를 들어, '자격'을 강조하는 맥락에서 인공지능이 작성한 법률 계약서 초안은 경험 많은 변호사의 검토를 받아야 합니다. AI 고객 서비스 에이전트는 간단한 FAQ는 자율적으로 처리할 수 있지만, 위험도가 낮은 기준을 초과하는 사항은 반드시 인간 상담원에게 인계해야 합니다.
3. 검색 및 검증된 데이터 소스 활용. 효과적인 기술적 해결책으로 입증된 것은 검색 강화 생성(RAG)입니다. 이는 본질적으로 AI 모델을 신뢰할 수 있는 데이터 소스와 연결하는 것입니다. AI가 자체 학습한 지식(일반적이고 불완전하며/또는 오래된 데이터에 기반할 수 있음)에만 의존하는 대신, 시스템은 신뢰할 수 있는 관련 데이터베이스나 문서에서 관련 정보를 가져와 답변에 통합하도록 설계됩니다. 예를 들어, 기업들은 이제 직원 대상 챗봇이 질문에 답변할 때 공식 정책 데이터베이스에서 정책 세부사항을 가져오도록 하는 것이 일반적입니다. 이를 통해 일반적인 지식에서 비롯된 잘못 기억된 요약이 아닌 실제 정책 문구를 인용하도록 보장합니다.
마찬가지로, AI는 특정 주제가 언급될 때 검증된 저장소에서 최신 가격 데이터나 의료 지침을 검색하도록 설정될 수 있습니다. 최신 검증된 데이터에 기반한 응답을 제공함으로써 AI가 허위 정보를 생성할 가능성은 크게 줄어듭니다. 현재 많은 기업용 AI 플랫폼이 검색 기반 Q&A를 위한 플러그인이나 아키텍처를 제공합니다. 정확성이 최우선인 경우 조직은 도메인 특화 모델을 사용해야 합니다. 해당 분야의 권위 있는 데이터만으로 훈련된 소규모 모델이 주제에서 벗어날 수 있는 대규모 일반 모델보다 더 신뢰할 수 있습니다.
4. "아첨꾼" 문제 해결. 기업은 AI 시스템을 안전하고 정확한 범위 내에 유지하기 위한 안전장치를 마련해야 합니다. 안전장치에는 입력 필터, 출력 규칙, 컨텍스트 제약 등이 포함될 수 있습니다. 초기 생성형 AI 대규모 언어모델(LLM)은 거의 모든 "비용"을 감수하고 답변을 제공하도록 훈련되었습니다. 최근에는 AI가 범위를 벗어난 질문에 답변하지 못하도록(대신 "죄송합니다, 그건 도와드릴 수 없습니다"라고 응답하도록) 훈련되어 추측이나 허위 답변을 방지하고 있습니다. 이는 "AI 아첨꾼" 문제를 해결합니다. 즉, 모델이 사용자의 기대에 맞추거나 기쁘게 하려는 답변을 생성하는 경향이 있는데, 그 답변이 틀리거나 오해의 소지가 있어도 말입니다.
5. 자동화된 사실 확인 도구를 활용하세요. 일부 솔루션은 AI의 출력을 지식 기반과 대조하여 소스에 없는 사실을 도입하는 답변(근거 없는 콘텐츠 식별)을 표시하거나 차단합니다. 기술적으로 모델의 "온도"를 낮게 설정(즉, 무작위성을 줄임)하면 더 안전하고 예측 가능한 표현을 고수하도록 강제할 수 있어, 부정확할 수 있는 창의적인 표현을 줄일 수 있습니다.
일부 솔루션은 AI의 출력을 지식 기반과 대조하여 출처에서 발견되지 않은 사실을 도입하는 답변(근거 없는 콘텐츠 식별)을 표시하거나 차단합니다. 기술적으로 모델의 "온도"를 낮게 설정(즉, 무작위성을 줄임)하면 더 안전하고 예측 가능한 표현을 고수하도록 강제할 수 있어, 부정확할 수 있는 창의적인 표현을 줄일 수 있습니다. 그러나 AI를 훈련시켜 매력적이고 인간적인 창의적 응답을 생성한다는 원래 목표와, 엄격히 사실적이고 신뢰할 수 있도록 유지해야 하는 필요성 사이의 본질적 마찰을 기억해야 합니다. 환각 현상을 최소화하려는 노력은 종종 AI가 덜 로봇처럼 느껴지게 하는 대화의 유연성과 창의적 특성을 일부 희생하는 것을 의미합니다.
6. 사용자 교육 및 경고. 환각 현상의 위험을 관리하기 위해서는 최종 사용자와의 투명성이 중요합니다. 직원들이 AI의 답변이 부정확할 수 있음을 인지한다면 보다 신중하게 접근할 수 있습니다. 기업은 AI 인터페이스에 면책 조항이나 상황별 힌트를 제공해야 합니다. 예를 들어, "이 답변은 AI가 생성한 것으로 100% 정확하지 않을 수 있습니다. 중요한 정보는 반드시 확인하시기 바랍니다."와 같은 메시지를 표시해야 합니다.
면책 조항을 넘어 사용자 교육이 중요하다. 기업은 직원(가이드를 통해 고객 및 클라이언트까지 포함)에게 AI 도구를 책임감 있게 사용하는 방법을 교육해야 한다. 여기에는 잠재적 허위 정보(예: 출처 없는 지나치게 구체적인 주장이나 일관성 없는 세부 사항)를 식별하는 법을 가르치고, 신뢰할 수 있는 출처와의 교차 검증 관행을 장려하는 것이 포함된다. 현명하고 비판적인 사용자는 AI 생성 허위 정보 확산에 대한 최후의 방어선 역할을 한다.
7. 모니터링, 감사 및 신속한 오류 수정. 모든 예방 조치에도 불구하고 일부 오류는 발생할 수 있습니다. 기업은 이를 신속하고 효율적이며 효과적으로 탐지하고 처리할 수 있는 계획을 마련해야 합니다. 기업은 직원 및 기타 사용자로부터 피드백을 적극적으로 수렴해야 합니다. 오류가 발견되면 투명하고 신속하게 시정 조치를 취하십시오. 실수를 인정하는 것은 당장의 문제를 해결할 뿐만 아니라 장기적으로 신뢰도를 보호하는 데 도움이 됩니다. 사용자들은 정직함과 개선 노력을 보일 때 더 관대하게 받아들입니다.
8. AI와 인간의 협력을 촉진하라, 대체가 아닌. 기업은 AI를 인간의 판단을 대체하는 것이 아닌, 업무 능력을 보완하는 도구로 활용해야 합니다. 직원들이 AI가 업무를 지원하고 속도를 높이기 위한 존재일 뿐, 완벽한 결정을 내리는 존재가 아님을 이해할 때, AI를 적절히 활용할 가능성이 높아집니다. AI가 반복적인 작업(초안 작성, 기본적인 Q&A, 데이터 요약)을 처리하고, 인간이 최종 검증, 전략적 사고, 창의적 판단을 담당하는 업무 흐름을 장려하십시오.
이는 각자의 강점을 살리는 방식이다. 인공지능은 효율성과 방대한 지식을 제공하며, 인간은 면밀한 검토, 윤리적 판단, 상식을 제공한다. 인공지능을 협력 파트너로 삼음으로써 조직은 통제권을 포기하지 않으면서도 인공지능의 생산성을 활용할 수 있다. 목표는 인공지능에 대한 의존이 아닌 효과적인 협업이어야 한다.
결론
인공지능 환각 현상은 평판 손상, 재정적 비용, 법적 책임, 심지어 신체적 피해에 이르기까지 실질적이고 중대한 위험을 초래합니다. 인공지능을 도입하는 기업은 이러한 과제를 인식하고 효과적인 위험 관리 전략을 최우선으로 삼아 이를 완화해야 합니다. 환각 현상을 성공적으로 해결하기 위해서는 명확한 가이드라인, 지속적인 인간 감독, 검색 강화 생성(RAG)과 같은 기술적 해결책, 그리고 사전적 사용자 교육이 필요합니다. 이러한 조치를 신중하게 시행하는 기업은 인공지능의 강력한 혜택을 활용하면서도 내재된 위험으로부터 보호받을 수 있는 최적의 위치에 설 것입니다.
이 기사는 원래 The AI Journal 에 게재되었습니다.