AI

AI 챗봇이 생성하는 부정확한 정보, 문제는 무엇인가?

NN' Archive 2025. 2. 13. 22:06
반응형

 

최근 연구에 따르면, 주요 AI 챗봇들이 시사 문제에 대해 종종 부정확하거나 오해의 소지가 있는 정보를 생성하는 것으로 밝혀졌다. AI 기술이 점점 발전하면서 뉴스 요약과 정보 제공에 활용되고 있지만, 신뢰할 수 있는 정보를 제공하는 데에는 여전히 한계가 존재한다.

AI 챗봇의 정보 오류, 얼마나 심각한가?

BBC가 진행한 조사에서는 ChatGPT, Google Gemini, Microsoft Copilot, Perplexity와 같은 AI 챗봇들이 뉴스 기사를 요약할 때 상당한 오류를 범하는 것으로 나타났다. 100개의 BBC 뉴스 기사를 대상으로 한 실험에서 AI가 생성한 요약문의 절반 이상이 중대한 문제를 포함하고 있었으며,

  • 19%는 잘못된 진술이나 숫자, 날짜 등의 오류를 포함
  • 13%는 원본과 다른 인용문을 포함

예를 들어, Google Gemini는 영국 국가보건서비스(NHS)가 전자담배 사용을 권장하지 않는다고 잘못 요약했으나, 실제로 NHS는 금연을 위해 전자담배 사용을 권장하고 있다. 또한, ChatGPT는 2024년 12월에 이스마일 하니예를 하마스 지도부의 일원으로 언급했지만, 그는 이미 2024년 7월에 암살된 상태였다.

AI 챗봇의 '환각(hallucination)' 현상

이러한 부정확한 정보 생성 현상은 AI 모델이 자신이 모르는 정보를 '모른다'고 인정하지 않고, 그럴듯한 답변을 생성하는 경향에서 비롯된다. 이를 ‘환각(hallucination)’ 현상이라고 부르며, AI 모델이 의도적으로 거짓 정보를 생성하는 것은 아니지만, 주어진 데이터와 패턴을 기반으로 가장 타당해 보이는 답변을 만들어내는 과정에서 발생한다.

해결책은 무엇인가?

AI 챗봇이 부정확한 정보를 제공하는 문제를 해결하기 위해 개발자들은 다음과 같은 방법을 연구하고 있다.

  • 신뢰할 수 있는 출처 활용: AI가 정보를 제공할 때 신뢰할 만한 데이터베이스와 출처를 기반으로 학습하도록 개선
  • 출처 명확화: AI가 답변을 생성할 때 근거를 제시하도록 설계
  • 사용자 교육: AI의 답변을 무비판적으로 받아들이지 않고 검증하는 태도를 가질 필요성 강조

AI 챗봇은 강력한 도구이지만, 아직 완벽하지 않다. 사용자들은 AI가 제공하는 정보를 맹신하기보다는 출처를 확인하고 비판적으로 접근하는 태도를 가져야 한다. AI 기술이 더욱 발전하면서 신뢰성을 높이는 연구와 개선이 계속될 것으로 기대된다.

반응형