AI는 왜 거짓말을 하는가 ― 할루시네이션의 구조에 관하여
AI는 왜 거짓말을 하는가― 할루시네이션의 구조에 관하여 거대언어모델이 자신만만하게 틀린 답을 내놓는 현상을 우리는 할루시네이션(hallucination)이라 부른다. 흥미롭게도 이 문제는 모델이 정교해질수록 자연히 소멸하리라던 초기의 낙관과 달리, 오히려 더 깊은 구조적 난제로 드러나고 있다. OpenAI가 2025년 9월에 발표한 논문 「Why Language Models Hallucinate」은 이 현상을 트랜스포머 구조의 우연한 결함이 아니라 통계적 학습 목표 자체에서 비롯되는 필연적 오류로 재정의한다. 같은 해 공개된 한 분석에 따르면, OpenAI의 추론 모델 o3와 o4-mini조차 인물에 관한 사실 질문(PersonQA)에서 각각 33퍼센트와 48퍼센트의 할루시네이션율을 기록했다. 즉 추론..
About AI
2026. 4. 29. 10:10