🧠 AI 망상(Hallucination)은 생성형 AI가 실제로 존재하지 않거나 사실과 다른 정보를 진짜처럼 만들어내는 현상을 말합니다. 이는 단순한 오류를 넘어 사용자의 의사결정에 치명적인 영향을 미칠 수 있습니다. 특히 GPT-4, Claude, Gemini 등 최신 대형 언어모델(LLM)조차도 종종 이러한 망상을 일으키며, 다음과 같은 원인들이 복합적으로 작용합니다:확률 기반 생성 구조: LLM은 입력된 문맥에서 가장 그럴듯한 단어를 예측해 문장을 생성합니다. 진실성보다는 문맥의 자연스러움을 우선시하기 때문에 사실과 무관한 정보가 생성될 수 있습니다.훈련 데이터의 불완전성: LLM은 대규모 인터넷 데이터를 학습하지만, 이 데이터에는 오류, 편향, 허구적 콘텐츠가 혼재되어 있습니다. 특히 위키, 포..