Browsed by
[Tag:] hallucination

A.I. is Getting More Powerful, but Its Hallucinations are Getting Worse

A.I. is Getting More Powerful, but Its Hallucinations are Getting Worse

최근 A.I. 모델은 추론모델(Reasoning)을 기반으로 한다. OpenAI, Google, DeepSeeke들도 이런 추론모델을 기반으로 A.I. bot들을 만들고 있다. 하지만 이른 추론모델을 기반으로 하는 A.I.가 이전 모델보다 hallucination이 더 심해지고 있다. OpenAI의 경우 가장 강력하다고 하는 모델인 o3모델에서 PersonQA테스트를 했을 때 33%의 hallucination이 발생했다고 하며 이는 이전의 추론 시스템인 o1보다 두 배 이상의 hallucination이 발생되는 수치이다. 새 모델인 o4-mini는 이보다 더 높은 48%의 hallucination이 발생되고 있다. Hallucination을 줄이기 위한 노력들은 하고 있지만 모델이 방대한 데이터를 기반으로 학습을 하기 때문에 원인을 정확하게 어떤 경로를…

Read More Read More