목록2026/02/20 (1)
AI바라기의 인공지능
AI바라기 : 빠른 논문 리뷰 : Taming Hallucinations: Boosting MLLMs’ Video Understanding via Counterfactual Video Generation
용어 설명Visual ungrounded hallucinations: MLLMs가 시각적 증거(visual evidence)를 제대로 인지하지 않고, 텍스트 데이터에서 학습된 언어적 편향(language priors)이나 상식에만 의존하여 그럴듯하지만 시각적으로는 완전히 틀린 답변을 생성하는 현상.Counterfactual video: 객체가 갑자기 사라지거나, 물이 위로 솟구치는 등 일반적인 물리 법칙이나 상식(common sense)에 위배되는 현상을 의도적으로 합성해 넣은 조작된 비디오.Automation Paradox: 모델의 시각적 인지 능력을 개선하려면 counterfactual 데이터가 필요한데, 모델 자체가 이미 hallucination에 빠져 있어 미세한 시각적 이상을 감지하지 못하므로,..
논문리뷰
2026. 2. 20. 19:18
