Papers·4일 전
Google 연구진, LLM 환각 해결을 위한 메타인지 프레임워크 제안 — 불확실성 표현이 핵심

Google 연구진은 LLM의 환각 문제를 단순히 정답을 모르는 상태에서 답변을 생성하는 문제로 보지 않고, '자신이 아는 것과 모르는 것을 구분하는 메타인지 능력'의 부재로 재정의합니다. 기존 접근법이 모델의 지식 경계를 넓히는 데 집중했다면, 이 연구는 모델이 자신의 불확실성을 언어적으로 정직하게 표현하도록 하는 '신뢰할 수 있는 불확실성 표현(faithful uncertainty)'을 제안합니다. 이는 단순히 답변을 하거나 회피하는 이분법을 넘어, 불확실성을 자연어로 표현함으로써 환각과 유용성 사이의 트레이드오프를 해소할 수 있다고 주장합니다. 특히 에이전트 시스템에서는 불확실성 표현이 외부 검색 여부를 결정하는 제어 계층으로 기능할 수 있다는 점을 강조합니다.
- #hallucination
- #metacognition
- #uncertainty
- #llm
Google