연구자 정보
라온 프로필 보기
- 출신대학 : KAIST
- 전공 : 전산학부
- 연구분야 : AI reasoning, System2 AI
1분 요약
최근 LLM은 높은 성능과 활용성으로 많은 주목을 받고 있지만, 여전히 거짓된 정보를 진실처럼 말하는 ‘환각(Hallucination)’ 문제로부터 자유롭지 않다. 이를 완화하기 위해 RAG가 주목받고 있는데, 이는 LLM에 정제된 외부 정보를 제공해 환각을 줄이는 방식이다. 하지만 추가 정보를 제공하는 것만으로는 충분하지 않으며, 모델 자체의 논리 추론 능력이 부족하면 여전히 오류가 발생한다. 따라서 환각 문제를 근본적으로 해결하려면 RAG와 함께 LLM의 reasoning 능력 향상이 병행되어야 한다.