AI/RAG 이론

RAG 구현시 고려사항 : (1) RAG란 무엇인가?

데이터 쿡북 2025. 7. 11. 13:18

[AI를 활용해 작성 되었습니다]

1. RAG란 무엇인가?

🔍 개요: Retrieval-Augmented Generation

**RAG(Retrieval-Augmented Generation)**은 대규모 언어 모델(LLM)의 한계를 극복하기 위해 설계된 지식 강화형 질문 응답 및 생성 구조입니다. 단순히 프롬프트만 받아 답을 생성하는 것이 아니라, 외부 데이터 소스(문서, 웹, DB 등)로부터 정보를 검색(Retrieve) 한 후, 이를 바탕으로 정확하고 신뢰도 높은 답변을 생성(Generate) 합니다.

RAG는 크게 두 구성요소로 나뉩니다:

구성요소설명
Retriever 쿼리와 의미적으로 유사한 문서를 벡터 기반으로 검색
Generator 검색된 문서를 기반으로 문장을 생성 (GPT, LLaMA 등 사용)
 

💡 왜 RAG가 필요한가?

대형 언어 모델은 많은 정보를 포함하고 있지만, 다음과 같은 제약이 존재합니다:

한계설명
📅 지식 갱신 불가 훈련 시점 이후의 정보는 알 수 없음
🧠 망상(Hallucination) 그럴듯하지만 사실이 아닌 내용을 생성할 수 있음
🔒 기억 용량 한계 문서 전체를 context로 넣기에는 토큰 제한이 있음
💸 비용 문제 대형 context 사용 시 API 호출 비용이 크게 증가
 

이러한 문제를 해결하기 위해 등장한 것이 RAG입니다. 필요할 때만 외부에서 정보를 불러오기 때문에 정확도, 효율성, 비용 측면에서 매우 유리합니다.


🧠 전통적인 LLM 방식 vs RAG 방식

항목전통 LLMRAG 방식
정보 소스 훈련 데이터에 한정 실시간 외부 문서 사용
답변 정확도 지식 cutoff 이후는 불명확 최신 정보 반영 가능
문서 이해 긴 문서는 일부만 입력해야 함 관련 문서만 골라 넣음
비용 긴 context = 높은 비용 필요한 정보만 전달하여 비용 절감
보안/유연성 모델 학습 시 결정됨 검색 대상 문서를 제어 가능
 

📦 실제 활용 예시

  • 사내 문서 Q&A 시스템
    → 검색된 정책 문서를 기반으로 정확한 규정 설명 생성
  • 의료 도우미 챗봇
    → 최신 의료 가이드라인을 검색해 LLM이 응답
  • 법률 정보 검색 + 요약
    → 판례 DB에서 관련 사례 검색 후 판례 요약
  • 전자상거래 고객 지원
    → 제품 매뉴얼 검색 + 응답 자동화

🧭 핵심 개념 요약

RAG는 "모르면 검색하고, 그 결과를 바탕으로 대답하자"는 전략이다.
이는 인간의 사고 방식과도 유사하며, LLM의 신뢰성과 적용 범위를 확장하는 강력한 방식이다.

 

공감 버튼이 큰 힘이 됩니다