Retrieval Augmented Generation (RAG)에 대한 완전한 개요

검색 증강 생성(Retrieval Augmented Generation, RAG)은 자연어 처리(NLP) 분야에서 놀라운 발전을 보이고 있습니다. 이 복합적인 모델은 검색 기반 모델과 생성 모델의 장점을 결합해 더 정확하고 문맥에 적합한 답변을 생성합니다. 이하에 이 혁신적인 기술에 대해 알아야 할 주요 내용을 정리했습니다.

파이썬 RAG 도우미
파이썬을 기반으로 하는 Retrieval Augmented Generation 모델에 대한 전문적인 조언을 제공하는 도구입니다. 사용자가 RAG 기술을 마스터할 수 있도록 고급 개념 설명과 관련 파이썬 코드 지원을 합니다.

RAG에 대해 알기 전에는 LLM 앱을 만들지 마세요.

Prompting, RAG 또는 Fine-tuning을 사용해야 할까요?

LLMs, RAG 및 AI를 위한 누락된 저장 계층

Deploying RAG to Production

2023년을 위한 벡터 데이터베이스 선택: 비교 및 안내

RAG란 무엇인가?

RAG는 검색 기반 모델과 생성 모델의 장점을 합친 하이브리드 모델입니다. 검색 기반 모델에서 시스템은 미리 정의된 응답 중에서 가장 적절한 것을 선택합니다. 반면에 생성 모델은 처음부터 응답을 생성할 수 있지만, 특정성이나 관련성이 떨어질 수 있습니다. RAG는 이 두 접근 방식을 병합하여 특정하면서도 동적으로 생성된 답변을 제공합니다.

Retrieval Augmented Generation (RAG)은 자연어 처리(NLP) 분야에서 신경망 정보 검색과 신경망 텍스트 생성을 결합한 고급 기술입니다. 기본적으로, RAG는 외부 정보를 통해 텍스트 생성 시스템, 예를 들어 언어 모델,의 성능을 향상시키려고 합니다. 다음은 그 구성요소와 작동 원리에 대한 간단한 설명입니다:

RAG의 구성 요소:

  1. 검색 모델(Retriever Model): 주어진 쿼리나 작업과 매치되는 문맥적으로 관련된 정보를 찾기 위해 큰 텍스트 데이터베이스(예: 문서, 문단, 또는 문장)를 검색하는 책임이 있는 컴포넌트입니다.
  2. 생성 모델(Generator Model): 일반적으로 큰 언어 모델로, 검색 모델이 검색한 정보를 입력으로 받아 텍스트 응답을 생성합니다.

작동 원리:

  1. 정보 검색: 쿼리나 작업이 입력되면, 검색 모델은 사용 가능한 지식 베이스를 검색하여 쿼리와 관련된 문단, 문서나 텍스트 스니펫을 찾습니다.
  2. 문맥 제공: 검색된 문단들은 추가적인 문맥이나 정보로 생성 모델에 제공됩니다.
  3. 텍스트 생성: 이 추가 문맥을 사용하여 생성 모델은 더 정확하고 관련된 사실과 지식에 기반한 텍스트 출력을 생성합니다.

장점:

  1. 지식 보강: 검색 모델을 사용하여 RAG 시스템은 관련된 외부 정보를 가져올 수 있습니다. 이로써 생성 모델의 지식 베이스가 효과적으로 보강됩니다.
  2. 향상된 정확성 및 관련성: 생성 과정이 실세계의 사실이나 권위 있는 정보에 의해 안내되므로 더 정확하고 관련성 있는 결과를 생성합니다.
  3. 제한 사항 극복: 기존의 큰 언어 모델(LLMs)은 그들이 가진 지식에 한계가 있습니다. RAG 시스템은 외부 소스로부터 실시간 정보를 가져와 이러한 한계를 극복할 수 있습니다.

요약하자면, 검색 모델은 생성 모델에 대한 “지식 브라우저” 역할을 하며, 그 결과로 생성 모델은 단순히 일관되고 문맥적으로 적절한 응답뿐만 아니라 사실적으로 근거를 둔 응답을 생성할 수 있습니다. 이로 인해 RAG는 질문 응답 시스템, 챗봇 등과 같은 응용 프로그램에서 강력한 도구가 될 수 있습니다.

왜 중요한가?

Retrieval Augmented Generation(RAG)의 중요성은 이것이 대규모 언어 모델 (Large Language Models, LLMs)에서 겪는 몇 가지 주요 과제를 어떻게 해결하는지를 통해 이해할 수 있습니다.

해결하는 과제:

  1. 지식 제한(Knowledge Cutoff): 기존의 LLMs은 “지식 제한”이 있습니다—즉, 훈련 중에 알려진 것만 알고 있고, 이 데이터는 실시간으로 업데이트되지 않습니다. RAG는 이러한 모델이 외부 지식에 접근하고 포함하도록 하여 정적 훈련 데이터의 제한을 효과적으로 우회할 수 있게 합니다.
  2. 환상 생성(Hallucination Risks): LLMs는 가끔 “환상을 생성하거나” 잘못된 또는 오해를 불러일으키는 정보를 생성할 수 있습니다. 신뢰할 수 있는 출처에서 검색된 증거를 사용하여 RAG는 생성된 텍스트를 사실에 기반하여 땅에 묶어, 환상 생성의 위험을 줄입니다.
  3. 장거리 추론(Long-range Reasoning): 기존의 LLMs는 종종 여러 정보 간에 점을 이어 추론하는 데 어려움을 겪습니다. RAG는 여러 문서에 걸친 사실을 가져오고 상호 연결할 수 있으므로 더 복잡한 추론과 근거 있는 결정을 할 수 있습니다.
  4. 지속적인 학습(Continuous Learning): 한 번 훈련되면 고정된 기존의 LLMs와 달리, RAG의 검색 컴포넌트는 진화하거나 실시간 데이터를 색인화할 수 있어 모델의 지식 기반을 현재 상태로 유지하고 관련성을 높입니다.

장점:

  1. 더 많은 정보 제공: 권위 있는 출처에서 검색된 정보를 포함함으로써, RAG는 더 정확하고 사실에 기반한 응답을 생성할 수 있게 됩니다.
  2. 향상된 추론 능력: 다른 출처에서 여러 사실을 연결하고 추론하는 능력을 통해 RAG는 더 미세하고 복잡한 응답을 제공할 수 있습니다.
  3. 최신 정보 제공: 새로운 데이터를 지속적으로 색인하는 능력을 통해 RAG는 최신 정보를 제공할 수 있으며, 이는 최신 데이터가 필요한 작업에 매우 유용합니다.
  4. 오류 감소: 사실적인 증거에 근거하여 정보를 생성하므로 잘못된 또는 오해를 불러일으키는 정보 생성의 가능성이 줄어듭니다.

실제 적용:

초창기 사용자들로서 Anthropic과 Cohere 등은 이미 RAG의 능력을 보여주고 있으며, 이는 더 신뢰할 수 있고 일관성 있으며 사실에 기반한 출력을 생성하는 기술의 잠재력을 보여줍니다.

요약하면, RAG는 더 많은 정보를 제공하고, 더 정확하고 사실에 근거한 응답을 생성하는 것을 통해 기존의 LLMs보다 큰 발전을 이루고 있으며, 이는 NLP 분야에서 게임 체인저가 될 수 있는 잠재력을 가지고 있습니다.

고객 서비스

  • 개인화된 지원: 지식베이스와 고객 이력에 접근하여 RAG는 일반적인 문의에 대한 맞춤형 응답을 제공할 수 있습니다.
  • 비용 효율성: 자동화는 대량의 요청을 처리할 수 있어 인력 비용을 줄일 수 있습니다.
  • 24/7 지원: 휴식이나 교대 근무가 필요 없는 RAG 시스템은 하루 종일 고객 지원을 제공할 수 있어 전반적인 만족도를 향상시킵니다.

연구와 시장 지능

  • 빠른 통찰력: 대량의 데이터를 실시간으로 빠르게 스캔하는 능력은 시장 통찰력을 끌어내는 데 매우 유용합니다.
  • 자동화된 분석: 보고서를 읽고 요약하는 등의 수동 작업을 줄이면, 분석가들이 전략적인 의미에 집중할 수 있어 의사결정 프로세스가 빨라집니다.

채용과 인사

  • 최적화된 매칭: RAG는 이력서, 직무 설명서 및 기타 관련 문서를 통해 최적의 후보를 찾을 수 있어, 채용 과정의 효율성과 품질을 높입니다.
  • 비용 절감: 자동화는 후보자 선별과 평가에 소요되는 시간과 비용을 크게 줄일 수 있습니다.

법적 발견과 분석

  • 빠른 참조: RAG는 관련 법적 판례와 논점에 즉시 접근을 제공할 수 있어, 변호사에게 매우 유용한 도구입니다.
  • 비용 효율성: 더 빠르고 목표 지향적인 발견은 연구에 소비되는 청구 가능한 시간을 줄여, 법률 서비스를 더 비용 효율적으로 만듭니다.

의료 문헌 검토

  • 최신 지식: 의료 과학의 지속적인 발전에 따라, RAG는 의사가 새로운 연구 결과를 빠르게 습득할 수 있게 도와, 치료 결과를 개선합니다.
  • 시간 절약: 의사들은 의료 문헌을 최신 상태로 유지하기보다는 환자 관리에 더 집중할 수 있습니다.

재무 분석

  • 데이터 기반 의사결정: RAG는 재무 문서를 실시간으로 분석하여 투자 기회와 위험에 대한 더 정확한 그림을 제공할 수 있습니다.
  • 경쟁 우위: 인간 분석가가 놓칠 수 있는 통찰력을 발견함으로써, 기업은 시장에서 경쟁 우위를 얻을 수 있습니다.

여러 분야에서의 공통된 이점

  • 생산성 향상: 지루한 지식 작업을 자동화함으로써, 복잡한 작업과 의사결정에 인간의 집중을 자유롭게 합니다.
  • 근거 있는 의사결정: RAG는 더 나은 선택을 할 가능성을 높이기 위해 넓은 범위의 지식을 기반으로 의사결정을 내립니다.
  • 인간의 집중: 일상적인 작업을 자동화함으로써, RAG는 복잡한 판단과 창의적인 생각을 위한 인간의 집중을 가능하게 합니다.

요약하면, RAG는 지식 작업을 자동화하고 의사결정을 개선하고 효율성을 높이는 방법으로 다양한 분야를 혁신할 잠재력이 있습니다.

언제 RAG를 사용해야 하나?

RAG 시스템을 사용하는 것이 유리한 몇 가지 주요 요인들을 살펴봅시다:

도메인 지식이 중요한 경우

특정 전문 분야의 지식이 중요한 응용 프로그램에서 RAG는 광범위한 지식에 접근할 수 있습니다.

응답이 사실에 기반을 둬야 하는 경우

정확성이 중요하고 거짓 주장이 허용되지 않는 사용 사례에서 사용하세요.

제한된 학습 데이터가 있는 경우

RAG는 지도학습 Fine-tuning과 같은 대규모 훈련 데이터 세트를 필요로 하지 않습니다.

동적 지식이 필요한 경우

지식베이스가 빠르게 변화하는 상황에서는, 검색기(retriever)는 최신 상태를 유지하지만 대형 언어 모델(LLM)은 뒤처질 수 있습니다.

복잡한 추론이 필요한 경우

RAG는 문서 간에 다단계 추론(multi-hop reasoning)을 가능하게 하며, 이는 독립적인 대형 언어 모델(LLM)만으로는 어렵습니다.

일반적으로, 외부 지식이 작업에 중요하고, 사실적 정확성이 중요하며, 지식이 지속적으로 변화하는 경우에 RAG는 뛰어납니다.

RAG Architectures and Components

RAG 시스템을 효과적으로 구축하려면 여러 핵심 구성 요소를 결합해야 합니다:

문서 저장소(Document storage)

검색할 문서나 단락이 포함된 지식 코퍼스입니다. 이는 데이터베이스, 검색 색인, 문서 저장소, 또는 지식 그래프일 수 있습니다.

지식 그래프(Knowledge graph)

콘텐츠 간의 관계를 모델링하기 위해 그래프를 구성할 수 있습니다. 이는 다단계 추론(multi-hop reasoning)을 지원할 수 있습니다.

검색기 모델 (Retriever)

이 신경 모델은 쿼리와 문서를 벡터로 인코딩하여 관련성 있는 일치 항목을 식별합니다. 인기 있는 옵션에는 희소 검색기(sparse retrievers)인 BM25와 밀집 검색기(dense retrievers)가 있습니다.

생성기 모델 (Generator)

검색된 단락을 소비하고 텍스트를 생성하는 대형 언어 모델(LLM)입니다. GPT-3나 Codex와 같은 트랜스포머 모델이 일반적으로 사용됩니다.

프롬프트 엔지니어링

쿼리를 재구성하고 검색된 컨텍스트를 생성기에 통합하기 위한 템플릿입니다.

재정렬 (Re-ranking)

선택적 단계로, 대형 언어 모델(LLM)이 소비하기 전에 검색된 단락의 순서를 재정렬할 수 있습니다.

각 구성 요소에 대한 다양한 옵션을 실험함으로써, 특정 사용 사례와 데이터셋에 대한 RAG 파이프라인을 최적화할 수 있습니다.

RAG를 효과적으로 구현하는 방법은?

효율적인 RAG 시스템을 구현하기 위한 몇 가지 모범 사례를 살펴봅시다:

빠른 검색을 위한 간결한 검색기 모델 선택

빠른 최근접 이웃 검색을 가능하게 하기 위해 밀집 인코더(dense encoders)와 같은 간결한 검색기 모델을 선택하세요. 무거운 모델은 추론 속도를 늦춥니다.

색인 크기 축소

문서를 필터링하고 벡터를 압축하여 검색 속도를 높입니다.

생성기 부하 최소화를 위해 더 적고, 더 관련성 있는 단락 검색

검색되는 단락의 수를 줄여 생성기의 부하를 최소화합니다.

문서에 검색기를 미세 조정

상용 제품보다는 특정 문서에 검색기를 미세 조정하여 검색 품질을 향상시킵니다.

계산 비용을 줄이기 위한 효율적인 생성기 실험

OPT, PaLM, Blooma와 같은 효율적인 생성기를 사용하여 계산 비용을 줄입니다.

생성기에 명확한 컨텍스트를 제공하기 위해 신중하게 프롬프트 설계

프롬프트를 신중하게 설계하여 생성기에 명확한 컨텍스트를 제공합니다.

각 구성 요소와 그들의 통합을 최적화함으로써, 대규모로 정보 제공과 관련성 있는 응답을 할 수 있는 RAG 시스템을 만들 수 있습니다.

Debugging RAG Systems

복잡한 파이프라인처럼, RAG 시스템에서 문제를 식별하고 해결하기 위해 디버깅이 중요합니다:

  1. 핵심 지표 로깅: 각 파이프라인 구성 요소의 대기 시간과 오류와 같은 핵심 지표를 로그에 기록합니다.
  2. 요청 정보 수집: 실패를 분석하기 위해 요청 정보, 프롬프트, 컨텍스트 등을 수집합니다.
  3. 대체 방안 구현: 상위 스트림 구성 요소가 중단되는 경우 대체 방안을 구현합니다.
  4. 로그 구조화: 집계 및 시각화를 가능하게 하기 위해 로그를 구조화합니다.
  5. 요청 추적: 문제 영역을 분리하기 위해 요청을 종단 간(end-to-end)으로 추적합니다.
  6. 하위 시스템 독립적 벤치마크: 기능성을 검증하기 위해 하위 시스템을 독립적으로 벤치마크합니다.
  7. 모듈식 구성 요소 설계: 테스트를 단순화하기 위해 모듈식 구성 요소를 설계합니다.
  8. 부하 및 스트레스 테스팅: 병목 현상을 찾아내기 위해 부하 및 스트레스 테스팅을 수행합니다.

가시성과 디버깅 능력에 투자하면 루트 원인 분석이 빨라지고 다운타임이 줄어듭니다.

RAG Libraries and Frameworks

RAG 구성 요소를 처음부터 모두 구현하는 것은 도전적입니다. 이러한 오픈 소스 라이브러리들은 개발을 더 쉽게 만들어 줍니다:

  1. Haystack (Deepset): 문서 검색을 위한 엔드-투-엔드 RAG 프레임워크입니다.
  2. REALM (Google): RAG를 사용한 오픈 도메인 질문 응답 툴킷입니다.
  3. FARM (Deepset): RAG를 포함한 트랜스포머 기반의 NLP 파이프라인을 구축하기 위한 프레임워크입니다.
  4. Jina: RAG 통합이 가능한 오픈 소스 신경망 검색 프레임워크입니다.

이러한 도구들은 검색기와 생성기 모델을 쉽게 만들 수 있도록 모듈식 구조를 제공합니다. 그들은 통합의 복잡성을 처리해주므로, 사용자는 도메인에 RAG를 맞춤화하는데 집중할 수 있습니다.

The Future of RAG

RAG는 현재 연구와 개발이 급속도로 진행되고 있는 분야이며, 아직 그 잠재력의 일부만을 발견한 상태입니다:

  1. 더 효율적이고 맞춤화된 밀집형 검색기(리트리버) 아키텍처가 나타날 것입니다.
  2. 그래프 기반 검색과 같은 새로운 기술이 늘어날 것입니다.
  3. 검색기(리트리버)와 생성기 모델 간의 더욱 밀접한 통합이 이루어질 것입니다.
  4. 진척을 측정하기 위한 더 표준화된 벤치마크와 랭킹 시스템이 등장할 것입니다.

RAG 시스템은 이미 많은 자연어 처리(NLP) 작업에서 추가 정보를 검색하지 않는 대규모 언어 모델을 능가하고 있습니다. RAG 기술이 성숙해짐에 따라, 그 능력은 기하급수적으로 증가할 것이며, 이는 기계 학습 분야를 새로운 차원으로 이끌 것입니다.

*How do RAG and GTP-4 differ?

RAG(검색 증강 생성, Retrieval Augmented Generation)과 GPT-4는 자연어 처리 분야에서 고도화된 기술이지만, 다른 목적을 가지고 있고 다르게 작동합니다. 주요 차이점은 다음과 같습니다:

목적:

  • GPT-4: GPT-4의 주 목적은 텍스트 생성입니다. 이는 문장에서 다음에 올 단어를 예측하기 위해 훈련된 독립형 언어 모델입니다. 텍스트 완성, 질문 응답, 요약 등 다양한 작업에 사용됩니다.
  • RAG: RAG의 목적은 언어 모델(예: GPT-4)의 능력을 검색을 통해 증강하는 것입니다. 독립형 모델이 아니라 검색기와 생성기 모델을 결합한 시스템입니다.

아키텍처:

  • GPT-4: 이는 대규모의 매개변수를 가진 일체형 모델로, 큰 텍스트 데이터 코퍼스에 대해 훈련되었습니다.
  • RAG: 검색기 컴포넌트가 데이터베이스를 검색하여 관련 정보를 가져오고, 생성기(예: GPT-4와 같은 대규모 언어 모델)가 이 가져온 정보를 바탕으로 텍스트를 생성합니다.

지식:

  • GPT-4: 고정된 지식 범위를 가지고 있으며, 마지막 훈련 데이터 업데이트 이후의 정보에는 액세스할 수 없습니다.
  • RAG: 외부 데이터베이스나 지식 베이스에서 최신 또는 전문 정보를 가져올 수 있으므로, 고정된 지식 범위의 제한을 극복할 수 있습니다.

유연성과 적응성:

  • GPT-4: 훈련 범위 내에서는 유연하게 적응할 수 있지만, 추론 중에 새로운 데이터를 동적으로 불러올 수 없습니다.
  • RAG: 기본 데이터베이스나 지식 베이스가 업데이트됨에 따라 새로운 정보에 적응할 수 있어, 최신 정보가 중요한 응용 프로그램에서 더 유연합니다.

사용 사례:

  • GPT-4: 주어진 컨텍스트를 기반으로 인간과 같은 텍스트를 생성하는 데 이상적이지만, 추가 정보를 위해 외부 데이터베이스를 참조할 수 없습니다.
  • RAG: 생성된 텍스트가 외부, 가능하면 동적인 데이터에 기반해야 하는 상황에서 유용합니다. 예를 들어, 지속적으로 업데이트되는 문서 집합을 기반으로 질문에 답하는 경우가 있습니다.

요약하자면, GPT-4는 일관되고 문맥적으로 적절한 텍스트를 생성하는 데 뛰어나고, RAG 시스템은 실시간으로 검색된 정보를 포함시켜 GPT-4와 같은 텍스트 생성 모델의 능력을 향상시킵니다.

*What are the limitations of RAG?

Retrieval-Augmented Generation(RAG, 검색 증강 생성) 모델은 많은 장점을 가지고 있지만, 일정한 제약 조건과 한계도 존재합니다.

계산 부담:

  • 검색 과정: 대규모 데이터베이스에서 관련 컨텍스트를 검색하는 추가 단계가 계산 비용을 증가시킵니다.
  • 통합 복잡성: 검색기와 생성기 프로세스를 원활한 파이프라인으로 결합하는 것은 복잡할 수 있습니다.

검색된 정보의 품질:

  • 코퍼스에 의존: 정보 데이터베이스나 코퍼스가 오래되었거나 오류가 있을 경우, 모델의 응답도 결함이 있을 수 있습니다.
  • 제한된 컨텍스트: 검색기가 항상 필요한 모든 컨텍스트를 포착하지는 못하므로, 불완전하거나 부정확한 답변이 될 수 있습니다.

확장성:

  • 데이터 관리: 대규모 코퍼스를 저장하고 업데이트하는 것은 효율적인 데이터 파이프라인을 요구하는 복잡한 작업입니다.
  • 실시간 검색: 데이터베이스가 커질수록 실시간으로 검색하는 것이 느려질 수 있어, 전체 시스템의 대기 시간에 영향을 줄 수 있습니다.

설명 가능성:

  • 불투명한 의사결정: 특정 정보가 왜 검색되고 답변에 사용되었는지 결정하는 것이 어려울 수 있습니다.

특수한 튜닝:

  • 프롬프트 엔지니어링: 효과적인 쿼리 구성을 위해 적절한 프롬프트를 만드는 것은 많은 튜닝을 필요로 할 수 있습니다.
  • 파인 튜닝: 검색기와 생성기 모델 모두 최적의 성능을 위해 도메인 특화된 데이터로 파인 튜닝이 필요할 수 있으며, 이는 리소스를 많이 소모하는 작업입니다.

정보의 최신성:

  • 동적 데이터: 데이터 환경이 빠르게 변하는 애플리케이션에서는 데이터베이스를 최신으로 유지하는 것이 도전적입니다.

멀티-홉 추론:

  • 복잡한 쿼리: RAG 모델은 코퍼스의 다른 부분에서 여러 정보를 이해하고 통합해야 하는 질문에 대해 어려움을 겪을 수 있습니다.

언어와 도메인 제한:

  • 다국어 지원: 여러 언어를 지원하려면 추가적인 복잡성이 요구될 수 있습니다.
  • 도메인 전문성: 매우 전문화된 도메인에서는 RAG 시스템이 도메인 특화된 코퍼스와 파인 튜닝이 필요할 수 있습니다.

이러한 한계에도 불구하고, RAG 아키텍처는 특히 외부 지식 검색이 중요할 때 언어 모델의 능력을 향상시키는 강력한 도구입니다.

*How do RAG systems handle ambiguous queries?

검색-증강 생성(Retrieval-Augmented Generation, RAG) 시스템은 다른 검색 또는 자연어 처리 시스템처럼 모호한 쿼리를 처리할 때 어려움을 겪을 수 있습니다. RAG 시스템이 모호성을 어떻게 처리하는지 몇 가지 방법을 살펴보겠습니다:

넓은 검색 공간

검색 모델은 초기에 넓은 말뭉치를 검색하여 관련 문서, 단락, 또는 스니펫을 찾습니다. 쿼리가 모호한 경우, 검색 모델은 쿼리의 여러 가능한 의미에 맞는 다양한 문맥을 선택할 수 있습니다.

문맥 이해

이후 생성기(일반적으로 큰 언어 모델)가 이러한 검색된 문서를 사용하여 응답을 생성합니다. 생성기의 장점은 어느 정도 문맥을 이해할 수 있어, 검색된 문서 중에서 더 관련성 있는 정보를 선택하는 데 있습니다.

확률론적 모델

검색 모델과 생성기 모두 일반적으로 확률론적 모델이며, 특정 정보가 가장 관련성 있거나 정확할 가능성을 기반으로 작동합니다. 이들은 훈련 데이터를 기반으로 모호한 쿼리의 가장 가능성 있는 해석을 선택하도록 설계되어 있습니다.

재정렬(Re-ranking)

고급 RAG 시스템은 재정렬 단계를 포함할 수 있습니다. 이는 검색된 문서를 관련성이나 가능성에 기반한 어떤 척도로 다시 배열함으로써, 모호한 쿼리 처리를 더욱 세밀하게 할 수 있습니다.

한계점

이러한 메커니즘에도 불구하고, RAG 시스템은 특히 쿼리가 상식 추론, 문서 간의 다중 단계 추론을 요구하거나, 또는 기초 데이터베이스의 모호성이나 불완전성에서 비롯된 경우에는 매우 모호한 쿼리에 어려움을 겪을 수 있습니다.

사용자 피드백

더 상호작용적인 설정에서는, RAG 시스템은 쿼리가 모호한 경우 명확한 지시를 요청할 수도 있습니다. 하지만 이 기능은 명시적으로 프로그래밍해야 할 수 있습니다.

모호한 쿼리 처리는 NLP와 정보 검색의 어려운 측면 중 하나이지만, RAG 시스템의 검색과 생성의 두 단계 프로세스는 종종 어떤 형태의 모호성을 해결하거나 적어도 완화하는 미세한 접근법을 제공합니다.

How is RAG applied in search engines?

How do RAG systems handle misinformation?

Is RAG being used in real-world applications?

How are RAG systems being used in healthcare?

Sources :

https://www.pinecone.io/learn/retrieval-augmented-generation/

https://towardsdatascience.com/rag-vs-finetuning-which-is-the-best-tool-to-boost-your-llm-application-94654b1eaba7

https://medium.com/@pandey.vikesh/rag-ing-success-guide-to-choose-the-right-components-for-your-rag-solution-on-aws-223b9d4c7280

https://github.com/IntelLabs/fastRAG

https://huggingface.co/docs/transformers/model_doc/rag

https://gpt-index.readthedocs.io/en/v0.8.14/end_to_end_tutorials/dev_practices/production_rag.html

https://learn.microsoft.com/en-us/azure/machine-learning/concept-retrieval-augmented-generation?view=azureml-api-2

https://medium.com/@machangsha/foundation-model-101-dumb-down-retrieval-augmented-generation-rag-2f9e0521d9f3

https://shamanesiri.medium.com/how-to-finetune-the-entire-rag-architecture-including-dpr-retriever-4b4385322552

https://medium.com/towards-generative-ai/debugging-pipeline-for-rag-aff341d6ecd7

https://www.databricks.com/blog/using-ai-gateway-llama2-rag-apps

https://www.library.upenn.edu/events/khushhal-khans-rag-darshan

https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-customize-rag.html

https://ai.meta.com/blog/retrieval-augmented-generation-streamlining-the-creation-of-intelligent-natural-language-processing-models/

https://huggingface.co/docs/transformers/main/model_doc/rag

https://www.loc.gov/item/ihas.200033257/

https://www.promptingguide.ai/techniques/rag

https://paperswithcode.com/method/rag

https://towardsdatascience.com/build-more-capable-llms-with-retrieval-augmented-generation-99d5f86e9779

https://library.princeton.edu/indian-rag

https://huggingface.co/blog/ray-rag

https://www.linkedin.com/pulse/retrieval-augmented-generation-rag-fine-tuning-which-best-victoria-s-

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다