검색 증강 생성(RAG)이란 무엇입니까?
2024년 10월 30일| 기사
공유하다
인쇄
다운로드
구하다
검색 증강 생성, 즉 RAG는 대규모 언어 모델에 적용되는 프로세스로, 최종 사용자에게 더욱 관련성 있는 출력을 제공합니다.
말풍선의 황금색 윤곽은 다채로운 풍선과 같은 구체로 가득 차 있습니다. 구체는 크기, 색상, 질감이 다양하며 이미지는 밝은 회색 배경에 설정되어 있습니다.
다운로드
기사(5페이지)
최근 몇 년 동안 대규모 언어 모델(LLM)은 콘텐츠를 생성하는 능력에서 엄청난 진전을 이루었습니다. 하지만 이러한 모델이 비즈니스 효율성과 생산성을 높일 것이라고 기대했던 일부 리더들은 실망했습니다. 기성형 생성 AI(gen AI) 도구는 아직 이를 둘러싼 상당한 과대광고에 부응하지 못했습니다. 그 이유는 무엇일까요? 우선, LLM은 이를 구축한 공급업체가 사용할 수 있는 정보에 대해서만 교육을 받습니다. 이는 더 다양하고 미묘한 기업별 지식이 필요한 환경에서 유용성을 제한할 수 있습니다.
RAG에서 맥킨지의 수석 전문가를 알아보고 직접 소통해 보세요.
라레나 예는 맥킨지 베이 지역 사무소의 수석 파트너입니다. 마이클 추이 는 수석 펠로우이고 로저 로버츠는 파트너입니다. 마라 포메티 는 런던 사무소의 컨설턴트입니다. 패트릭 볼 너는 비엔나 사무소의 컨설턴트입니다. 스티븐 쉬는 토론토 사무소의 제품 관리 부문 수석 이사입니다.
저희는 장애인이 저희 웹사이트에 동등하게 접근할 수 있도록 노력합니다. 이 콘텐츠에 대한 정보가 필요하시면 기꺼이 도와드리겠습니다. 다음 주소로 이메일을 보내주세요: McKinsey_Website_Accessibility@mckinsey.com
검색 증강 생성 또는 RAG는 LLM에 적용되는 프로세스로, 특정 맥락에서 출력을 더욱 관련성 있게 만듭니다. RAG를 통해 LLM은 응답을 생성하기 전에 조직의 특정 지식 기반과 같은 LLM 자체 교육 데이터 외부의 정보에 액세스하고 참조할 수 있으며, 가장 중요한 것은 인용문이 포함됩니다. 이 기능을 통해 LLM은 광범위한 미세 조정이나 교육 없이도 매우 구체적인 출력을 생성할 수 있으며, 상당히 적은 비용으로 맞춤형 LLM의 이점 중 일부를 제공합니다.
고객 서비스 컨텍스트에 배포된 일반적인 Gen AI 챗봇을 생각해 보세요. 챗봇은 일반적인 지침을 제공할 수 있지만, 챗봇은 특정 양의 정보에 대해서만 훈련된 LLM에서 작업하기 때문에 기업의 고유한 정책, 절차, 데이터 또는 지식 기반에 액세스하지 않습니다. 결과적으로 챗봇의 답변은 구체성과 사용자 문의와의 관련성이 부족합니다. 예를 들어, 고객이 계정 상태 또는 결제 옵션에 대해 질문할 때 챗봇은 일반적인 정보로만 응답할 수 있습니다. 챗봇은 회사의 특정 데이터에 액세스하지 않기 때문에 제공하는 응답은 해당 고객의 특정 상황을 고려하지 않습니다.
McKinsey Explainers 시리즈 전체를 살펴보세요
RAG 배포는 최신이고 기업에 특화된 방대한 양의 정보에 액세스할 수 있기 때문에 훨씬 더 정확하고 관련성 있고 일관된 출력을 제공할 수 있습니다. 이는 특히 기업 지식 관리 및 특정 도메인 ( 예: 회사 내의 워크플로 또는 프로세스, 여정 또는 기능)에 특화된 조종사와 같이 매우 정확한 출력이 필요한 애플리케이션 및 사용 사례에 유용합니다.
McKinsey의 AI인 QuantumBlack 에 대해 자세히 알아보세요 .
RAG는 어떻게 작동하나요?
RAG는 두 가지 단계, 즉 섭취와 검색을 포함합니다. 이러한 개념을 이해하려면 수백만 권의 책이 있는 대규모 도서관을 상상하는 것이 도움이 됩니다.
초기 "인제스팅" 단계는 선반에 책을 채우고 그 내용의 색인을 만드는 것과 유사하며, 이를 통해 사서가 도서관 소장품에서 어떤 책이든 빠르게 찾을 수 있습니다. 이 프로세스의 일부로, 각 책, 장 또는 선택된 문단에 대해 "임베딩"이라고도 하는 데이터의 수치적 표현인 일련의 밀집 벡터 표현이 생성됩니다(자세한 내용은 사이드바 "임베딩이란 무엇인가?" 참조).
공유하다
사이드바
임베딩이란 무엇인가요?
도서관에 자료가 비치되고 색인이 작성되면 "검색" 단계가 시작됩니다. 사용자가 특정 주제에 대한 질문을 할 때마다 사서는 색인을 사용하여 가장 관련성 있는 책을 찾습니다. 그런 다음 선택된 책을 스캔하여 관련 콘텐츠를 찾은 다음 이를 신중하게 추출하여 간결한 출력으로 종합합니다. 원래 질문은 초기 조사 및 선택 프로세스를 알려주며 사서가 가장 적절하고 정확한 정보만 응답으로 제시하도록 안내합니다. 이 프로세스에는 여러 출처의 핵심 요점을 요약하거나 권위 있는 텍스트를 인용하거나 도서관 리소스에서 얻을 수 있는 통찰력을 기반으로 새로운 콘텐츠를 생성하는 것이 포함될 수 있습니다.
이러한 섭취 및 검색 단계를 통해 RAG는 기존 LLM이 스스로 생산하기에는 불가능한 매우 구체적인 출력을 생성할 수 있습니다. 보관된 도서관과 색인은 사서가 질의에 응답하여 정보를 선택하고 종합하여 보다 관련성이 높고 따라서 보다 유용한 답변을 얻을 수 있는 기반을 제공합니다.
회사의 내부 "라이브러리"에 액세스하는 것 외에도 많은 RAG 구현은 외부 시스템과 소스를 실시간으로 쿼리할 수 있습니다. 이러한 검색의 예는 다음과 같습니다.
RAG는 고객 서비스, 마케팅, 재무, 지식 관리를 포함한 다양한 도메인에서 광범위한 응용 프로그램을 보유하고 있습니다. RAG를 기존 시스템에 통합함으로써 기업은 기성형 LLM을 사용하는 것보다 더 정확한 출력을 생성할 수 있으며, 이는 고객 만족도를 개선하고 비용을 절감하며 전반적인 성과를 향상시킬 수 있습니다. 다음은 RAG를 적용할 수 있는 구체적인 예와 방법입니다.
RAG는 LLM의 역량을 강화하는 강력한 도구이지만, 한계가 없는 것은 아닙니다. LLM과 마찬가지로 RAG는 액세스할 수 있는 데이터만큼만 좋습니다. 다음은 RAG의 구체적인 과제 중 일부입니다.
이러한 과제를 해결하기 위해 기업은 데이터 거버넌스 프레임워크를 구축하거나 이미 프레임워크가 있는 경우 해당 프레임워크를 강화하여 RAG에서 사용되는 기본 데이터의 품질, 접근성 및 적시성을 보장할 수 있습니다. RAG 시스템을 구현하는 조직은 RAG에서 파생된 콘텐츠와 관련된 저작권 문제, 전체 데이터 세트의 편향 및 이전에는 중앙에서 액세스할 수 없었던 데이터 세트 간의 상호 운용성 수준도 신중하게 고려해야 합니다.
RAG의 역량과 잠재적인 응용 분야가 계속 발전함에 따라, 우리는 몇 가지 새로운 추세가 미래를 형성할 것으로 예상합니다.
검색 증강 생성으로 강화된 LLM은 인간과 기계의 강점을 모두 활용하여 사용자가 방대한 지식 소스를 활용하고 보다 정확하고 관련성 있는 응답을 생성할 수 있도록 합니다. 이 기술이 계속 발전함에 따라 확장성, 적응성 및 엔터프라이즈 애플리케이션에 미치는 영향이 크게 향상되어 혁신을 촉진하고 가치를 창출할 수 있는 잠재력이 있을 것으로 기대합니다.