|
- 변환할 객체가 되는 텍스트는 문장이므로 대부분의 경우 Sentence-BERT를 활용하게 되는데 Sentence-BERT는 학습시킨 데이터의 언어에 대해서만 임베딩 작업을 잘 수행하므로 이에 유의해서 모델을 선정해야 함.
- 벡터 DB를 구축할 때에는 우리가 가진 문서가 임베딩 모델의 최대 입력 길이를 벗어날 경우 문서를 분할하는 과정 (Chunking) 을 거쳐야 함.
2. 증강(Augment)
- 사용자 질문 프롬프트와 검색 단계에서 추출한 유사 청크를 하나의 프롬프트로 담아 LLM에게 전달
- 프롬프트는 세부분
3. 생성(Generation)
- LLM은 기본적으로 주어진 문장의 다음 단어를 예측하는 모델이기 때문에 사전 학습에서 배우지 않은 것에 대한 질문을 하면 거짓을 섞어서 답변하는 경우가 있음.
- RAG에서는 앞서 증강 단계에서 주어진 프롬프트를 바탕으로 LLM이 답변을 생성함.
- 프롬프트 안에 맥락(context)를 주입하면, 기존에 학습되지 않은 사실이나 지식에 대해서 LLM이 이해하고 알맞은 답변을 제공할 수 있음.