[LangChain] LangChain, Chat with Your Data
요약(접기/펼치기)
## 요약 이 프로젝트는 외부 데이터 세트에서 상황별 문서를 검색하는 일반적인 LLM 애플리케이션인 RAG(Retrieve Augmented Generation)와 훈련에서 학습한 정보가 아닌 문서의 내용을 기반으로 쿼리에 응답하는 챗봇을 구축하는 가이드의 두 가지 주요 주제를 다룹니다. 다음에 대해 알게 될 것입니다: - 문서 로드(Document Loading): LangChain이 오디오 및 비디오를 포함한 다양한 데이터 소스에 액세스할 수 있도록 제공하는 80개 이상의 고유 로더(loader)를 찾아보세요. - 문서 분할(Document Splitting): 데이터 분할을 위한 모범 사례 및 고려 사항을 확인합니다. - 벡터 저장소 및 임베딩(Vector stores and embeddings): 임베딩의 개념으로 파고들어 LangChain 내의 벡터 저장소 통합을 탐색합니다. - 검색(Retrieval): 벡터 스토어에서 데이터에 액세스하고 인덱싱하는 고급 기법을 파악하여 의미론적 쿼리를 넘어 가장 관련성이 높은 정보를 검색할 수 있습니다. - 질문 답변(Question Answering): 원패스(one-pass) 질문 답변 솔루션을 구축합니다. - 채팅(Chat): LangChain을 사용하여 자신만의 챗봇을 구축할 때 대화 및 데이터 소스에서 관련 정보를 추적하고 선택하는 방법을 학습합니다. LangChain 및 LLM을 사용하여 데이터와 상호 작용할 수 있는 실용적인 애플리케이션을 구축하기 시작합니다.검색 증강 생성(Retrieval augmented generation, RAG)
검색 증강 생성에서 LLM은 실행의 일부로 외부 데이터 세트에서 상황별 문서를 검색합니다. 이는 특정 문서(예: PDF, 비디오 세트 등)에 대해 질문하고 싶을 때 유용합니다.
문서 로드 (Document Loading)
Document Loaders
문서 로더는 다양한 형식과 소스에서 데이터에 액세스하고 표준 형식으로 변환하는 세부 사항을 처리합니다. 웹 사이트, 다른 데이터베이스, 유튜브와 같이 데이터를 로드하려는 곳이 있을 수 있으며 이러한 문서는 PDF, HTML, JSON과 같은 다양한 데이터 유형으로 제공될 수 있습니다.
따라서 문서 로더의 전체 목적은 이러한 다양한 데이터 소스를 표준 문서 개체에 로드하는 것입니다. 이는 콘텐츠와 관련 메타데이터로 구성됩니다.
LangChain에는 다양한 유형의 문서 로더가 있으며, 이를 모두 다룰 시간은 없지만, 여기에 우리가 가지고 있는 80 플러스에 대한 대략적인 분류가 있습니다.
YouTube, Twitter, Hacker News와 같이 공공 데이터 소스에서 텍스트 파일과 같은 비정형 데이터를 로드하는 방법을 많이 다루며, Figma, Optom과 같이 사용자 또는 회사가 보유하고 있을 수 있는 독점 데이터 소스에서 비정형 데이터를 로드하는 방법을 다루는 방법도 훨씬 더 많습니다.
문서 로더를 사용하여 구조화된 데이터를 로드할 수도 있습니다. 표 형식의 데이터는 질문에 답하거나 의미론적 검색을 여전히 수행하고 싶은 셀이나 행 중 하나에 텍스트 데이터가 있을 수 있습니다. 그래서 여기 소스에는 에어바이트(Airbyte), 스트라이프(Stripe), 에어테이블(Airtable) 같은 것들이 포함됩니다.
- Loaders deal with the specifics of accessing and converting data
- Accessing
- Web Sites
- Data Bases
- YouTube
- arXiv
- …
- Data Type
- HTML
- JSON
- Word, PowerPoint…
- Returns a list of
Document
objects:
- Accessing
[
Document(page_content='MachineLearning-Lecture01 \nInstructor (Andrew Ng): Okay, Good morning. Welcome to CS229....',
metadata={'source': 'docs/cs229_lecture/MachineLearning-Lecture01.pdf', 'page':0})
...
Document(page_content='[End of Audio] \nDuration:69 minitues ',
metadata={'source': 'docs/cs229_lecture/MachineLearning-Lecture01.pdf', 'page':21})
]
문서 분할 (Document Splitting)
데이터를 문서 형식에 로드한 후에 문서 분할이 발생합니다. 이 작업은 매우 간단해 보일 수 있습니다. 각 문자의 길이에 따라 청크를 분할하거나 비슷한 방식으로 하면 됩니다. 그러나 이것이 더 까다롭고 매우 중요한 이유를 보여주는 예로 다음을 살펴보도록 하겠습니다.
도요타 캠리와 몇몇 사양에 대한 문장이 있습니다. 그리고 간단한 분할을 하면 문장의 일부가 한 청크에 들어가고, 다른 일부가 다른 청크에 들어갈 수 있습니다. 그리고 나서 캠리의 사양이 무엇인지에 대한 질문에 답하려고 할 때, 사실 두 청크 중 어느 것에도 올바른 정보가 없습니다. 그래서 우리는 이 질문에 정확하게 답할 수 없을 것입니다. 의미론적으로 관련된 청크를 얻기 위해 청크를 분할하는 방법에는 많은 뉘앙스와 중요성이 있습니다.
Example Splitter
langchain.text_splitter.CharacterTextSplitter(
separator: str = "\n\n"
chunk_size=4000,
chunk_overlap=200,
length_function=<buildtin function len>,
)
Methods:
create_documents() - Create documents from a list of texts.
split_documents() - Split documents.
Lang Chain의 모든 텍스트 스플리터의 기본은 일부 청크 크기의 청크에서 일부 청크 중복(chunk overlap)으로 분할하는 것을 포함합니다.
그래서, 우리는 그것이 어떻게 생겼는지를 보여주기 위해 아래에 약간의 다이어그램을 가지고 있습니다. 그래서, 청크 크기는 청크의 크기에 대응하고, 청크의 크기는 몇 가지 다른 방법으로 측정될 수 있습니다. 그리고 우리는 그것들 중 몇 가지에 대해 이야기할 것입니다. 그래서, 우리는 청크의 크기를 측정하기 위해 길이 함수를 통과시킬 수 있습니다. 이것은 종종 문자 또는 토큰입니다.
일반적으로 청크 오버랩은 한 청크에서 다른 청크로 이동할 때 슬라이딩 윈도우처럼 두 청크 사이에서 약간의 오버랩으로 유지됩니다. 그리고 이를 통해 동일한 컨텍스트 조각이 한 청크의 끝과 다른 청크의 시작에 있을 수 있으며 일관성 개념을 만들 수 있습니다.
Lang Chain의 텍스트 스플리터는 모두 문서를 생성하는 방식과 문서를 분할하는 방식을 가지고 있습니다. 이것은 후드 아래에서 동일한 논리를 포함하며, 하나는 텍스트 목록을 포함하고 다른 하나는 문서 목록을 포함하는 약간 다른 인터페이스를 노출할 뿐입니다.
Types of splitters
langchain.text_splitter.
- CharaterTextSplitter() - Implementation of splitting text that looks at characters.
- MarkdownHeaderTextSplitter() - Implementation of splitting markdown files based on specified headers.
- TokenTextSplitter() - Implementation of splitting text that looks at tokens.
- SentenceTransformersTokenTextSplitter() - Implementation of splitting text that looks at tokens.
- RecursiveCharacterText - Implementation of splitting text that looks at characters. Recursively tries to split by different characters to find one that works.
- Language() - for CCP, Python, Ruby, Markdown etc
- NLTKTextSplitter() - Implementation of splitting text that looks at sentences using NLTK (Natural Language Tool Kit)
- SpacyTextSplitter() - Implementation os splitting text that looks at sentences using Spacy.
Lang Chain에는 매우 다양한 종류의 스플리터가 있으며, 이번에서는 그 중 몇 가지를 다룰 것입니다. 하지만 남은 스플리터는 시간에 확인하시기 바랍니다.
이러한 텍스트 스플리터는 여러 차원에서 다양합니다. 그들은 어떻게 청크를 분할하는지, 어떤 문자가 그 안에 들어가는지에 따라 달라질 수 있습니다. 그것들은 그 청크들의 길이를 측정하는 방법에 따라 달라질 수 있습니다. 문자에 의한 것일까요? 토큰에 의한 것일까요? 다른 작은 모델을 사용하여 문장의 끝이 언제인지 확인하고 청크를 분할하는 방법으로 사용하는 모델도 있습니다.
청크로 분할하는 또 다른 중요한 부분은 메타데이터입니다. 모든 청크에서 동일한 메타데이터를 유지하되 관련성이 있을 때 새로운 메타데이터 조각을 추가하는 것이므로 이에 초점을 맞춘 텍스트 스플리터도 있습니다.
벡터 저장소 및 임베딩(Vector stores and embeddings)
이제 우리는 문서를 의미론적으로 의미 있는 작은 청크로 나누고, 이 청크들을 인덱스에 넣어야 합니다. 그러면 이 데이터 말뭉치에 대한 질문에 답할 때가 되면 쉽게 검색할 수 있습니다. 그러기 위해서는 임베딩과 벡터 스토어를 활용할 예정인데요, 어떤 것들인지 한번 보시죠.
이전에 이에 대해 간략히 다루었지만, 몇 가지 이유로 다시 방문하려고 합니다. 첫째, 데이터에 대한 챗봇을 구축하는 데 매우 중요합니다. 그리고 두 번째는 조금 더 깊이 들어가 엣지 케이스와 이 일반적인 방법이 실제로 실패할 수 있는 곳에 대해 이야기할 것입니다. 걱정하지 마세요, 나중에 고칠 거예요. 하지만 지금은 벡터 스토어와 임베딩에 대해 이야기해 보겠습니다. 그리고 이것은 문서를 쉽게 액세스할 수 있는 형식으로 저장할 준비가 되었을 때 텍스트 분할 후에 발생합니다.
Embedding
임베딩이란 무엇인가요? 그것들은 텍스트 한 조각을 가져와서 그 텍스트를 숫자로 표현합니다. 비슷한 내용을 가진 텍스트는 이 숫자 공간에서 비슷한 벡터를 가질 것입니다. 이것은 우리가 벡터를 비교하고 비슷한 텍스트 조각을 찾을 수 있다는 것을 의미합니다. 그래서 아래 예문에서는 반려동물에 대한 두 문장이 매우 유사한 반면, 반려동물에 대한 문장과 자동차에 대한 문장은 그다지 유사하지 않다는 것을 알 수 있습니다.
Vector Store
전체 엔드 투 엔드 워크플로우를 상기시키기 위해, 우리는 문서부터 시작하여, 그 문서들의 작은 분할들을 만들고, 그 문서들의 임베딩을 만든 다음, 그 모든 문서들을 벡터 저장소에 저장합니다. 벡터 스토어는 나중에 비슷한 벡터를 쉽게 찾을 수 있는 데이터베이스입니다. 이는 당면한 질문과 관련된 문서를 찾으려고 할 때 유용할 것입니다. 그런 다음 당면한 질문을 선택하여 임베딩을 생성한 다음 벡터 저장소의 모든 다른 벡터와 비교한 다음 가장 유사한 것을 선택할 수 있습니다.
그런 다음 가장 유사한 n개의 청크를 가져다가 질문과 함께 LLM에 전달하고 답을 얻습니다. 나중에 그 모든 것을 다룰 것입니다.
검색(Retrieval)
시맨틱 검색의 경우 상당한 양의 사용 사례에 대해 꽤 잘 작동하는 것을 보았습니다. 하지만 에지 케이스도 보았는데 어떻게 일이 조금 잘못될 수 있는지도 보았습니다. 이번에서는 검색에 대해 자세히 알아보고 이러한 에지 케이스를 극복하기 위한 몇 가지 고급 방법에 대해 알아보겠습니다. 검색은 지난 기간동안 이야기하고 있는 많은 기술들이 새로운 것이라고 생각하기 때문입니다. 이것은 최첨단의 주제이기 때문에 여러분은 바로 선두에 설 것입니다.
이번에는 검색에 대해 알아보겠습니다. 쿼리 시간에 가장 관련성이 높은 분할을 검색하고 싶을 때 중요합니다. 의미 유사성 검색에 대해 이전에 이야기했지만 여기서는 몇 가지 다른 고급 방법에 대해 이야기할 것입니다.
- Accessing/indexing the data in the vector store
- Basic semantic similarity
- Maximum marginal relevance
- Including Metadata
- LLM Aided Retrieval
Maximum marginal relevance(MMR)
첫 번째로 다룰 내용은 최대 한계 관련성(Maximum Marginal Reliacity), 즉 MMR입니다. 그래서 이 아이디어의 배경에는 항상 임베딩 공간에서 쿼리와 가장 유사한 문서를 가져온다면, 엣지 케이스에서 본 것처럼 다양한 정보를 실제로 놓칠 수 있다는 것입니다. 이 예에서는 모든 흰 버섯에 대해 묻는 요리사가 있습니다. 가장 유사한 결과를 살펴보면, 이 문서들은 처음 두 문서가 될 것입니다. 이 문서들은 결실체에 대한 질문과 비슷한 많은 정보를 가지고 있고 모두 흰색입니다. 하지만 우리는 그것이 정말로 독이 있다는 사실과 같은 다른 정보도 확실히 얻고 싶습니다. 그래서 MMR을 사용하는 것이 다양한 문서 세트를 선택할 수 있기 때문에 이것이 중요한 역할을 합니다.
MMR algorithm
MMR 뒤에 있는 아이디어는 우리가 질의를 보낸 후, “fetch_k”는 우리가 얼마나 많은 응답을 얻는지를 결정하기 위해 제어할 수 있는 매개 변수인 응답 집합을 처음에 얻는다는 것입니다. 이것은 오직 의미론적 유사성에 기초합니다. 그런 다음, 우리는 그 작은 문서 집합을 사용하여 의미론적 유사성에 기초하여 가장 관련성이 높은 문서뿐만 아니라 다양한 문서에 최적화합니다. 그리고 해당 문서 집합에서 사용자에게 반환할 최종 “k”를 선택합니다.
LLM Aided Retrieval
저희가 할 수 있는 또 다른 검색 유형은 셀프 쿼리라고 하는 것입니다. 따라서 의미론적으로 검색하려는 내용뿐만 아니라 필터를 수행하려는 일부 메타데이터에 대한 언급이 포함된 질문이 있을 때 유용합니다. 자, 1980년에 만들어진 외계인에 관한 영화에는 어떤 것들이 있나요? 이것은 두 가지 요소로 구성되어 있습니다. 의미론적인 부분이 있습니다. 에일리언이 약간 있습니다. 그래서 우리는 우리의 영화 데이터베이스에서 에일리언을 찾고자 합니다.
그러나 각 영화에 대한 메타데이터를 실제로 참조하는 작품도 있습니다. 그 해는 1980년이어야 한다는 사실입니다. 우리가 할 수 있는 것은 언어 모델 자체를 사용하여 원래 질문을 필터와 검색어 두 개로 나눌 수 있다는 것입니다. 대부분의 벡터 저장소에서는 메타데이터 필터를 지원합니다. 그래서 1980년처럼 메타데이터를 기반으로 레코드를 쉽게 필터링할 수 있습니다.
Compression
마지막으로 압축에 대해서 말씀드리겠습니다. 이는 검색된 지문 중 가장 관련성이 높은 부분만 추출하는 데 유용할 수 있습니다. 예를 들어, 질문을 할 때 처음 한두 문장만 관련된 부분이더라도 저장되어 있던 문서 전체를 돌려받습니다. 그런 다음 압축을 사용하여 모든 문서를 언어 모델을 통해 실행하고 가장 관련성이 높은 세그먼트를 추출한 다음 가장 관련성이 높은 세그먼트만 최종 언어 모델 호출로 전달할 수 있습니다. 이것은 언어 모델에 더 많은 전화를 거는 비용이 들지만, 최종 답을 가장 중요한 것에만 집중하기에도 정말 좋습니다. 그래서 약간의 상쇄 효과가 있습니다.
Other types of retrieval
Not using a vector database, such as:
- SVM
- TF-IDF
- …
질문 답변(Question Answering)
주어진 질문에 관련된 문서를 가져오는 방법에 대해 검토했습니다. 다음 단계는 문서를 가져가서 원래 질문을 가지고 언어 모델에 전달한 후 질문에 답하도록 요청하는 것입니다. 그것과 당신이 그 작업을 수행할 수 있는 몇 가지 다른 방법에 대해 검토할 것입니다.
이번에는 방금 검색한 문서로 질문에 답변하는 방법에 대해 알아보겠습니다. 이것은 우리가 모든 저장과 섭취를 마친 후에, 그리고 관련된 스플릿을 가져온 후에 나타납니다. 이제 우리는 그것을 언어 모델로 전달하여 답을 얻어야 합니다.
RetrievalQA chain
이에 대한 일반적인 흐름은, 질문이 들어오고, 우리는 관련 문서를 찾아본 다음, 우리는 시스템 프롬프트와 인간 질문을 언어 모델에 전달하고 답을 얻습니다. 기본적으로 모든 청크를 동일한 컨텍스트 창, 언어 모델의 동일한 호출에 전달합니다.
3 additional methods
그러나 그에 대한 장단점이 있는 몇 가지 다른 방법을 사용할 수 있습니다. 대부분의 장점은 문서가 많을 때가 있는데, 단순히 문서를 모두 동일한 컨텍스트 창으로 전달할 수 없다는 사실에서 비롯됩니다. 맵리듀스(MapReduce), 리파인(Refine), 맵리랭크(MapRrank)는 짧은 컨텍스트 창의 이 문제를 해결하기 위한 세 가지 방법이 있습니다.
질문 답변(Question Answering)
저희는 기능적인 챗봇을 보유하고 있습니다. 저희는 문서를 로드하는 것부터 시작해서 그것들을 분할하고 벡터 스토어를 만들고 다양한 검색 유형에 대해 이야기하고 질문에 답할 수는 있지만 후속 질문은 처리할 수 없고 대화는 할 수 없습니다. 좋은 소식은 이번 수업에서 해결할 것입니다. 방법을 알아봅시다.
ConversationalRetrievalChain
이제 질문에 답하는 챗봇을 만드는 것으로 끝을 맺을 것입니다. 이것이 할 일은, 이전과 매우 유사하게 보일 것이지만, 우리는 이 채팅 히스토리 개념에 추가할 것입니다. 이것은 여러분이 체인점과 주고 받은 이전의 대화나 메시지입니다. 그러면 채팅 기록이 질문에 답하려고 할 때 상황에 맞게 기록할 수 있습니다. 따라서 후속 질문을 한다면, 여러분이 무슨 말을 하는지 알 수 있을 것입니다.
Modular Components
여기서 주목해야 할 중요한 점은 지금까지 이야기했던 셀프 쿼리나 압축 같은 멋진 검색 유형은 모두 여기서 사용할 수 있다는 것입니다. 저희가 이야기한 모든 구성 요소는 매우 모듈식이고 서로 잘 맞을 수 있습니다. 채팅 기록이라는 개념에 추가하는 것뿐입니다.
Conclusion
LangChain을 사용하여 LangChain의 80개 이상의 다양한 문서 로더를 사용하여 다양한 문서 소스에서 데이터를 로드하는 방법에 대해 설명했습니다. 거기서 우리는 문서를 청크로 나누고, 그렇게 할 때 도착하는 많은 뉘앙스에 대해 이야기합니다. 그런 다음 해당 청크를 가져와 임베딩을 만들고 벡터 저장소에 넣어 쉽게 의미 검색을 가능하게 하는 방법을 보여줍니다. 그러나 의미 검색의 몇 가지 단점과 발생하는 특정 에지 경우에 실패할 수 있는 부분에 대해서도 이야기합니다.
다음은 검색입니다. 여기서는 에지 케이스를 극복하기 위한 새롭고 고급이며 정말 재미있는 검색 알고리즘에 대해 이야기합니다. 다음 검색된 문서를 LLM과 결합하여 사용자 질문을 받아 LLM에 전달하고 원래 질문에 대한 답변을 생성합니다. 하지만 아직 한 가지 부족한 것이 있는데, 그것의 대화적 측면입니다.
댓글남기기