Home
Hoya Blog
Cancel

LangChain 학습 노트 #5 - Model Cache, Serialization & Token Usage

개요 LangChain 애플리케이션을 운영할 때 성능과 비용 최적화는 매우 중요합니다. 이번 포스트에서는 캐싱을 통한 API 호출 최적화, 모델 직렬화, 그리고 토큰 사용량 추적 방법에 대해 자세히 알아보겠습니다. 캐싱 (Caching) 캐싱이 필요한 이유 LangChain의 캐싱 기능은 두 가지 주요 이점을 제공합니다: 비용 절감: 동...

LangChain 학습 노트 #4 - Chat Models & 기본 설정

개요 LangChain은 다양한 Large Language Model(LLM)과 쉽게 연동할 수 있는 강력한 프레임워크입니다. 이번 포스트에서는 LangChain의 Chat Model 기본 개념과 OpenAI, Anthropic 등 주요 모델들을 활용하는 방법에 대해 살펴보겠습니다. 환경 설정 먼저 필요한 패키지들을 설치하고 환경을 설정해보겠습니...

LangChain 학습 노트 #3: OutputParser로 구조화된 데이터 추출하기

LLM의 응답을 단순 텍스트가 아닌 구조화된 데이터로 받고 싶다면? LangChain의 OutputParser가 해답입니다. 이메일 내용 분석부터 JSON 데이터 생성까지, 다양한 형태로 데이터를 파싱하는 방법을 알아봅니다. 1. OutputParser 개요: 왜 필요한가? LLM은 기본적으로 텍스트를 반환합니다. 하지만 실제 애플리케이션에서는 구...

LangChain 학습 노트 #2: FewShotPromptTemplate과 ExampleSelector 활용법

LLM 애플리케이션 개발에서 중요한 과제 중 하나는 모델이 일관된 방식으로 유의미한 출력을 생성하도록 유도하는 것입니다. 이를 위해 LangChain은 FewShotPromptTemplate과 ExampleSelector라는 강력한 도구들을 제공합니다. 이 글에서는 LangChain에서 예시 기반 학습(Few-Shot Learning)을 구현하는 방법...

LangChain 학습 노트 #1: API 키 관리부터 LCEL 파이프라인까지

LLM(거대 언어 모델)을 활용한 애플리케이션 개발 시, 안정적이고 확장 가능한 구조를 만드는 것이 중요합니다. 이 글에서는 LangChain 사용 시 꼭 알아야 할 핵심 구성요소들을 단계별로 살펴봅니다. 1. 환경변수 로드: 안전한 API 키 관리 API 키 같은 민감한 정보를 코드에 직접 작성하는 것은 보안 위험이 큽니다. python-dote...

답변 품질을 극대화하는 RAG 시스템 설계의 기술

ChatGPT와 같은 거대 언어 모델(LLM)이 IT 생태계를 바꾸고 있지만, 실제 비즈니스에 적용하려 할 때 우리는 몇 가지 명확한 한계에 부딪힙니다. 모델이 학습하지 않은 최신 정보를 모르거나, 기업 내부 데이터에 접근할 수 없으며, 때로는 사실이 아닌 정보를 그럴듯하게 지어내는 ‘환각(Hallucination)’ 현상을 보이기 때문입니다. 이러...