메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기
정가 26,000원
판매가
10% 23,400원
총 결제 금액 23,400원
배송비 0원
할인 금액 - 2,600원
적립 예정 1,170P

대여 가능

전자책

종이책

AI 에이전트 마스터 클래스

기획, 구현, 운영, 배포까지 현업에서 바로 적용하는 에이전트 개발 가이드

  • 저자김구현
  • 출간2026-01-30
  • 페이지340 쪽
  • ISBN9791175790155
  • 물류코드51015
  • 난이도
    초급 초중급 중급 중고급 고급
5점 (18명)

랭체인의 기본기부터 최신 MCP 기술까지,
‘살아 있는 AI’를 설계하는 가장 완벽한 로드맵

 

단순한 챗봇을 넘어 스스로 판단하고 행동하는 ‘AI 에이전트’가 IT 업계의 새로운 표준으로 자리 잡고 있습니다. 이 책은 랭체인의 기초 문법부터 시작하여 Streamlit을 활용한 웹 서비스 구현까지 다뤄, 실무에 즉시 적용 가능한 탄탄한 기반 지식을 다집니다. 그리고 더 나아가 LLM이 스스로 추론하고 도구를 선택하는 ReAct 패턴의 에이전트를 직접 설계하며, 단순한 코드가 지능형 비서로 진화하는 과정을 생생하게 경험할 수 있습니다. 특히 최신 기술인 MCP를 다뤄, 외부 시스템과 유기적으로 연결된 거대한 AI 생태계를 구축하는 방법까지 제시합니다. 코드 한 줄이라는 씨앗이 에이전트라는 나무로 자라 숲을 이루기까지, 나만의 AI 서비스를 꿈꾸는 개발자들에게 가장 확실한 실전 가이드가 되어줄 것입니다.

 

주요 내용

  • AI 에이전트와 LLM 서비스의 구조적 차이와 설계 관점 이해
  • 랭체인과 LCEL을 활용해 예측 가능한 에이전트 워크플로 구성
  • RAG와 메모리, 도구 연계를 통해 지식 기반 AI 에이전트 구현
  • MCP와 실습 프로젝트를 통해 운영 가능한 AI 에이전트 서비스 완성

 

김구현 저자

김구현

2019년부터 실무 및 교육 현장에서 활동 중인 개발자이자 강사입니다. 현재 포레스트소프트에서 ‘AI를 활용한 업무 자동화 시스템’ 개발을 담당하고 있으며, 삼성 청년 SW AI 아카데미(SSAFY)에서 수년간 파이썬/데이터 트랙의 풀스택 개발과 알고리즘, 그리고 인공지능 강의를 전담하고 있습니다. 아울러 AI 파인튜닝, 온프레미스 AI 구축, AI 에이전트 설계 등 최신 기술을 다루는 실무 특강을 진행해 왔습니다. 화려한 기법에 치중하기보다 현장에서 검증된 코드와 명확한 설계 원칙을 제시하여, 독자가 AI 서비스의 전체 흐름을 꿰뚫어 보는 설계자로 성장할 수 있도록 돕고자 합니다.

CHAPTER 0 개발 환경 준비하기
_0.1 필수 API 키 발급
__0.1.1 오픈AI API 키
__0.1.2 크레딧 결제 수단 추가
__0.1.3 랭체인 허브 환경 설정
_0.2 구글 코랩 설정
__0.2.1 구글 드라이브에 코랩 앱 추가하기
__0.2.2 코랩 동작 테스트
_0.3 로컬 개발 환경 구축
__0.3.1 파이썬 설치 (3.11 버전 권장)
__0.3.2 Git Bash 설치
__0.3.3 VS Code 설치
__0.3.4 VS Code 환경 설정과 확장 도구 설치
__0.3.5 VS Code 사용 방법과 터미널 설정
_0.4 실습 파일 내려받기

 

PART 1 랭체인 기초와 LCEL로 시작하는 LLM 서비스 개발

 

CHAPTER 1 AI에서 AI 에이전트로의 진화

 

CHAPTER 2 LLM 서비스 개발을 위한 프레임워크, LangChain
_2.1 What is LangChain?
_2.2 LLM 기반 서비스, 챗GPT를 통해 파헤쳐보자
_2.3 랭체인 적용 사례
_2.4 랭체인 작동 원리: ‘체인’
_2.5 랭체인 학습을 위한 참고 자료
_2.6 핵심 요약

 

CHAPTER 3 체인을 구현하는 기초 문법, LCEL
_3.1 LCEL 기초 문법 이해
__3.1.1 LCEL 체인의 구축 및 실행
_3.2 LCEL 구축 시 주의 사항
__3.2.1 다중 입력 변수 처리 및 KeyError
__3.2.2 체인 구성 순서 및 ValueError
_3.3 결합된 체인 구축
_3.4 프롬프트
__3.4.1 PromptTemplate.from_template()
__3.4.2 PromptTemplate
__3.4.3 ChatPromptTemplate
_3.5 모델
_3.6 출력 파서
__3.6.1 CommaSeparatedOutputParser
__3.6.2 JsonOutputParser
_3.7 랭체인 허브
__3.7.1 랭스미스
__3.7.2 프롬프트 개선
_3.8 핵심 요약

 

CHAPTER 4 체인의 구조를 고도화하기, Runnable
_4.1 RunnableParallel
_4.2 RunnableLambda
_4.3 RunnablePassthrough
_4.4 핵심 요약

 

CHAPTER 5 GPT에게 기억력을 심어주자, Memory
_5.1 대화 기록 관리하기
__5.1.1 ChatMessageHistory
__5.1.2 MessagesPlaceholder
_5.2 Runnable 활용
__5.2.1 RunnableWithMessageHistory 기본
__5.2.2 사용자별 대화 관리
_5.3 핵심 요약

 

CHAPTER 6 랭체인 챗봇을 서비스로 구현하기, Streamlit
_6.1 Streamlit
__6.1.1 개발 환경 설정
__6.1.2 텍스트 요소
__6.1.3 데이터와 차트 요소
__6.1.4 레이아웃과 내비게이션 요소
__6.1.5 위젯 요소
__6.1.6 챗 요소
__6.1.7 세션 상태
_6.2 Streamlit과 랭체인을 활용한 범용 챗봇 개발
__6.2.1 사전 준비
__6.2.2 전체 시스템 아키텍처 및 개발 프로세스
__6.2.3 환경 구성
__6.2.4 기본 페이지 뼈대 구성과 내비게이션 구성
__6.2.5 주요 기능 구현
__6.2.6 테스트

 

PART 2 에이전트와 MCP로 실전 서비스 구축

 

CHAPTER 7 스스로 판단하고 행동하는 AI 요원, Agent
_7.1 도구 이해하기
__7.1.1 가장 단순한 도구 만들기
__7.1.2 도구 메타데이터 다듬기
__7.1.3 Pydantic 스키마로 구조화된 입력받기
_7.2 에이전트 첫걸음
__7.2.1 단일 에이전트 생성하기
__7.2.2 도구를 활용하는 에이전트 생성하기
_7.3 ReAct 패턴 이해하기
__7.3.1 ReAct란?
__7.3.2 ReAct 과정 관찰하기
_7.4 외부 도구 사용하기
__7.4.1 YouTubeSearchTool
_7.5 핵심 요약

 

CHAPTER 8 에이전트에게 지식 선물하기, RAG
_8.1 RAG 개념 이해하기
__8.1.1 RAG란?
__8.1.2 벡터 임베딩이란?
__8.1.3 벡터 저장소
_8.2 파일 로드 및 청킹
__8.2.1 환경 설정
__8.2.2 파일 로더로 문서 불러오기
__8.2.3 문서 청킹하기
_8.3 메타데이터로 데이터 구분하기
__8.3.1 메타데이터 추가
_8.4 임베딩 모델 이해하기
__8.4.1 임베딩 모델이란?
__8.4.2 오픈AI 임베딩 모델 설정하기
_8.5 Chroma 벡터 저장소 만들고 저장하기
__8.5.1 왜 Chroma를 선택했는가?
__8.5.2 Chroma 벡터 DB 생성 및 저장
_8.6 벡터 저장소에서 검색하기
__8.6.1 저장된 벡터 저장소 불러오기와 Retriever 객체 생성
__8.6.2 유사도 검색과 Top-k의 중요성
__8.6.3 메타데이터 필터로 검색하기
__8.6.4 MMR 검색으로 답변의 다양성 확보
_8.7 RAG 에이전트 만들기
__8.7.1 검색 Tool 만들기
_8.8 핵심 요약

 

CHAPTER 9 에이전트와의 대화 상태 유지하기, CheckPointer
_9.1 랭그래프와 메모리
__9.1.1 왜 체인이 아니라 그래프인가?
__9.1.2 랭그래프의 핵심 구성 요소와 메모리 시스템
__9.1.3 RunnableWithMessageHistory vs. 체크포인터
_9.2 체크포인터 설정
__9.2.1 InMemorySaver로 메모리 구현하기
__9.2.2 SqliteSaver로 메모리 영구화하기
_9.3 장기 기억을 위한 메모리 최적화
__9.3.1 SummarizationMiddleware로 대화 요약하기
_9.4 핵심 요약

 

CHAPTER 10 도구의 표준화, MCP
_10.1 MCP란 무엇인가?
__10.1.1 MCP의 기본 개념
__10.1.2 왜 MCP가 필요한가?
_10.2 FastMCP로 간단한 서버 만들기
__10.2.1 파일 관리 서버 만들기
_10.3 MCP 서버 연결 및 에이전트 활용
__10.3.1 MCP 서버의 도구를 에이전트에 불러오기
_10.4 외부 MCP 서버 연결하기
__10.4.1 외부 서버 설치하기
__10.4.2 외부 서버 사용하기
_10.5 핵심 요약

 

CHAPTER 11 똑똑한 와인 소믈리에 챗봇 만들기, Project
_11.1 서비스 기획 및 아키텍처
__11.1.1 시스템 아키텍처
__11.1.2 프로젝트 폴더 구조
__11.1.3 데이터셋 준비
_11.2 프로젝트 환경 및 기본 UI 구성
__11.2.1 프로젝트 생성 및 환경 설정
__11.2.2 Streamlit 기본 구조 만들기
_11.3 랭체인 에이전트 설계
__11.3.1 에이전트 설정 분리
__11.3.2 에이전트 생성기 작성
__11.3.3 에이전트 동작 확인 및 UI 연결
_11.4 하이브리드 지식 저장소 구축
__11.4.1 데이터 전처리 및 벡터 스토어 생성 코드 작성
_11.5 MCP 서버를 통한 도구 확장
__11.5.1 파일 관리 서버
__11.5.2 RAG 서버
__11.5.3 영상 검색 도구 추가
_11.6 핵심 요약

단순한 튜토리얼을 넘어, ‘운영 가능한 AI 에이전트’로


이 책은 생성형 AI와 AI 에이전트의 개념을 단순히 설명하거나 단편적인 예제를 나열하는 데 그치지 않습니다. 랭체인, RAG, MCP와 같은 개별 기술이 실제 서비스 환경에서 어떻게 유기적으로 연결되어 작동하는지 그 전체적인 흐름과 구조를 체계적으로 정리했습니다. 
 

특히 실무에서 AI 서비스를 설계할 때 직면하게 되는 토큰 관리와 최적화, 랭그래프 기반의 지속적인 대화 이력 관리, 그리고 에이전트의 효율적인 도구 선택 기준을 깊이 있게 다룹니다. 나아가 RAG 기술을 활용한 내부 지식 확장과 표준 프로토콜인 MCP를 통한 외부 시스템 연동까지, 에이전트 개발의 전 과정을 실습 중심으로 상세히 풀었습니다. 
 

도서의 마지막 부분에서는 실전 프로젝트인 ‘와인 추천 에이전트’를 기획부터 구현, 웹 배포까지 직접 수행해 봅니다. 이 과정을 통해 독자는 단순한 기능을 구현해 보는 수준을 넘어, 실제 비즈니스 현장에서 동작하는 완성도 높은 AI 프로젝트를 완수하는 경험을 얻게 될 것입니다. 
 

단순히 AI를 이용하는 것을 넘어, 하나의 견고하고 지속 가능한 지능형 시스템으로 구축하고자 하는 모든 개발자와 기술 리더들에게 이 책이 명확한 가이드가 되어줄 것입니다.
 

대상 독자

  • 단순 챗봇을 넘어, 실제 업무를 수행하는 AI 에이전트 서비스를 구현해 보고 싶은 실무 엔지니어
  • 파이썬 기초 문법과 LLM 활용 경험은 있으나, 이를 서비스 구조로 확장하는 데 어려움을 느끼는 개발자
  • RAG, 에이전트, MCP 등 개별 기술은 알고 있으나, 이들을 하나의 시스템으로 설계하는 기준이 필요한 독자
  • AI 기능을 PoC 수준이 아닌, 운영 가능한 서비스로 발전시키고자 하는 개발자 및 기술 담당자
  • AI 기반 서비스 도입과 구조 설계를 검토해야 하는 기술 리더, 테크 리드, 프로덕트 매니저

최근 AI 기술의 발전으로 많은 개발자들이 LLM API 호출을 통해 AI 서비스를 구축하는 데 집중하고 있습니다. 저 역시 초반에는 "프롬프트 하나 잘 짜면 AI가 답을 내줄 거야"라고 생각했지만, 실무에서 복잡한 요구 사항을 다루면서 그 한계를 느꼈습니다. 그래서 이 책, 《AI 에이전트 마스터 클래스》를 읽고 나서야 깨달았습니다. AI는 단순한 결과 생성기가 아니라, 상태를 기억하고, 도구를 활용하며, 결과를 도출하는 주체적인 존재라는 점입니다.

이 책은 AI를 단순히 도구로 사용하려는 기존의 접근 방식을 넘어서, AI가 어떤 원리로 판단하고 행동하는지에 대해 구조적이고 체계적으로 설계하는 방법을 다룹니다. ‘프롬프트’를 잘 짜는 것보다 중요한 건 AI가 언제, 어떤 상황에서, 어떻게 데이터를 분석하고, 어떤 도구를 선택해, 최종 행동을 결정할 것인가 하는 시스템적인 사고가 중요하다는 메시지가 핵심입니다.



한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.

 

 

레거시 스택과 생성형 AI 사이의 간극

작년 초부터 생성형 AI와 자바 스프링 백엔드를 접목한 강의를 맡아왔다. 그러나 현실의 커리큘럼은 여전히 JSP(Java Server Pages), MyBatis(퍼시스턴스 프레임워크) 같은 전통 기술을 포함한다.

 

분기마다 DeepSeek(LLM), o1(추론 특화 모델), nano banana(경량 모델), Claude Code(코드 특화 LLM), OpenClaw(오픈소스 모델) 등 새로운 기술이 쏟아지는 상황에서, 이를 충분히 소화하지 못한 채 기존 스택을 다루는 과정은 구조적 간극처럼 느껴졌다. 특히 에이전트 구현 영역은 가장 난해했다.

 

LangChain으로 재정렬된 에이전트 개념

강의 특성상 Java 중심, 보조적으로 JavaScript 정도만 다루다 보니 Python 기반 LangChain(LLM 오케스트레이션 프레임워크)을 깊이 있게 접하기 어려웠다. 모델 호출 후 Stream(스트리밍 처리)이나 고차함수로 연결하는 수준에서 멈출 수밖에 없었다. 부트캠프 환경에서는 일정 깊이 이상을 다루면 오히려 이해도를 해칠 수 있다는 제약도 존재했다.

 

이 책은 그 단절된 개념들을 정리해준다. 기존 프로그래밍 패턴으로 설명하던 호출 체계, 상태 관리, 체이닝 구조가 LangChain을 통해 하나의 추상화 계층으로 묶인다. 그러나 핵심은 프레임워크 자체가 아니다. 프롬프트 품질 관리, 다중 모델 통합, 출력 스키마 제어 같은 문제를 어떻게 구조적으로 해결하는지가 중심이다. 에이전틱 사고(목표 기반 문제 해결 구조)를 체계화하는 데 의의가 있다.

 

 

RAG·MCP를 통한 구조 확장

책은 GPT-5-nano(경량 모델), LangChain, Colab(클라우드 노트북), Streamlit(파이썬 웹 UI) 중심으로 구성되어 학습 부담을 낮춘다. 환경 설정과 모델 선택에서의 복잡도를 최소화한 점은 분명 장점이다. 동시에 다양한 벤더나 배포 환경을 폭넓게 다루지는 않는다.

 

RAG(검색 증강 생성)와 MCP(Model Context Protocol, 모델-도구 연결 규약) 같은 개념은 단순한 텍스트 생성 단계를 넘어, 외부 데이터와 도구 호출을 결합한 구조로 확장하는 방향을 제시한다. 생성형 모델을 “출력기”가 아닌 “구성 요소”로 다루는 시각을 제공한다는 점에서 의미가 있다.

 

 

프레임워크를 넘어 설계 철학으로

이 책은 종착점이 아니라 정리된 출발점에 가깝다. LangChain4j(Java용 LangChain), Spring AI(스프링 기반 AI 통합), Ollama(로컬 LLM 서빙), OpenRouter·Groq·Gemini·NVIDIA NIM(다중 모델 API) 같은 환경에서도 동일한 문제 정의와 구조를 재현할 수 있다. 구현체는 달라도 설계 관점은 유지된다.

 

결국 중요한 것은 특정 라이브러리의 API 숙련도가 아니라, 모델 호출을 어떻게 추상화하고, 상태를 어떻게 통제하며, 출력을 어떻게 계약화(contract)할 것인가에 대한 사고 체계다. 이 책은 그 관점을 비교적 안정적으로 제공한다.

 

추천 독자

이 책은 다음과 같은 독자에게 적합하다.

  • 생성형 AI를 실무 백엔드와 연결하려는 개발자
  • LangChain의 개념 구조를 한 번에 정리하고 싶은 독자
  • RAG나 도구 호출 기반 에이전트 구조를 처음 접하는 사람
  • Python 중심 실습으로 빠르게 전체 그림을 파악하고 싶은 개발자

 

반면, 멀티 벤더 운영 전략이나 대규모 프로덕션 아키텍처 설계를 기대한다면 보완 학습이 필요하다. 기본 개념을 정리하고 구조적 사고를 다지는 용도로 적절한 기술서다.

 

#한빛미디어 #나는리뷰어다 #AI에이전트마스터클래스 #Colab #Streamlit #Python

#AI에이전트 #생성형AI #LLM #LangChain #에이전트아키텍처 #프롬프트엔지니어링

#RAG #MCP #기술서리뷰

한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.

한빛미디어에서 출판된 <AI 에이전트 마스터 클래스>는 LLM, LangChain(랭체인) 그리고 MCP를 하나로 엮어 실제로 LLM 서비스 개발에 필요한 기초 지식을 충실히 설명해주는 책입니다. 특히, 단순히 기술을 나열하는 대신 특정 기술을 익힌 후 부족한 부분을 보완할 수 있는 기술이 연이어 나오는 구성을 통해 LLM 서비스를 처음부터 개발하는 초보자에게 단순한 지식뿐만 아니라, 기술의 맥락을 이해할 수 있게 책의 구성이 잘 이루어진 것 같습니다.

 

이 책에서 주요하게 다루는 LangChain의 경우, 2025년 말 에이전트 중심의 프레임워크로 재설계된 1.0 버전으로 업그레이드가 되며 기초부터 익힐 수 있는 책이 마땅치 않았었는데, <AI 에이전트 마스터 클래스>는 1.0+ 버전 기준으로 작성되어 있어 새롭게 LangChain에 입문하고자 하는 분들에게 매우 적절한 책으로 보입니다.

 

Chatbot으로써의 LLM은 사용해보았지만, LLM을 이용한 서비스를 만들어보고 싶은 분들. 혹은 업그레이드된 버전의 LangChain을 기초부터 익히고 싶은 LLM 개발자분들께 적극 추천합니다.

 

"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

새해 첫날, 대표님의 전사 메일이 도착했습니다. 겉으로는 새해 인사였지만 속뜻은 “올해 회사가 어디로 갈 것인가”였고, 가장 강렬했던 문장은 AI를 활용한 인건비 감축이었습니다. 불과 챗GPT가 처음 등장했던 2022~2023년만 해도, 회사 분위기는 대체로 “업무에 AI를 쓰는 건 불편하다”에 가까웠습니다. 식기세척기가 손설거지보다 더 깨끗하고 물도 아낄 수 있다는 걸 처음엔 다들 못 믿었던 것처럼, AI가 사람을 대체할 리 없다고 생각했고, 자산이 학습될까 불안해서 사용을 금지하는 사례도 있었죠. 우리 회사는 금지까지는 아니었지만 장려도 아니었습니다. 그 시절 AI를 업무에 적극 쓰는 사람은 저와 같은 프로덕트 개발을 하는 프로그래머 동료 한 명 정도였던 것 같습니다.

그런데 고작 2년 뒤인 2024년, 경영진의 리드에 따라 개발 업무에서 AI 활용이 본격화됐습니다. 작년 말부터는 ‘바이브코딩’ 같은 단어도 회의에서 심심찮게 들리고요. 그리고 올해 초, “AI로 인건비를 절감하겠다”는 메일이 왔습니다. 물론 ‘10명이 하던 일을 1명이 더 높은 수준으로 해내게 되어 절감한다’는 의미라면 긍정적이지만, 다른 회사들이 흐름에 맞춰 주니어 채용을 줄이고 시니어도 성과로 정리하는 모습처럼, 이 파도가 결국 우리 회사에도 닿지 않을까 하는 걱정이 솔직히 듭니다. 연초에 “어떤 직원이 되어야 살아남을까”를 제미나이와 진지하게 논의했던 적도 있었을 정도니까요.

저는 AI를 남들보다 먼저 적극적으로 써 왔다고 생각합니다. 지금도 업무 성과를 내는 데 AI가 큰 도움이 되고요. 하지만 이제는 남이 만들어 둔 AI 도구를 ‘잘 쓰는 단계’를 넘어, 우리 업무에 필요한 AI 에이전트 서비스를 직접 기획·개발하는 단계로 올라가야 한다고 느꼈습니다. 그런 시점에 한빛미디어의 『AI 에이전트 마스터 클래스』라는 제목은, 말 그대로 지금 내게 필요한 책처럼 보였습니다.

- 올해부터는 한빛리뷰어 활동이 종이책이 아닌 전자책으로 바뀌었기 때문에, 도서 사진을 모니터 사진으로 대체하는 점 양해 부탁 드립니다 :)

이 책의 가장 큰 장점은 “에이전트를 멋있게 데모로 끝내지 않고, 실제 서비스 형태로 굴리는 흐름”을 끝까지 가져간다는 점입니다. 랭체인 기초와 LCEL로 예측 가능한 워크플로를 만들고, Runnable로 구조를 고도화한 뒤, Memory로 대화 맥락을 붙이고, Streamlit으로 웹 서비스 형태까지 올려봅니다. 여기까지만 해도 현업에서 바로 써먹을 ‘뼈대’가 생기는데, 책은 거기서 멈추지 않고 에이전트의 핵심인 도구(tool) 사용과 ReAct 패턴, 그리고 RAG로 지식 확장, 랭그래프 기반의 체크포인터로 상태를 유지하는 방식까지 자연스럽게 확장합니다.

특히 인상 깊었던 포인트는 두 가지였습니다.

첫째, RAG를 '그럴싸한 개념'이 아니라 실무 구현 디테일(로드/청킹/메타데이터/Top-k/MMR/벡터DB 선택)까지 한 번에 정리해 준다는 점입니다. '우리 회사 위키/기획서/로그/장애 리포트' 같은 내부 지식으로 에이전트를 강화하려면 결국 이 과정을 피해갈 수 없는데, 책의 구성은 그 우회로를 잘라내고 정면으로 안내합니다.

둘째, MCP(도구 표준화)를 다루는 부분입니다. 요즘 AI를 업무에 붙이다 보면 ‘각자 만든 스크립트/서버/툴’이 난립하기 쉬운데, MCP를 통해 외부 시스템과 유기적으로 연결된 형태를 설계하는 관점이 꽤 현실적이었습니다.

마지막 프로젝트(와인 소믈리에 챗봇)는 완성 경험을 주는 구성이어서 좋았습니다. 아키텍처부터 UI, RAG, MCP 기반 도구 확장까지 한 덩어리로 묶어 실제로 굴러가는 결과물을 만드는 과정은, 현업에서 PoC로 끝내지 않고 운영 가능한 형태로 가져가려는 사람에게 특히 도움이 됩니다.

물론 주의할 점도 있습니다.

실습 중심이다 보니 API 키/크레딧/개발 환경 같은 준비가 필요하고, 회사 환경에서는 보안·데이터 반출 정책을 먼저 확인해야 합니다(책도 초반에 환경 준비를 꽤 꼼꼼히 다룹니다). 하지만 그 허들을 넘고 나면, 막연한 불안(AI가 내 일을 뺏나?)이 조금 더 구체적인 계획(내 업무를 에이전트로 재설계하면?)으로 바뀌기 시작합니다.

결론적으로 『AI 에이전트 마스터 클래스』는 'AI를 잘 쓰는 법'을 넘어, AI를 ‘일하는 동료’로 만들기 위한 설계·구현·배포의 로드맵을 제공합니다.

대표님의 메일 한 통이 남긴 불안이, 저에게는 오히려 다음 단계로 가야 한다는 신호가 되었고, 이 책은 그 다음 단계로 넘어가기 위한 꽤 단단한 발판이 되어 주었습니다. AI 시대에 살아남아야 한다는 문장이 부담으로만 느껴지는 개발자라면, 이 책을 통해 부담을 ‘실행 가능한 기술’로 바꿔보셔도 좋겠습니다.

AI 에이전트라는 개념은 많이 등장하지만, 실제로 설계하고 구현하는 과정을 단계적으로 설명한 책은 많지 않습니다. 『AI 에이전트 마스터 클래스』는 LangChain과 LCEL을 기반으로 체인 구조를 이해하는 것에서 출발해 Memory, RAG, Agent, MCP까지 확장하는 흐름을 실습 중심으로 정리한 책입니다.

특히 인상 깊었던 점은 단순한 예제 구현에 머무르지 않고, 상태 관리(CheckPointer), 벡터 DB 기반 RAG 구성, MCP를 활용한 도구 연계까지 서비스 수준의 구조를 다룬다는 점입니다. AI 에이전트를 “기능”이 아니라 “시스템”으로 이해하도록 구성되어 있어, 실제 서비스 개발을 고민하는 개발자에게 큰 도움이 됩니다.

LLM을 한 번이라도 활용해 본 경험이 있다면, 다음 단계로 넘어가기 위한 실전 가이드로 적합한 책이라고 생각합니다.

- 출판사에서 전자책을 제공받아 작성한 리뷰입니다

    "한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

전체 구성

Chapter 0에서는 기본적인 부분 부터 시작합니다. 많은 기술서적들이 독자가 이미 개발 환경을 갖추고 있다고 가정하고 본론으로 바로 뛰어드는 경우가 많은데, 이 책은 OpenAI API 키 발급, 크레딧 결제 수단 추가, 파이썬 설치, Git Bash 설치, VS Code 설정까지 꼼꼼하게 다루고 있습니다. 처음 공부를 시작할 때 환경 설정 단계에서 막혀 포기하는 경우가 생각보다 많기 때문입니다.

전체 구성은 크게 두 파트로 나뉘는데, PART 1은 랭체인 기초와 LCEL, PART 2는 에이전트와 MCP를 활용한 실전 서비스 구축으로 이어집니다. 이 흐름은 매우 자연스럽습니다. 기초 문법을 익히고 → 체인을 고도화하고 → 메모리를 붙이고 → 실제 서비스로 배포하고 → 에이전트로 확장하는 흐름은, 독자가 점진적으로 레벨업하는 RPG 게임처럼 설계되어 있어 학습 하기 좋은 구조라고 생각됩니다.

 

랭스미스를 활용한 프롬프트 개선

 

목차를 보면 단순히 개념 설명에 그치지 않고 실제로 작동하는 결과물을 만드는 것에 집중하고 있다는 점이 느껴집니다. Chapter 6에서 Streamlit을 활용해 챗봇 서비스를 직접 구현하고, Chapter 8에서는 RAG 에이전트를 만들어보는 구성이 대표적입니다. 특히 Chapter 6의 세부 목차를 보면 텍스트 요소, 데이터와 차트 요소, 레이아웃과 내비게이션, 위젯, 챗 요소, 세션 상태까지 Streamlit의 거의 모든 핵심 기능을 다루고 있어 이론에만 비중을 두고 있지 않다는 생각이 듭니다.

 

챗봇 서비스 실습에서

 

Chapter 8의 RAG 구성도 인상적입니다. RAG 개념 이해부터 시작해서 파일 로드와 청킹, 메타데이터 활용, 임베딩 모델, Chroma 벡터 저장소 구축, 유사도 검색, MMR 검색, 그리고 최종적으로 RAG 에이전트 완성까지 이어지는 흐름은 RAG를 처음 배우는 사람이면 좀 더 이해하기 쉬울것 같습니다.

MCP

이 책에서 가장 눈길을 끄는 부분은 단연 Chapter 10의 MCP(Model Context Protocol) 챕터입니다. MCP는 2024년 말 Anthropic이 발표한 개념으로, AI 에이전트가 외부 도구 및 데이터 소스와 표준화된 방식으로 연결될 수 있도록 하는 프로토콜입니다. FastMCP로 서버를 만들고, 외부 MCP 서버를 에이전트에 연결하는 실습까지 포함된 것은 이 책의 큰 차별점이라 할 수 있습니다.

 

그림과 상세한 예시를 들어 이해를 도와줍니다.

 

CheckPointer

Chapter 9의 CheckPointer 챕터도 주목할 만합니다. 단순히 메모리를 다루는 것을 넘어서, 랭그래프(LangGraph)의 개념을 도입하고 InMemorySaver와 SqliteSaver를 비교하며 장기 기억을 위한 메모리 최적화까지 다루는 구성은 꽤 깊이가 있습니다. 에이전트 기반 서비스를 실제로 운영하다 보면 대화 상태 관리가 얼마나 중요한지 절감하게 되는데, 이 챕터가 그 답이 될것 같습니다.

아쉬울 수 있는 점

물론 목차만으로 판단하는 것이기 때문에 조심스럽지만, 몇 가지 아쉬운 점도 보입니다.

우선 프롬프트 엔지니어링에 대한 심화 부분을 다루고 있지는 않습니다. LLM 서비스의 품질을 결정하는 핵심 요소 중 하나가 프롬프트 설계인 만큼, 이 부분이 좀 더 비중 있게 다뤄졌다면 더 좋았을 것 같습니다. 또한 서비스 평가(Evaluation)나 모니터링, 비용 최적화 같은 실제 운영 관점의 주제를 다루고 있진 않습니다.

 

총평

"AI 서비스 개발에 막 발을 들이려는 파이썬 개발자에게, 개발 환경 세팅부터 에이전트 서비스 구축과 MCP 연동까지의 큰 그림을 한 권으로 잡아주는 든든한 입문서."

 

한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.


 

이 책의 장점은 도구를 많이 소개하는 데 있지 않다. 왜 에이전트 개발이 생각보다 어렵고, 어디서 품질이 깨지는지를 순서대로 보여준다는 점이다. 초반에는 환경 설정과 기본 체인을 다루지만, 읽다 보면 관심이 모델 성능에서 시스템 설계로 자연스럽게 옮겨간다. 특히 PoC에서 PoV로 넘어가는 구간을 강조한 대목이 인상적이었다. 데모에서는 그럴듯해 보여도 운영 데이터를 붙이면 답변 신뢰도, 지연시간, 실패 복구 같은 현실 문제가 쏟아지는데, 이 책은 그 간극을 "모델을 더 큰 걸 쓰면 된다"로 덮지 않고 체인 구성과 데이터 흐름, 상태 관리 관점에서 풀어낸다. 여기서 얻은 가장 큰 인사이트는 "좋은 응답은 단일 호출에서 나오지 않는다"는 점이었다. 입력을 정제하고, 필요한 문맥만 주입하고, 출력을 검증 가능한 형태로 바꾸고, 실패 시 다음 경로를 준비해야 서비스 품질이 안정된다.


 

기술 스택은 LangChain/LCEL에서 시작해 Streamlit, LangGraph, FastMCP까지 이어진다. 단순 체인에서 라우팅 챗봇, 도구를 쓰는 에이전트, RAG, MCP 서버, 종합 프로젝트까지 계단식으로 올라가는 구조다. 코드 중심이라 손이 바쁘지만 맥락은 선명하다. 개인적으로 가장 공감한 부분은 메모리와 RAG였다. 어떤 턴을 기억할지, 사용자별로 어떻게 분리할지, 긴 대화에서 무엇을 요약할지 같은 저장 정책 문제를 다루는데, 실제 업무에서 겪은 문제와 거의 동일했다. RAG도 붙이는 것 자체가 목표가 아니라 청킹, 메타데이터 필터, Top-k 같은 검색 전략 디테일이 품질을 가른다는 점을 분명히 짚어준다.


 

후반부 에이전트와 LangGraph, MCP는 "잘 답하는 봇"에서 "운영 가능한 시스템"으로 넘어가는 단계다. 도구를 많이 붙이는 것보다, 어떤 질문에서 어떤 도구를 왜 호출해야 하는지 경계를 분명히 하는 편이 훨씬 중요하다는 점을 현업 감각으로 풀어낸다. MCP 파트는 에이전트와 외부 시스템의 연동을 표준화하는 내용인데, 서버 계층을 분리하고 호출 계약을 명확히 하면 테스트 범위와 책임 경계가 깔끔해진다는 설명이 실무적으로 와닿았다.


 

전체적으로 입문서와 실무서의 중간 지점을 잘 잡는다. 처음 접하는 사람에게는 빠르게 손을 움직일 수 있는 실습 경로를, 이미 적용 중인 개발자에게는 어디를 고쳐야 품질이 안정되는지 점검표를 준다. 다만 파이썬 기본 문법, API 호출, JSON 정도는 알고 들어가야 흡수가 빠르다. 사내 지식검색, 운영 보조, 고객 응대 자동화처럼 대화형 기능을 서비스에 붙여야 하는 백엔드/플랫폼 개발자에게 특히 추천한다. 반대로 모델 내부 이론의 수학적 깊이를 파고들고 싶은 독자에게는 다소 아쉬울 수 있다. 이 책은 모델 이론보다 시스템 통합과 구현 의사결정에 무게를 두기 때문이다. 읽고 나면 "무엇을 만들까"보다 "어떻게 운영 가능한 형태로 만들까"를 먼저 고민하게 된다.


 

한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.

    "한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

AI 에이전트라는 단어를 자주 접했지만, 정확히 어떻게 만들어지는지 감이 잘 오지 않았습니다. 이 책은 에이전트를 단순 기능이나 트렌드로 설명하기보다, 워크플로 구성부터 서비스화, RAG 기반 지식 확장, 상태 관리, MCP를 통한 외부 연동까지 하나의 흐름으로 정리해줍니다.

 

특히 개별 기술을 나열하는 대신, “어떤 요소들이 어떤 순서로 연결되어 에이전트가 완성되는지”를 구조적으로 보여준다는 점이 인상적이었습니다. 덕분에 에이전트를 기능 단위가 아니라 시스템 관점에서 이해할 수 있었습니다.

 

다만 파이썬이나 LLM API 경험이 전혀 없다면 초반에 다소 어렵게 느껴질 수 있습니다. 기본적인 개발 경험이 있는 독자라면, AI 에이전트의 전체 설계 흐름을 정리하는 데 도움이 될 책이라고 생각합니다.

 

"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

ChatGPT가 세상에 나온 지 2년이 넘었다. 그리고 어느 순간부터 개발자 커뮤니티에서는 단순한 LLM 호출 코드 이야기보다 '에이전트'라는 단어가 훨씬 자주 들리기 시작했다. AI가 스스로 판단하고, 도구를 선택하고, 작업을 완수한다는 개념이 더 이상 SF가 아닌 실무 이야기가 된 것이다. 그런데 막상 에이전트를 만들어보려고 하면 막막하다. 랭체인 공식 문서는 영어에 버전 변경도 잦고, 유튜브 튜토리얼은 "일단 따라 하면 됩니다"에서 끝나버린다. 왜 이렇게 구성하는지, 실무에서 어떻게 확장하는지는 알 수가 없다. 그 막막함을 느끼던 차에 이 책을 만났다. 『AI 에이전트 마스터 클래스』 제목이 꽤 강하다. 과연 이 제목에 걸맞은 내용인지 직접 읽어봤다.

 

챗봇과 에이전트, 뭐가 다른가?

이 책이 제일 먼저 하는 일이 흥미롭다. 대부분의 AI 책은 "자, 코드부터 봅시다"로 시작하는데, 이 책은 챕터 1 전체를 개념 정리에 쓴다. 'AI에서 AI 에이전트로의 진화'라는 제목이 붙은 이 챕터에서 저자는 단순 LLM 서비스와 에이전트의 구조적 차이를 먼저 짚는다.

 

사실 이게 생각보다 중요한 이야기다. 나도 처음엔 에이전트가 그냥 '더 똑똑한 챗봇' 정도라고 생각했다. 그런데 아니다. 에이전트는 목표가 주어지면 스스로 계획을 세우고, 어떤 도구를 쓸지 결정하고, 실행한 결과를 보고 다음 행동을 수정한다. 이 반복 루프가 핵심이다. 단순 LLM 호출은 입력 → 출력의 단방향 구조지만, 에이전트는 관찰 → 추론 → 행동 → 다시 관찰의 순환 구조다. 이 차이를 명확히 이해하고 나니 왜 랭체인이 필요한지, 왜 ReAct 패턴이 나왔는지가 자연스럽게 연결됐다. 개념 정리를 건너뛰고 싶은 마음이 굴뚝같겠지만, 이 부분은 꼭 읽어두길 권한다. 나중에 막혔을 때 여기서 답을 찾게 될 가능성이 높다.

 

랭체인과 LCEL, 기초를 제대로 다지는 방법

파트 1은 랭체인 기초와 LCEL을 다룬다. 솔직히 말하면 처음엔 '이런 내용이 왜 이렇게 많아?' 싶었다. PromptTemplate, ChatPromptTemplate, RunnableParallel, RunnableLambda... 비슷해 보이는 개념들이 챕터마다 쏟아진다. 그런데 읽다 보니 이게 다 이유가 있다.

 

LCEL(LangChain Expression Language)은 랭체인의 핵심 문법이다. 파이프라인을 구성하는 방식인데, 처음 보면 직관적이지 않다. chain = prompt | model | parser 이런 식으로 파이프(|) 연산자로 컴포넌트를 연결한다. 처음엔 '이게 뭔 문법이야' 싶은데, 이게 익숙해지면 코드가 훨씬 명확해진다. 책은 이걸 단계적으로 설명한다. 단순한 단일 체인부터 시작해서 다중 입력 처리, KeyError 같은 흔한 실수, 그리고 RunnableParallel로 병렬 처리까지. 단순히 "이렇게 쓰면 됩니다"가 아니라 어디서 오류가 나는지, 왜 이 순서가 중요한지를 짚어주는 게 좋았다. 실무에서 겪을 법한 실수들을 미리 보여주는 셈이다.

 

챕터 5의 메모리 관리도 인상적이었다. ChatMessageHistory, MessagesPlaceholder, RunnableWithMessageHistory 같은 개념들을 순서대로 설명하면서 '사용자별 대화 관리'까지 다룬다. 멀티 유저 환경에서 각 사용자의 대화 이력을 어떻게 분리할 것인가, 이건 실제 서비스를 만들 때 꼭 마주치는 문제인데 명확하게 정리해준 책이 별로 없었다.

Streamlit으로 서비스까지, 파트 1의 마무리가 탄탄하다

챕터 6은 Streamlit을 다룬다. 랭체인 챗봇을 실제 웹 서비스로 만드는 과정이다. 텍스트 요소, 데이터와 차트, 레이아웃, 위젯, 세션 상태까지 Streamlit의 주요 기능을 하나씩 짚은 다음, 실제로 범용 챗봇 서비스를 만드는 실습으로 마무리한다.

 

솔직히 이 챕터는 Streamlit을 처음 쓰는 사람에게 특히 유용하다. 나름 써봤다고 생각했는데, 내비게이션 구성이나 세션 상태 관리는 이 책을 보고서야 제대로 이해했다. 특히 멀티 페이지 앱의 내비게이션 구조를 설명하는 부분은 실무에서 바로 쓸 수 있었다. 파트 1만 끝내도 "프롬프트 엔지니어링부터 웹 서비스 배포까지" 하나의 흐름이 완성된다는 점에서 구성이 좋다.

 

에이전트의 심장, ReAct 패턴

파트 2부터 본격적인 에이전트 이야기가 시작된다. 챕터 7이 핵심이다. 도구(Tool)를 만들고, 에이전트를 생성하고, ReAct 패턴으로 에이전트가 실제로 어떻게 추론하는지 관찰하는 과정을 담았다.

 

ReAct는 Reasoning + Acting의 합성어다. 에이전트가 단순히 답을 출력하는 게 아니라, "어떤 도구가 필요한가 → 도구를 실행한다 → 결과를 보고 다음 행동을 결정한다"는 사이클을 반복하는 방식이다. 이 과정을 책에서는 실제 로그를 보여주면서 설명한다. 에이전트가 어떤 생각을 하고, 어떤 도구를 선택했으며, 왜 다음 행동이 그렇게 나왔는지를 눈으로 확인할 수 있다. 이게 생각보다 인사이트가 많다. 에이전트가 틀린 도구를 선택하거나 루프에 빠지는 패턴을 이해하면, 프롬프트와 도구 설계를 어떻게 개선해야 하는지 감이 잡힌다.

 

Pydantic 스키마로 구조화된 입력을 처리하는 부분도 실용적이다. 도구에 여러 파라미터가 필요할 때, 단순 문자열이 아니라 타입이 명확한 구조체로 받는 방식인데, 복잡한 도구를 만들 때 필수적인 패턴이다.

 

RAG와 체크포인터, 에이전트를 '쓸 만하게' 만드는 기술들

챕터 8의 RAG는 AI 에이전트에 '지식'을 주입하는 과정이다. 벡터 임베딩의 개념부터 시작해서 Chroma 벡터 DB 구축, 유사도 검색, MMR 검색까지 단계적으로 설명한다. 특히 메타데이터 필터링으로 특정 조건의 문서만 검색하는 방법, 그리고 Top-k 설정이 왜 중요한지를 다루는 부분이 실무적으로 유용했다. 단순히 "벡터 DB에 넣고 검색하면 됩니다"가 아니라, 검색 품질을 어떻게 높일 것인가의 관점에서 접근한다.

 

챕터 9는 체크포인터다. 랭그래프 기반의 대화 이력 관리인데, 여기서 중요한 질문을 던진다. '왜 체인이 아니라 그래프인가?' 이 질문의 답을 이해하면 랭그래프가 왜 등장했는지, 기존의 RunnableWithMessageHistory와 무엇이 다른지가 명확해진다.

 

InMemorySaver로 간단히 시작해서 SqliteSaver로 대화 이력을 영구 저장하는 방식까지, 운영 가능한 서비스를 만들기 위한 실질적인 내용이다. SummarizationMiddleware로 장기 대화를 요약해서 토큰을 관리하는 패턴도 인상적이었다. 대화가 길어질수록 컨텍스트 윈도우가 넘쳐 성능이 떨어지는 문제, 실무에서 정말 자주 만나는 고민인데 명확한 해결책을 제시해줬다.

 

MCP, AI 에이전트 생태계의 표준

챕터 10이 이 책의 가장 현대적인 부분이다. MCP(Model Context Protocol)는 AI 에이전트가 외부 시스템과 통신하는 표준 프로토콜이다. 솔직히 MCP를 이렇게 실습 중심으로 다룬 한국어 책은 아직 거의 없다. FastMCP로 직접 서버를 만들고, 외부 MCP 서버를 에이전트에 연결하는 과정까지 다룬다. '왜 MCP가 필요한가'라는 질문에 대한 답도 명확하다. 에이전트마다 도구 인터페이스를 따로 구현하면 관리가 지옥이 된다. MCP는 이걸 표준화해서 어떤 에이전트든 동일한 방식으로 외부 시스템을 호출할 수 있게 한다. USB 포트가 다양한 기기를 연결할 수 있는 것처럼. 이 비유가 와닿았다.

 

실전 프로젝트: 와인 소믈리에 챗봇

챕터 11은 이 책의 하이라이트다. '똑똑한 와인 소믈리에 챗봇 만들기'라는 실전 프로젝트로, 앞에서 배운 모든 것을 하나의 서비스로 엮는다. 서비스 기획과 아키텍처 설계부터 시작해서 Streamlit UI, 랭체인 에이전트 설계, 벡터 스토어 구축, MCP 서버를 통한 도구 확장까지 전 과정을 담았다. 특히 좋았던 건 '설계 분리'를 강조한다는 점이다. 에이전트 설정, UI, 데이터 처리 로직을 각각 어떻게 모듈화할지 보여주는데, 단순한 기능 구현을 넘어서 유지보수 가능한 코드 구조를 가르쳐주는 셈이다. RAG 서버와 파일 관리 서버를 MCP로 연결해서 에이전트의 능력을 확장하는 방식은 '아, 이게 실제로 운영 가능한 AI 서비스구나' 싶게 만든다.

 

누가 읽으면 좋을까

파이썬 기본 문법은 알고 있어야 한다. 클래스, 데코레이터, 비동기 처리 정도를 이해하고 있으면 훨씬 수월하게 따라갈 수 있다. LLM API를 한 번이라도 호출해본 경험이 있으면 더 좋다.

반대로, 이미 랭체인으로 간단한 챗봇을 만들어봤지만 '이걸 어떻게 실제 서비스로 만들지'에서 막혀 있는 개발자에게 특히 추천한다. RAG, 에이전트, MCP를 따로 공부해봤지만 이것들을 하나의 시스템으로 통합하는 방법을 모르는 사람에게도 딱이다.

 

결론

AI 관련 기술 서적은 유통기한이 짧다는 말이 있다. 모델 버전이 바뀌고 라이브러리가 업데이트되면 금방 낡아버린다. 그런데 이 책은 특정 API 사용법보다는 설계 패턴과 원리를 중심에 두어 기본에 충실한 책이다. ReAct 패턴, 체크포인터, RAG 아키텍처, MCP 표준화. 이것들은 다음 버전 랭체인이 나와도, 다른 LLM 프레임워크로 갈아타도 여전히 유효한 개념들이다.

 

책을 다 읽고 나서 든 생각은 '에이전트 개발의 전체 그림이 그려졌다'는 것이었다. 코드 한줄부터 시작해서 실제 운영 가능한 서비스까지, 그 로드맵이 이 책 한 권에 담겨 있다. AI 에이전트를 처음 제대로 만들어보려는 사람, 혹은 PoC 수준을 넘어서 실제 서비스로 발전시키고 싶은 개발자에게는 굉장히 가치있는 책이다.

 

오늘도 찾아주셔서 감사합니다. :)

출처: https://patiencelee.tistory.com/1270 [PatienceLee:티스토리]

*한빛미디어 <나는리뷰어다> 활동으로 도서를 제공받아 작성한 리뷰입니다.

간단한 챗봇을 한 번쯤 만들어본 분들이라면 비슷한 지점에서 멈춰본 경험이 있을 것 같습니다.

응답은 잘 나오는데, 대화 맥락은 이어지지 않고, 여러 단계를 거치는 로직을 붙이려니 코드가 금방 복잡해지고, “이걸 서비스 구조로 어떻게 확장하지?”라는 질문 앞에서 막막해지는 순간들이요.

이 책은 그 아쉬움이 왜 생겼는지를 구조적으로 이해하고 어떻게 개선할 수 있는지를 짚어주는 책입니다.

이미 랭체인을 실무에서 능숙하게 쓰는 분들을 위한 심화서라기보다는, LLM을 활용해 간단한 챗봇 기능은 만들어봤지만 다음 단계로 가는 길이 보이지 않는 분, 랭체인을 처음 잡는데 전체 흐름을 실습으로 체득하고 싶은 분 에게 추천드리고 싶습니다.

안녕하세요. 정리하는 개발자 워니즈입니다. 최근 AI 에이전트에 대한 관심이 급격히 높아지면서, 단순히 LLM을 호출하는 것을 넘어 “스스로 판단하고 행동하는 AI”를 만드는 것이 개발자들의 핵심 과제가 되고 있는데요. 이번에는 AI 에이전트 마스터 클래스라는 책에 대해서 서평을 해보려고 합니다.

이 책은 랭체인(LangChain)과 MCP(Model Context Protocol)를 중심으로 에이전트 구축의 전 과정을 다루고 있습니다. 처음 목차를 펼쳤을 때 “이거 꽤 체계적이다”라는 인상을 받았는데, 단순한 API 호출 튜토리얼이 아니라 AI 에이전트라는 개념이 왜 등장했고, 어떤 구조로 동작하며, 어떻게 실전 서비스로 만들 수 있는지를 하나의 흐름으로 엮어놓았기 때문입니다.

그러면 본격적으로 각 단원별 내용을 정리하고 서평하도록 하겠습니다.

목차

PART 1 — 랭체인 기초와 LCEL로 시작하는 LLM 서비스 개발

  • CHAPTER 1. AI에서 AI 에이전트로의 진화
  • CHAPTER 2. LLM 서비스 개발을 위한 프레임워크, LangChain
  • CHAPTER 3. 체인을 구현하는 기초 문법, LCEL
  • CHAPTER 4. 체인의 구조를 고도화하기, Runnable
  • CHAPTER 5. GPT에게 기억력을 심어주자, Memory
  • CHAPTER 6. 랭체인 챗봇을 서비스로 구현하기, Streamlit

PART 2 — 에이전트와 MCP로 실전 서비스 구축

  • CHAPTER 7. 스스로 판단하고 행동하는 AI 요원, Agent
  • CHAPTER 8. 에이전트에게 지식 선물하기, RAG
  • CHAPTER 9. 에이전트와의 대화 상태 유지하기, CheckPointer
  • CHAPTER 10. 도구의 표준화, MCP
  • CHAPTER 11. 똑똑한 와인 소믈리에 챗봇 만들기, Project

챕터별 간단 서평

[PART 1 랭체인 기초와 LCEL로 시작하는 LLM 서비스 개발]

CHAPTER 1 – AI에서 AI 에이전트로의 진화

책의 출발점이 되는 챕터입니다. AI가 단순 질의응답을 넘어 “스스로 판단하고 행동하는” 에이전트로 어떻게 진화하고 있는지를 설명합니다. 여기서 저자가 강조하는 개념이 PoC(개념 증명)에서 PoV(가치 증명)로의 전환인데, 기술 데모에 머무르지 않고 실제 비즈니스 가치를 만들어내는 서비스를 지향하겠다는 선언이 인상적이었습니다. 이 관점이 책 전체를 관통하고 있어서 단순 코딩 교재가 아닌 서비스 개발 가이드라는 성격이 처음부터 분명하게 드러납니다.

한 줄 요약: “PoC에서 PoV로” — 기술 데모를 넘어 비즈니스 가치를 만드는 에이전트 개발의 출발점입니다.

CHAPTER 2 – LLM 서비스 개발을 위한 프레임워크, LangChain

LangChain이 무엇이고 왜 필요한지를 설명합니다. LLM을 직접 호출하는 것과 프레임워크를 통해 호출하는 것의 차이, LangChain 생태계의 구성 요소를 정리해주는데, 프레임워크의 존재 이유를 먼저 이해시키고 나서 코드로 들어가기 때문에 “왜 이걸 쓰는 건지” 의문 없이 다음 챕터로 넘어갈 수 있습니다.

한 줄 요약: LangChain의 필요성과 생태계를 “왜?”라는 관점에서 먼저 짚어줍니다.

CHAPTER 3 – 체인을 구현하는 기초 문법, LCEL

LangChain의 핵심 문법인 LCEL(LangChain Expression Language)을 본격적으로 다룹니다. 프롬프트 → 모델 → 출력 파서를 파이프(|) 연산자로 연결하는 방식이 생각보다 직관적이어서, 코드를 따라 치다 보면 자연스럽게 감이 잡혔습니다. PromptTemplate, ChatPromptTemplate, 그리고 다양한 출력 파서를 조합하는 과정이 단계적으로 잘 설명되어 있습니다.

한 줄 요약: 파이프 연산자 기반의 직관적인 LCEL 문법으로 체인 구성의 기초를 익힙니다.

CHAPTER 4 – 체인의 구조를 고도화하기, Runnable

기본 체인을 더 유연하게 만드는 법을 배웁니다. RunnableParallel로 여러 작업을 병렬 처리하고, RunnableLambda로 커스텀 로직을 끼워넣고, RunnablePassthrough로 입력을 그대로 전달하는 패턴을 다루는데, 실무에서 복잡한 파이프라인을 구성할 때 바로 쓸 수 있는 실용적인 내용이었습니다.

한 줄 요약: 병렬 처리, 커스텀 로직 삽입 등 실무 파이프라인 구성의 핵심 패턴을 익힙니다.

CHAPTER 5 – GPT에게 기억력을 심어주자, Memory

LLM은 기본적으로 상태를 기억하지 못합니다. 이 챕터에서는 ChatMessageHistory, MessagesPlaceholder, RunnableWithMessageHistory를 활용해 대화 기록을 관리하는 방법을 다룹니다. 단순히 이전 대화를 전부 넘기는 것부터, 토큰 절약을 위해 요약해서 넘기는 전략까지 실용적인 내용이 담겨 있어 실제 서비스 개발 시 참고할 부분이 많았습니다.

한 줄 요약: 대화 기록 관리부터 토큰 절약 전략까지, LLM에 “기억력”을 부여하는 방법을 다룹니다.

CHAPTER 6 – 랭체인 챗봇을 서비스로 구현하기, Streamlit

1부의 마무리 챕터로, 지금까지 만든 LangChain 체인을 Streamlit 웹 앱으로 감싸서 실제 동작하는 챗봇 서비스를 완성합니다. 터미널에서만 돌리던 코드가 브라우저에서 돌아가는 걸 보면 성취감이 꽤 있습니다. 1부만으로도 “LangChain 입문서”로서 충분한 가치가 있다고 느꼈습니다.

한 줄 요약: 코드에서 서비스로 — Streamlit을 통해 실제 동작하는 챗봇을 완성합니다.

[PART 2 에이전트와 MCP로 실전 서비스 구축]

2부가 이 책의 본론입니다.

CHAPTER 7 – 스스로 판단하고 행동하는 AI 요원, Agent

에이전트의 개념을 정의하고, 도구(Tool)를 직접 만드는 것부터 시작합니다. 가장 인상적인 부분은 ReAct(Reasoning + Acting) 패턴의 설명이었습니다. 에이전트가 단순히 도구를 호출하는 게 아니라, “왜 이 도구를 선택했는지” 추론 과정을 명시적으로 표현하고, 결과를 해석해서 최종 답변을 재구성하는 과정을 실제 코드에서 눈으로 확인할 수 있어서 에이전트의 동작 원리를 직관적으로 이해할 수 있었습니다.

한 줄 요약: ReAct 패턴을 통해 “추론 → 행동 → 관찰” 사이클의 핵심을 코드로 체험합니다.

CHAPTER 8 – 에이전트에게 지식 선물하기, RAG

RAG(Retrieval-Augmented Generation)의 전체 파이프라인을 다룹니다. 임베딩, Chroma 벡터 저장소, 메타데이터 필터링, MMR 검색까지 꼼꼼하게 짚어주는데, 특히 이 지식 검색 시스템을 에이전트의 도구로 통합해서 에이전트가 필요할 때 스스로 RAG를 호출하는 구조를 만드는 부분이 실무적으로 유용했습니다.

한 줄 요약: RAG 파이프라인을 에이전트의 도구로 통합하는 실전 구현을 경험합니다.

CHAPTER 9 – 에이전트와의 대화 상태 유지하기, CheckPointer

랭그래프(LangGraph)의 체크포인터로 대화 상태를 영속화하는 방법을 다룹니다. “왜 체인이 아니라 그래프인가?”라는 질문에서 출발하는 구성이 좋았고, InMemorySaver와 SqliteSaver의 차이, SummarizationMiddleware를 활용한 장기 대화 토큰 절약 전략까지 다루고 있어서, 실제 서비스에서 대화 이력 관리가 필수인 만큼 반가운 내용이었습니다.

한 줄 요약: 체인에서 그래프로 — 대화 상태 영속화와 장기 대화 관리 전략을 배웁니다.

CHAPTER 10 – 도구의 표준화, MCP

개인적으로 이 책에서 가장 차별화된 챕터라고 생각합니다. MCP(Model Context Protocol)는 에이전트와 외부 도구의 연결을 표준화하는 프로토콜인데, 아직 국내에서 이를 실습 수준으로 다루는 교재가 거의 없습니다. MCP가 왜 필요한지(도구마다 연결 방식이 제각각인 문제), FastMCP로 서버를 직접 만드는 방법, 외부 MCP 서버를 에이전트에 연결하는 전 과정을 실습할 수 있어서, 이 챕터만으로도 책의 값어치를 한다고 느꼈습니다.

한 줄 요약: 국내 교재에서 보기 드문 MCP 실습 — 도구 연결 표준화의 가치를 체감합니다.

CHAPTER 11 – 똑똑한 와인 소믈리에 챗봇 만들기, Project

앞서 배운 모든 기술을 종합하는 최종 프로젝트입니다. 서비스 기획에서 출발해 아키텍처 설계 → Streamlit UI 구성 → 에이전트 설계 → RAG 구축 → MCP 서버 통합까지, 실제 서비스 개발의 전체 흐름을 처음부터 끝까지 따라가볼 수 있습니다. 단편적인 코드 조각이 아니라 하나의 완결된 서비스를 만드는 경험이라, 앞 챕터들에서 배운 개념이 어떻게 맞물리는지 전체 그림이 그려지는 챕터입니다.

한 줄 요약: 기획부터 배포까지 — 모든 기술을 통합한 실전 서비스 구축 경험을 제공합니다.

서평

누가 읽으면 좋은가

  • 파이썬 기초는 있지만 LLM 서비스 구축은 처음인 개발자
  • 기존 랭체인 0.x 사용자로 1.0 마이그레이션이 필요한 개발자
  • AI 에이전트/RAG/MCP를 실무에 도입하려는 팀
  • AI 기술의 구조를 파악해야 하는 기술 리더

특히 에이전트 아키텍처가 어떤 논리로 동작하는지, ReAct 패턴이 무엇인지, MCP가 왜 필요한지를 코드와 함께 이해하고 싶은 분들에게 적합합니다.

책의 주요 장점

  1. LangChain 1.0 기반의 최신성
    • 시중 랭체인 교재 중 상당수가 0.x 버전 기준이라 코드가 동작하지 않는 경우가 많은데, 이 책은 최신 1.0 기준으로 집필되어 “코드가 안 돌아가는” 좌절 없이 학습할 수 있습니다.
  2. “왜”를 설명해주는 구조
    • 텍스트가 어떻게 벡터 데이터로 변환되는지, 에이전트가 어떤 근거로 도구를 선택하는지, 잘못된 추론은 어떻게 수정되는지를 파헤칩니다. 코드만 복붙하는 게 아니라 원리를 이해하고 싶은 개발자에게 맞는 방식입니다.
  3. 체계적인 학습 경로
    • “랭체인 기초 → LCEL → Runnable → Memory → 서비스화 → 에이전트 → RAG → 상태 관리 → MCP → 실전 프로젝트”라는 흐름이 논리적이어서, 순서대로 읽어나가면 자연스럽게 지식이 누적됩니다.
  4. MCP 챕터의 실용성과 희소성
    • 국내에서 MCP를 체계적으로 다루는 교재가 거의 없는 상황에서, FastMCP로 서버를 만들고 에이전트에 연결하는 전 과정을 실습할 수 있다는 점은 확실한 차별점입니다.

아쉬운 점 / 보완할 부분

  • 파이썬 기초 지식 전제

LangChain과 에이전트 개념에 집중하다 보니, 파이썬 프로그래밍 자체에 대한 설명은 최소화되어 있습니다. 파이썬이 완전히 처음인 독자에게는 진입 장벽이 있을 수 있습니다.

  • LangGraph의 깊이 있는 활용 부족

체크포인터 챕터에서 LangGraph를 소개하지만, 노드/엣지 기반의 복잡한 워크플로우 설계까지는 다루지 않습니다. 멀티 에이전트 오케스트레이션이나 조건부 분기 같은 고급 패턴은 별도 학습이 필요합니다.

  • 빠르게 변하는 기술 트렌드와의 시차

AI 분야의 빠른 진화로, 출간 이후 등장한 최신 모델이나 프레임워크 변경 사항은 반영되지 않을 수 있습니다. 다만 이 책에서 배운 원리와 설계 관점은 기술이 변해도 유효할 것으로 보입니다.

총평

AI 에이전트 마스터 클래스는 AI 에이전트 개발이라는 큰 주제를 “랭체인 기초 → 에이전트 → RAG → MCP → 실전 프로젝트”라는 명확한 학습 경로로 정리한 책입니다. 340페이지라는 분량 안에 LangChain 1.0의 핵심 문법부터 MCP라는 최신 프로토콜까지 담아냈다는 것 자체가 상당한 밀도입니다.

저자가 강조하는 “PoC에서 PoV로”라는 관점이 읽는 내내 느껴졌고, 최종 프로젝트인 와인 소믈리에 챗봇도 이 관점에서 기획 단계부터 설계되어 있어서 “학습용 코드”가 아닌 “서비스”를 만드는 감각을 익힐 수 있었습니다.

AI 에이전트 시대에 첫 발을 내딛고 싶다면, 그리고 단순한 코드 따라하기가 아니라 원리부터 이해하고 싶다면, 이 책이 좋은 길잡이가 되어줄 것이라고 생각합니다.

 

본 포스팅은 “한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다

0) “LLM이 다 알려주는데… 굳이 책이 필요해?”에서 다시 시작한 이유

저는 한동안 “필요하면 Copilot/Gemini CLI로 물어보면 되지” 쪽에 더 가까웠습니다. 실제로 질문-답변 속도는 압도적으로 빠르고요.

그런데 AI 에이전트 쪽은 조금 다르더라고요.

프롬프트를 잘 쓰는 것과

**‘도구를 붙이고, 상태를 유지하고, 실패를 다루고, 운영 가능한 형태로 만든다’**는 건

완전히 다른 게임이었습니다.

LLM은 제 궁금증을 즉시 풀어주지만, 지식의 순서와 큰 그림(설계 흐름)을 강제해주진 않아요.

에이전트는 특히 “어디서부터 어디까지가 핵심이고, 어떤 선택이 왜 필요한지”가 흐릿하면, 검색하다가 하루가 다 가버립니다.

그래서 이번 책은 제게 “에이전트 개발을 시작할 때 필요한 스타터팩(커리큘럼)” 같은 의미였어요.

처음부터 끝까지 따라가면, 최소한 *‘내가 뭘 모르는지’*가 선명해집니다.


1) 이 책이 제일 잘하는 것: “표준화”를 현실적인 언어로 연결해줌

요즘 “에이전트”라는 단어가 너무 남용되다 보니, 실제 구현을 모르고서는 계속 답답한 상태로 남기 쉽습니다.

이 책이 좋았던 건, 그 답답함을 **“표준화된 도구 체계”**로 정리해준다는 점이었어요.

제가 책을 읽고 나서 정리한 정의는 이렇습니다.

LangChain: LLM을 서비스로 만들 때 반복되는 것들(프롬프트, 체인, 메모리, 툴 호출, RAG)을 “프레임워크 문법”으로 정리해둔 도구 상자

MCP(Model Context Protocol): 에이전트가 외부 도구(파일, API 등)를 붙일 때, 매번 제각각 구현하지 않도록 하는 연결 규약(표준 인터페이스)

“아, 이게 결국 에이전트를 제품/서비스로 만들기 위한 표준화 레이어구나” 하고 납득되는 순간이 옵니다.


2) Part 1 (LCEL·Runnable·Memory): “내 코드가 어디서 망가지는지”가 보이기 시작함

Part 1은 한마디로 LLM 서비스의 데이터 흐름을 ‘코드 구조’로 정리하는 파트였습니다.

특히 LCEL을 Prompt | Model | OutputParser로 이어 붙이는 방식으로 배우다 보면,

제가 예전엔 대충 처리했던 부분들이 하나씩 드러납니다.

프롬프트 템플릿이 어디서 완성되는지

모델 호출 이후 결과를 어떤 형태로 구조화해야 운영이 되는지

“체인”이 단지 연결이 아니라, 예측 가능한 파이프라인이라는 것

제가 실무에서 자주 겪었던 문제는 이거였어요.

“데모는 되는데, 운영에서 깨진다.”

운영에서 깨지는 이유는 대부분 “흐름이 불명확해서”였고,

Part 1은 그 흐름을 디버깅 가능한 형태로 강제해줍니다.

특히 Memory를 다루는 챕터는,

“대화를 기억하게 한다” 수준이 아니라 대화 기록을 어떤 구조로 관리할지가 포인트였고요.


3) Part 2 (ReAct·RAG·LangGraph·MCP): 에이전트는 “추론”보다 “운영 구조”가 핵심이었다

Part 2는 제가 기대했던 핵심이었습니다.

요즘 에이전트 이야기할 때 다들 ReAct(Thought→Action→Observation)를 말하잖아요.

근데 책을 따라가며 느낀 건…

**ReAct는 시작이고, 진짜 난이도는 그 다음(상태·지식·도구·표준화)**였습니다.

RAG: “검색 붙이면 끝”이 아니라

청킹/메타데이터/Top-k/MMR 같은 선택들이 결국 품질과 비용을 좌우함

LangGraph/CheckPointer:

대화 상태를 유지하는 게 “편의 기능”이 아니라

장기 운영에서 필수 인프라라는 걸 체감함

MCP:

여기서 확실히 “에이전트 생태계” 느낌이 납니다

도구 연결이 각자 구현이면 결국 파편화가 오는데,

MCP는 그걸 규약으로 제압하는 느낌이었어요

책의 와인 소믈리에 프로젝트가 좋았던 이유도 여기에 있습니다.

“그럴듯한 데모”가 아니라, 도구-지식-UI까지 묶어서 서비스 형태로 완성해보게 하거든요.


4) 저는 OpenAI API 대신 “로컬 LLM(Ollama)”로도 충분히 소화했어요

책은 OpenAI API 기준으로 진행되지만, 저는 비용/프라이버시/실험 편의 때문에 로컬도 병행하는 편입니다.

마침 요즘 OpenClaw 같은 툴도 만지면서, “모델 성능”보다 주변 시스템 설계가 더 중요하다는 걸 체감하는 중이었고요.

그래서 Part 1의 기본 실습은 Ollama + langchain-ollama로 바꿔서 진행해도 큰 무리가 없었습니다.

작은 모델이어도

체인/메모리/RAG/툴 연결 개념은 그대로 학습되니까요.

오히려 로컬로 돌리면 “토큰 비용”에 대한 심리적 부담이 없어서

실습을 여러 번 깨먹고 다시 만드는 데 도움이 됐습니다.


5) 이 책이 잘 맞는 사람 / 안 맞는 사람 (제가 느낀 기준)

잘 맞는 사람

“에이전트를 만들고 싶다”가 아니라 **“에이전트를 서비스로 붙이고 싶다”**인 실무자

RAG/MCP/LangGraph를 단어만 아는 상태에서 전체 그림이 필요한 사람

PoC가 아니라 “운영 가능한 형태”를 염두에 두는 개발자/테크 리드

안 맞을 수 있는 사람

파이썬이 낯선 완전 입문자

“개념만 가볍게 읽고 싶다”는 사람 (이 책은 손을 움직이게 만듭니다)


총평: “버즈워드로서의 에이전트”를 끝내고, “구현 가능한 에이전트”로 넘어가게 해준 책

요즘 ‘에이전트’라는 말이 너무 흔해져서,

오히려 **“그래서 정확히 뭐가 진화한 건데?”**라는 답답함이 커진 시기라고 생각합니다.

<AI 에이전트 마스터 클래스>는 그 답답함을

LangChain으로 구조를 잡고

RAG로 지식을 붙이고

LangGraph/CheckPointer로 상태를 운영하고

MCP로 도구 연결을 표준화하는

실전 개발 흐름으로 해소해줍니다.

저처럼 “대충은 아는데 손에 안 잡히는 상태”였던 분들에게 특히 추천합니다.

읽고 나면 적어도, 에이전트를 말할 때 **“어디까지가 모델이고, 어디부터가 시스템인지”**를 구분해서 설명할 수 있게 됩니다.

 

한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.

 

AI 기술을 다룬 책은 많지만, 대부분은 기능 소개나 모델 사용법 중심에서 끝나는 경우가 많습니다. 『AI 에이전트 마스터 클래스』는 그런 책들과 달리 AI를 하나의 기능이 아니라 “설계 대상 시스템”으로 이해하게 만드는 책이라는 점에서 인상적이었습니다.

이 책의 가장 큰 장점은 구조 중심 설명입니다. 단순히 LLM을 호출하는 방법을 알려주는 것이 아니라, 사용자 요청을 어떻게 해석하고 어떤 흐름으로 판단하며 어떤 방식으로 실행 단계로 이어지는지를 설계 관점에서 풀어냅니다. 특히 에이전트 구조, 데이터 흐름 설계, 외부 시스템 연동 방식 등 실제 서비스 구현 시 반드시 고민해야 하는 요소들을 체계적으로 설명해 주기 때문에 실무 개발자 입장에서 매우 실용적으로 느껴졌습니다.

또한 랭체인 기반 구성 방식, RAG 활용 구조, MCP 확장 설계까지 단계적으로 이어지는 구성 덕분에 단편적인 지식이 아니라 전체 아키텍처 흐름을 이해할 수 있다는 점도 큰 장점입니다. 단순 예제 따라하기가 아니라 “왜 이런 구조가 필요한지”를 이해하게 만드는 설명 방식이라 학습 효과가 확실히 다릅니다.

책을 읽고 가장 크게 느낀 점은, AI 서비스를 만드는 핵심 역량은 모델 사용 능력이 아니라 구조 설계 능력이라는 사실이었습니다. 기술은 계속 바뀌지만 설계 사고는 그대로 남기 때문에, 장기적으로 도움이 되는 책이라는 생각이 들었습니다.

AI 기능을 실제 서비스 수준으로 구현해 보고 싶은 개발자, LLM을 활용해 제품을 만들고 싶은 엔지니어, 그리고 AI 시스템 아키텍처를 이해하고 싶은 분들께 특히 추천하고 싶은 책입니다.

RAG와 MCP를 기초부터 다루면서 실제 프로젝트까지 소개하면서 

독자들이 따라하기 좋게 구성된 책입니다.

"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

antigravity, 그리고 바이브 코딩

최근 '바이브 코딩(Vibe Coding)'에 푹 빠져 여러가지 사이트를 만들어봤습니다. 복잡한 타이핑이나 문법의 늪에 빠지지 않고 AI와 직관적인 흐름을 타며 아이디어를 빠르게 실체화하는 경험은 그야말로 재밌더라구요. Cursor나 Copilot 같은 도구들을 든든한 사수 삼아 개발 속도를 높이는 과정은 개발자에게 아이디어만으로 기획을 실현할 수 있는 간편함을 줍니다.

하지만 여러 사이드 프로젝트의 백엔드 아키텍처를 고민하다 보니, 자연스럽게 창작자로서의 쾌감을 넘어 엔지니어로서의 깊은 갈증이 찾아왔습니다.

 

"내가 매일 직관적으로 부려먹는(?) 이 똑똑한 AI 비서들은 도대체 내부적으로 어떻게 내 로컬 환경을 읽고, 터미널 명령어를 실행하고, 스스로 판단해서 결과물을 내는 걸까?"

 

 

단순히 AI를 '활용'하는 것을 넘어, 스스로 생각하고 행동하는 나만의 AI 시스템을 '구축'해 보고 싶어졌습니다. 이 갈증을 완벽하게 해소해 준 책이 바로 이번에 읽은 『AI 에이전트 마스터 클래스』입니다.

 

활용(Use)과 구축(Build)의 차이

바이브 코딩이 고도의 생산성을 내기 위해 AI라는 강력한 자동차를 '운전'하는 방법이라면, 이 책은 그 자동차의 '엔진'을 밑바닥부터 조립하는 방법을 가르쳐 줍니다.

단순히 묻는 말에 답하는 챗봇 API 호출 수준을 벗어나, AI에게 손발을 달아주고 주도적으로 업무를 수행하게 만드는 'AI 에이전트(AI Agent)' 아키텍처를 파이썬과 랭체인(LangChain)을 이용해 단계별로 구현합니다.

 

 

책을 통해 배운 핵심 내용들

1. 랭체인(LangChain)과 LCEL로 뇌 구조 엮기

처음 랭체인을 접했을 때 방대한 공식 문서 때문에 꽤나 고생했던 기억이 있습니다. 이 책은 랭체인의 핵심인 LCEL(LangChain Expression Language) 기초 문법부터 차근차근 짚어줍니다. AI가 논리적으로 사고하고 작동할 수 있도록 작업의 순서(Chain)를 어떻게 엮어내는지 그 원리를 명확하게 이해할 수 있었습니다.

 

2. 에이전트에게 지식과 기억력 선물하기 (RAG & Memory)

AI가 헛소리(환각 현상)를 하지 않도록 방지하는 가장 확실한 방법은 정확한 데이터를 쥐여주는 것입니다. 벡터 저장소(Chroma)를 구축해 외부 문서를 검색하고(RAG), 대화의 맥락을 끊기지 않게 유지하는 메모리 시스템을 구현하는 과정을 통해 실제 서비스에 적용할 수 있는 단단한 백엔드 구조를 배울 수 있었습니다.

 

3. 스스로 행동하게 만드는 ReAct 패턴과 도구(Tool)

가장 흥미로웠던 부분입니다. 에이전트에게 "이럴 땐 웹 검색을 해", "이럴 땐 사내 DB를 뒤져"라고 도구를 쥐여주면, AI가 상황을 분석해 스스로 도구를 선택하고 행동하는 ReAct(Reasoning and Acting) 과정을 코드로 구현합니다. 바이브 코딩을 할 때 AI가 어떻게 스스로 문제를 쪼개서 해결하는지 그 이면의 원리를 깨닫는 순간이었습니다.

 

4. 확장성의 끝판왕, MCP(Model Context Protocol)

최근 AI 업계에서 가장 뜨거운 키워드인 MCP를 비중 있게 다룹니다. AI가 슬랙, 노션, 로컬 파일 시스템 등 외부 환경과 유기적으로 소통할 수 있게 해주는 이 표준 규약을 익히면서, 앞으로의 백엔드 개발 생태계가 어떻게 변할지 큰 그림을 그려볼 수 있었습니다.

 

총평: 마법의 원리를 깨닫는 시간

'바이브 코딩'의 직관적인 방법론과, 이 책에서 다루는 'AI 에이전트 엔지니어링' 지식은 결이 다르면서도 완벽한 시너지를 냅니다. AI가 만들어내는 결과를 즐기는 데 익숙해졌다면, 이제는 직접 설계하는 기술자가 되어볼 차례입니다.

저처럼 백엔드 구조에 관심이 많고, 단순히 API를 찔러보는 수준을 넘어 '실제 운영 가능한 지능형 서비스'를 구축하고 싶은 개발자분들께 추천하고싶은 책이었습니다.

0. 다시 시작한 서평

미국 박사 과정 진학 전과 초반에 참여했던 '나는 리뷰어다' 활동을 졸업 후 직장인이 되어 다시 시작하게 되었습니다. 박사과정 마치고 연구원으로 생활하고 있는데, 이젠 책을 한빛+ ebook으로 받을 수 있어 태평양 건너에서 거리의 제약 없이 활동을 할 수 있게 되어 매우 만족..

여기서 개발 관련 책들을 보면서 느낀 점 중 하나는 원서들이 이론적인 설명은 훌륭하지만, 실무적인 개발서만큼은 한국 서적들이 훨씬 친절하고 최신 트렌드를 잘 반영한다는 것입니다. 그리고 은근히 미국 서점에서는 개발서를 찾기 힘듭니다. 그래서 보통 배우려는 기술 사이트/깃헙에 오피셜 도큐먼트 및 튜토리얼을 보면서 배우게 되는데, 아무래도 한번 그 과정을 거친 누군가(저자)가 다시 정리해주는것과 비교해서 친절도가 많이 다릅니다.. 그래서 최신 툴을 빠르게 습득해야 할 때, 저는 종종 한국 개발서들을 ebook으로 보면서 잘 활용하는 중이고요.

1. 본격 리뷰전 - LLM 시대, 기술서가 필요한가?

LLM이 다 알려주는데 왜 책을 보나요? 라는 질문을 던질 수 있습니다. 제 관점에서 LLM은 제가 가진 궁금점들을 쉽고 편하게 해소하게 해주는데에 매우 뛰어난 반면, 어떤 지식 체계를 어떤 순서로 어떤 방향으로 배워야하는지 알려주는데에는 많이 부족합니다. 이걸하는데 LLM의 도움을 받을 수 있다면, 이미 본인이 초심자는 아닌거라 생각합니다. 즉, LLM이나 AI는 곱셈 연산이라 생각합니다. 제가 가진게 0이면, 아무리 곱해도 0입니다.. 반면 책은, 저자가 첫장부터 마지막 장까지, 방향과 흐름을 고심해서 구상해서 설계한 완성된 하나의 커리큘럼으로 짜여져 있기 때문에, 제가 초심자여도 처음부터 끝까지 따라가기만 하면 감이 잡힙니다.

그래서 책은 기술의 시작점은 어디인지, 어느 방향으로 나아가야 하는지, 그리고 그 끝에 어떤 가능성이 있는지 보여주는 스타터팩이라고 생각합니다. 책을 학습하며 초기 뼈대를 잡고 나면, 이후 기술을 배우고 활용하는 과정이 훨씬 효율적입니다. 그리고 스타터팩이기 때문에, 책 한권을 처음부터 끝까지 보는게 보통 좋고, 책을 보고 땡이아니라 이후에 배운 걸 활용하고 프로젝트를 해보는게 중요합니다. 결국 본인의 시간을 투자해 프로젝트를 직접 수행하며 얻는 이해와 성장은 AI가 대신해 줄 수 없는 영역이니까요. 그리고 이것이 이후에 LLM/AI를 통한 곱셈증폭을 위한 밑천이 되어줍니다.

2. AI 에이전트 (feat. OpenClaw와 Local LLM)

현업에서 연구와 개발을 병행하며 GitHub Copilot과 Gemini CLI를 적극 활용하고 있습니다. 요즘 OpenClaw 같은 에이전트 앱들이 화제가 되는 것을 보며, 이제는 LLM 자체의 성능만큼이나 LLM을 코어로 삼아 어떻게 환경을 구축하느냐가 더 중요하다는 생각이 들었습니다.

특히, 모델 자체가 엄청 고성능의 모델이 아니더라도, 주변에 살을 어떻게 붙이냐에 따라 활용성이 매우 높을 수 있다는 것을 최근에 많이 경험중입니다. 거기에 더해 보안/프라이버시나 비용효율성을 고려하여 구독 활용하는 LLM서비스 외에, 로컬에서 가벼운 모델들을 잘 활용하는 것에 관심이 생겨 Ollama랑 OpenCode를 회사 맥북과 개인 데스크탑에서 가지고 놀던 중, 이 책을 AI 에이전트 마스터 클래스 만나게 되었습니다.

 

3. 핵심은 표준화 (LangChain과 MCP), 그리고 이를 예제와 간단명료하게 잘 설명한 책

단순히 파이썬 코드로 LLM API를 호출하는 수준을 넘어, 사람의 개입을 최소화하고 주어진 문제에 대해 스스로 단계를 결정하고, 해결 단계들을 수행하는 것이 에이전트의 핵심입니다. 하지만 개발자마다 각기 다른 방식으로 에이전트를 만든다면 파편화가 발생하겠죠. 본격적인 에이전트 개발 및 활용전에, 서로 다르게 구현된 에이전트들을 배우다가 시간을 다 쓰고 실제 개발이나 활용은 건드리지도 못하게 되는 상황이 있을 수 있죠. 여기서 표준화의 필요성이 생깁니다. 그리고 이 책은 그 에이전트 시스템에서 사실상 표준인 LangChain과 MCP에 대해 명료하게 설명합니다. 이 책을 읽으면서 이해한 것으로 간단히 설명해보자면..

 

  • LangChain(랭체인): LLM을 에이전트로 스텝업시키기 위한 도움 키트. 문맥을 이해하는 기억력, 사고의 단계 (e.g., 분석-검색-생성), 외부 도구 활용 등을 최소한의 코드로 구현하게 해주는 프레임워크입니다.
  • MCP(Model Context Protocol): 이름 그대로 프로토콜 (규약) 입니다. 외부 프로그램과 에이전트를 연결할 때 수작업을 줄이고, 일관성 있게 다양한 도구를 붙일 수 있게 해주는 표준입니다.

사실 이정도의 정보는 동료 연구자들이랑 오며가며 한 이야기로도 어렴풋이 알고 있었습니다. 하지만, 얕은 대화로는 기술의 실체를 알 수 없고, 보통 그런 상황에서는 기술에 대한 막연한 지적 두려움이 생기기 마련입니다. 최근에 현지에서 에이전트라는 말이 버즈워드로 너무 남용되면서, 이에 대해 막연한 답답함을 해소하고 싶단 목마름이 강하게 들고 있었거든요. 이 책은 그런 측면에서 매우 도움이 되었습니다. 명료한 설명에 더해 실제 코드를 작성하고 랭체인과 MCP를 사용해보면서, 기술의 실체를 정확히 파악하도록 돕습니다. 동료들과의 가벼운 대화만으로 어렴풋이 학습하면서 생겨버린, 기술의 실체 파악에 대한 답답함을 해소시켜주는 책입니다. 최근에 저처럼 LLM에서 AI 에이전트가 기술적으로 무슨 차이(진화) 인지, 그래서 에이전트가 도대체 뭔데 어떻게 동작하는건데, 궁금하시고 답답하신 분들은 읽어보시면 좋을 것 같습니다.

4. 마지막 팁

책의 예제는 OpenAI API를 기준으로 진행되지만, 만약 16GB 메모리 이상의 Mac이나 8GB 이상의 메모리를 가진GPU 환경을 갖추고 있다면 로컬에 Ollama를 설치해 실습해보는 것도 괜찮습니다 (더 낮은 메모리로도 가능할거에요.) -- OpenAI API활용까지 공부해보고 싶으신 분들은 책의 실습환경 구축을 따라하시면 됩니다. 로컬 LLM 활용시 OpenAI API 크레딧 충전 비용 부담도 없이도, 책의 핵심 내용들을 충분히 소화할 수 있고, 이것도 좋은 공부가 됩니다. 아래는 간단하게, Ollama 기반으로 로컬 환경 설정하는 방법입니다.

 

# 1. Ollama 설치: https://ollama.com/ 에 방문하셔서 Ollam 설치 및 로컬 모델을 
     목록에서 (https://ollama.com/search) 보고 다운로드 합니다. 잘 모르겠으면 Gemma사용해보세요.
     ollama pull gemma3:4b # 이거 해보고 메모리 부족시 아래의 더 작은 모델 활용
     ollama pull gemma3:1b

# 2. 파이썬 의존성 설치: 책에서는 랭체인과, 랭체인-openai 를 설치하지만, langchain-ollama로 설치
pip install langchain langchain-ollama

# 3. 예제에서 ChatOpenAI 대신 ChatOllama 사용하기
from langchain_ollama import ChatOllama
llm = ChatOllama(
    model="gemma3:4b",
    temperature=0.5,
    base_url="http://localhost:11434"  # 기본값이므로 로컬 실행 시 생략 가능
)
response = llm.invoke("OpenAI API 대신 Ollama로 로컬 모델을 돌리면 뭐가 좋아?")
print(response.content)

 

로컬 Ollama + Gemma 를 활용한 초기 예제 코드 + 간단하게 추가로 만들어본 랭체인 워크플로우 코드입니다. 로컬 LLM 모델 활용 하는 방법에 대해 감을 잡고, 책을 학습하는데 도움이 되었으면 좋겠네요.

https://gist.github.com/jheo4/252dc27dc25b63dd33122ad38e85aee3

https://gist.github.com/jheo4/dbcf659856b7e2ac9c4e5feb95f010ad

*한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.

"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

1. 도서 선택 이유

 

실무에서 LLM을 단순 분류기, 추출기로 사용하다보니 다소 답답한 감이 있었습니다. 이런 작업은 일반 NLP에서 했던 건데, 이거 하자고 LLM을 도입하는 것이 맞나..? 다만 언어모델을 도입하기에는 정확도를 보장할 수 없는 상황이었고, 정확하지 않은 정보가 제공될 바에는 보수적으로 정보를 제공하지 않는 편이 낫다고도 생각했습니다. 이 결정때문에 프로세스는 복잡해졌고, 다양하게 작성되는 자연어 입력을 처리하기에도 부담이 되었습니다. 결국 에이전트를 도입하는 것이 역시 맞겠다는 생각에 이르렀습니다. 당장 서비스 오픈이야 지금 프로세스대로 진행할 지라도, 더 유연하고 올바른 처리를 위해서는 에이전트가 필요하다는 의견에 모두 동의하였습니다.

 

본 도서에 "기획, 구현, 운영, 배포까지 현업에서 바로 적용하는 에이전트 개발 가이드"라고 소개가 적혀있어 주저하지 않고 후보 도서로 선택하였습니다. 실무 적용을 타겟팅하는 소개를 보고 나니, 이 도서에서 제공하는 정보를 잘 이해하고 내제화하면 실무에서 바로 적용할 수 있을 거라는 믿음이 생겼습니다. 실제로 이 기술이 해결하려는 과제에 완전히 fit할지는 직접 적용해봐야 좀 더 와닿겠지만, 지금보다는 낫지 않을까 하는 생각에 기대를 갖고 읽기 시작했습니다. 도서를 읽던 도중 랭체인을 이미 도입했던 다른 과제가 자연스럽게 떠올랐는데요, 그 과제를 다시 상기하며 어느 지점을 발전시켜야 하는지 생각해보며 읽어보기에도 좋았습니다.

 

2. 목차와 주요 내용

 

본 도서는 크게 1부과 2부로 나누어져 있습니다. 1부는 "랭체인을 활용한 LLM 애플리케이션 개발의 핵심 원리와 기초문법"을 다룹니다. 특히 Runnable을 활용해 조건부 분기와 같은 로직 처리를 간편하게 처리하는 과정이 인상적이었습니다. 챗봇에서는 특히 어떤 의도를 가진 입력이 들어올지 알 수 없기 때문에 사실상 모든 입력마다 라우터를 거쳐야 하는데요. 입력을 기본 라우터에 통과시키고 결과에 따라 자연스럽게 다음 프로세스로 진행시킬 수 있다는 점이 간편하면서도 확장성이 좋아 보였습니다.

 

다만 간혹 정의한 범위 외의 질문 혹은 처리하면 안되는 질문이 아니라, 정의한 클래스 내에서 헷갈려할 수도 있는 질문이 들어올 때도 있을 텐데요. 이런 경우는 어떻게 하는 편이 좋을지 좀 더 고민해봐야 될 것 같습니다. 예시의 경우 '수학', '과학', '기타' 중 하나로만 분류하라고 했는데, '수학'과 '과학' 중에 무엇으로 분류해야할지 어려워할 수도 있으니까요. 이 경우에 사용자에게 '수학'인지 '과학'인지 선택해달라고 오히려 AI가 질문해야할 필요가 있어보입니다.

 

2부는 1부에서 배운 기초를 바탕으로 AI 에이전트를 본격적으로 구축하는 방법을 다룹니다. 개인적으로 챕터 8 RAG 파트에서, ReAct 기반으로 에이전트가 검색 전략을 최적화하는 코드가 도움이 되었습니다. 특히 펫보험 사례처럼 질문의 의도에 따라 검색 범위를 '보험'으로 타겟팅하고, 결과의 품질에 따라 데이터 검색 건수를 유동적으로 조절하는 방식은 그 어떤 예제보다 실무 지향적이었습니다. 제가 기존에 개발한 서비스에 이 방법을 도입한다면 즉시 개선이 가능할 것 같다는 확신을 얻을 수 있었습니다. 현재 UI에서 사용자에게 검색 범위를 선택할 수 있도록 지원하고는 있지만, 많은 경우에 사용자들이 검색 범위를 디폴트인 "전체"를 그대로 두고 사용하고 있는 것을 관찰한 적이 있습니다. 때문에 들어오는 질문을 분석해 내부적으로 검색 범위를 좁히고 (시간이 좀 더 걸릴지라도) 단계적으로 검색을 해보는 작업도 실험해보면 큰 도움이 될 것 같습니다. 

 

3. 도서 총평

 

사실 작년 나는리뷰어다 마지막 리뷰 도서가 '러닝 랭체인'이었습니다. 해당 도서에서도 랭체인, 랭그래프를 다루었지만 설명이 친절하다는 느낌은 많이 못받았는데, 이 도서는 코드에 대한 설명들이 꽤 친절했고 좀 더 step-by-step으로 과정을 밟아가며 프로젝트를 완성한다는 느낌을 받았습니다. 개념이나 코드와 파라미터의 설명들이 자세하기도 하고 스토리라인이 명확해서 기술도서이기도 하면서 소설을 읽는 것 같기도 했습니다.

 

이 도서의 큰 장점은 실무에 즉시 투입 가능한 수준의 코드를 제공한다는 점입니다. 특히 앞서 언급한 RAG의 검색 범위 타겟팅 및 건수 조절 로직은 기존 파이프라인이 있다면 바로 이식할 수 있을 만큼 실용적이었습니다. 최신 기술인 MCP 예제 역시 직관적이어서, 제가 해결해야 할 과제를 프롬프트로 작성해 즉시 테스트해 볼 수 있었습니다. 사용자의 계좌 보유 현황(0개~다수)에 따라 모델이 유연하게 대응하며 적절한 답변을 내놓는 것을 확인했구요. 물론 사용할 모델, 대규모 계좌 정보 처리 시의 정확도나 속도 측면에서는 추가적인 최적화 단계가 필요하겠지만, 제공된 예제를 본인의 상황에 맞게 가공하는 과정만으로도 기술적 이해도를 충분히 높일 수 있을 것입니다.

 

앞서 도서가 크게 1부와 2부로 나눠져 있다고 했는데, 각 파트의 도입에 챕터별 목표를 요약해주고 있어서, 이 도서의 큰 그림이 무엇인지 한 눈에 이해하기 좋았습니다. 기본적인 개념을 알고 있는 사람이라면, 본인이 필요하다고 생각하는 부분만 선택하여 원하는 정보를 얻어갈 수 있을 것 같고요. 처음 랭체인, 랭그래프를 접하는 사람이라도 기본 원리를 우선 익힌 후에 단계별로 로드맵을 갖고 최종 프로젝트까지 나아갈 수 있을 것이라 생각합니다.

 

또한 RAG 챕터에서는 벡터 검색을 위해서 오픈소스 벡터 데이터베이스인 Chroma를 적용하고 있는데요. Chroma가 다른 오프소스들 보다 상대적으로 가볍고, 랭체인과의 통합이 잘 되다고 하니 처음 벡터DB를 다뤄야 한다면 이 도서와 함께 Chroma로 시작해보면 좋을 것 같습니다.

 

도서 자체에 아쉬운 점은 없었는데, 한빛 웹뷰어를 사용하며 개인적인 아쉬운 점이 조금 보였습니다. 워낙 IT 도서들이 두껍고 무거운 편이라, 개인적으로 전자책으로 읽는 것을 선호하는 편인데요. 다만 아직 뷰어가 업데이트 되지 않은 시점이어서, 필기나 형광펜 기능이 없는 점이 아쉬웠습니다. 다행히 3월 초에 관련 기능이 업데이트 된다고 하니 그 이후에 구매하면 더 편리하게 전자책을 사용할 수 있을 것 같습니다.

 

브라우저에서 전체화면이 아닐 때 글씨가 깨지는 점도 아쉬웠습니다. 다행히 전체화면으로 전환하면 훨씬 선명하긴 한데요. 전체화면이 되면 다른 창으로 전환이 번거롭고 하니, 전체화면이 아닐 때에도 화질이 좋으면 더 만족스럽게 웹뷰어 이용을 할 수 있지 않을까 생각했습니다.

 

이제 에이전트는 잠깐 반짝하고 지나갈 유행 기술이 아니라고 보여집니다, 에이전트의 핵심을 이해하고 코드 단계에서부터 차근차근 이해하고 싶은 분, 저처럼 "실질적인 비즈니스 가치를 창출할 수 있는 LLM 서비스"(56쪽)에 관심있는 분이라면 를 읽어보시고 적용해 보시면 좋겠습니다.

 

AI 에이전트가 굉장히 핫한 주제인데, 관련된 내용을 빠르게 살펴볼 수 있어서 좋습니다. 

리뷰쓰기

닫기
* 상품명 :
AI 에이전트 마스터 클래스
* 제목 :
* 별점평가
* 내용 :

* 리뷰 작성시 유의사항

글이나 이미지/사진 저작권 등 다른 사람의 권리를 침해하거나 명예를 훼손하는 게시물은 이용약관 및 관련법률에 의해 제재를 받을 수 있습니다.

1. 특히 뉴스/언론사 기사를 전문 또는 부분적으로 '허락없이' 갖고 와서는 안됩니다 (출처를 밝히는 경우에도 안됨).
2. 저작권자의 허락을 받지 않은 콘텐츠의 무단 사용은 저작권자의 권리를 침해하는 행위로, 이에 대한 법적 책임을 지게 될 수 있습니다.

오탈자 등록

닫기
* 도서명 :
AI 에이전트 마스터 클래스
* 구분 :
* 상품 버전
종이책 PDF ePub
* 페이지 :
* 위치정보 :
* 내용 :

도서 인증

닫기
도서명*
AI 에이전트 마스터 클래스
구입처*
구입일*
부가기호*
부가기호 안내

* 온라인 또는 오프라인 서점에서 구입한 도서를 인증하면 적립금 500P를 드립니다.

* 도서인증은 일 3권, 월 10권, 년 50권으로 제한되며 절판도서, eBook 등 일부 도서는 인증이 제한됩니다.

* 구입하지 않고, 허위로 도서 인증을 한 것으로 판단되면 웹사이트 이용이 제한될 수 있습니다.

닫기

해당 상품을 장바구니에 담았습니다.이미 장바구니에 추가된 상품입니다.
장바구니로 이동하시겠습니까?