대규모 언어 모델(LLM)은 그 자체로도 강력한 도구이지만, 이를 실제 제품과 서비스로 발전시키려면 체계적인 설계와 기술 전략이 필요하다. 이 책은 아이디어 단계의 프로토타입을 실제 애플리케이션으로 전환하는 데 필요한 도구, 기법, 설계 전략을 소개한다. 데이터 준비부터 모델 커스터마이징, RAG와 에이전트 같은 고급 활용 기법까지 다양한 사례와 함께 구체적인 활용법을 안내한다. 생성형 AI를 실제 환경에 효과적으로 적용하고 싶다면 이 책에서 실질적인 해답을 찾을 수 있을 것이다.
저자소개
저자
수하스 파이
10년 넘게 기술 업계에서 일해 온 숙련된 머신러닝 연구자입니다. 2020년부터 와이 콤비네이터(Y-Combinator)의 지원을 받는 AI 및 핀테크 스타트업인 허드슨 랩스(Hudson Labs)의 공동 창립자이자 CTO, ML 연구 책임자로 일하고 있습니다. 허드슨 랩스에서는 도메인 특화 LLM, 텍스트 랭킹, 표현 학습 분야에서 여러 혁신적인 기법을 개발했으며, 이 기법들은 허드슨 랩스 제품의 핵심 기능을 실현하는 기반이 되었습니다. 또한 오픈 소스 LLM 개발에도 활발히 참여해 왔으며, BLOOM LLM 프로젝트의 일환인 빅 사이언스(Big Science) 프로젝트에서 프라이버시 워킹 그룹의 공동 리더로 활동했습니다. 2021년부터는 토론토 머신러닝 서밋(TMLS) 콘퍼런스의 의장으로 활동 중이며 전 세계 AI 콘퍼런스에서 연사로 자주 참여합니다. NLP 분야의 최신 연구를 논의하는 정기 세미나도 직접 주최합니다.
역자
박조은
‘오늘코드’ 유튜브 채널을 운영하며, 파이썬 분야의 마이크로소프트 MVP로 활동하고 있습니다. 웹과 백엔드 개발자로 게임과 광고 회사에서 주로 근무했으며, 다양한 도메인의 기업에서 프로젝트를 진행했습니다. 또한 다수의 대학교와 교육기관, 기업에서 강의를 맡아왔습니다. 『모두의 한국어 텍스트 분석 with 파이썬』(길벗, 2023)의 공저자이며 『NLP와 LLM 실전 가이드』(한빛미디어, 2025)를 우리말로 옮겼습니다.
CHAPTER 1 LLM의 개념과 첫걸음 _1.1 LLM의 정의 _1.2 LLM의 간략한 역사 _1.3 LLM의 영향 _1.4 기업 내 LLM 활용 _1.5 프롬프팅 _1.6 API를 통한 LLM 접근 방법 _1.7 LLM의 강점과 한계 _1.8 첫 번째 챗봇 프로토타입 만들기 _1.9 프로토타입에서 제품화까지 _1.10 마치며
CHAPTER 2 사전 훈련 데이터 _2.1 LLM을 만드는 구성 요소 _2.2 사전 훈련 데이터 요구 사항 _2.3 대표적인 사전 훈련 데이터셋 _2.4 합성 사전 훈련 데이터 _2.5 훈련 데이터 전처리 _2.6 사전 훈련 데이터가 후속 작업에 미치는 영향 _2.7 사전 훈련 데이터셋의 편향과 공정성 문제 _2.8 마치며
CHAPTER 4 아키텍처와 학습 목표 _4.1 기본 개념 _4.2 의미 표현하기 _4.3 트랜스포머 아키텍처 _4.4 손실 함수 _4.5 내재적 모델 평가 _4.6 트랜스포머 백본 _4.7 학습 목표 _4.8 사전 훈련 모델 _4.9 마치며
[PART 2 LLM 활용하기]
CHAPTER 5 사용 목적에 맞게 LLM 활용하기 _5.1 LLM 생태계 탐색하기 _5.2 적합한 LLM을 선택하는 방법 _5.3 LLM 로딩 방법 _5.4 디코딩 전략 _5.5 LLM에서 추론 실행하기 _5.6 구조화된 출력 _5.7 모델 디버깅 및 해석 가능성 _5.8 마치며
CHAPTER 10 LLM과 외부 도구의 인터페이스 _10.1 LLM 상호작용 패러다임 _10.2 에이전트 정의 _10.3 에이전트 기반 워크플로 _10.4 에이전트 시스템 구성 요소 _10.5 마치며
CHAPTER 11 표현 학습과 임베딩 _11.1 임베딩 소개 _11.2 의미 검색 _11.3 유사도 측정법 _11.4 임베딩 모델 파인 튜닝 _11.5 지시 임베딩 _11.6 임베딩 크기 최적화 _11.7 청킹 _11.8 벡터 데이터베이스 _11.9 임베딩 해석하기 _11.10 마치며
CHAPTER 12 검색 증강 생성(RAG) _12.1 RAG의 필요성 _12.2 대표적인 RAG 활용 시나리오 _12.3 검색 여부 판단하기 _12.4 RAG 파이프라인 _12.5 메모리 관리를 위한 RAG _12.6 RAG로 인컨텍스트 학습 예시 선택하기 _12.7 모델 훈련에 RAG 활용하기 _12.8 RAG의 한계 _12.9 RAG 대 긴 컨텍스트 _12.10 RAG 대 파인 튜닝 _12.11 마치며
CHAPTER 13 디자인 패턴과 시스템 아키텍처 _13.1 다중 LLM 아키텍처 _13.2 프로그래밍 패러다임 _13.3 마치며
출판사리뷰
LLM, 개념을 넘어 실무 애플리케이션으로! 한 권에 담은 AI 애플리케이션 설계의 시작과 끝
LLM은 이제 단순한 기술 트렌드를 넘어, 기업과 제품 혁신을 이끄는 핵심 기술이 되었습니다. 하지만 아이디어를 실제 서비스로 확장하는 길은 여전히 복잡하고 도전적입니다. 이 책은 이러한 간극을 메우기 위해 탄생했습니다. LLM의 기초 원리부터 최신 활용 패턴까지, LLM을 둘러싼 이론과 실무 노하우를 균형 있게 담아냈습니다.
이 책은 LLM을 이해하고, 활용하고, 제품으로 구현하는 전 과정을 차근차근 밟아갈 수 있도록 안내합니다. LLM의 작동 원리를 직관적으로 이해하고, 프롬프트 설계와 파인 튜닝, RAG, 에이전트 아키텍처 등 최신 활용 기법을 익히며 실제 제품 환경에서 마주하는 문제와 한계를 해결하는 방법을 배울 수 있습니다. 특히 각 장마다 풍부한 실습과 연습 문제를 수록해 단순한 이론 학습을 넘어 직접 실험하며 체득할 수 있도록 구성했습니다. 소프트웨어 엔지니어, 머신러닝 연구자, 제품 관리자 모두가 이 책을 통해 LLM의 복잡한 퍼즐을 하나하나 맞춰 나갈 수 있을 것입니다. AI 시대에 경쟁력을 확보하려는 실무자에게 이 책은 아이디어를 실제 프로덕션으로 이어 주는 가장 실용적인 다리가 될 것입니다.
요즘 LLM 관련 도서는 많지만, 단순히 모델 사용법을 나열하는 데 그치지 않고 ‘실무’와 ‘설계’의 관점을 제대로 다룬 책은 드물었습니다. 그런 면에서 이 책은 LLM을 이용해 토이 프로젝트 수준을 넘어 실제 서비스(Product)를 구축하려는 사람들에게 꽤 유용한 가이드가 되어줍니다.
책은 크게 3부로 나뉘어 구성되어 있는데, 흐름이 매우 논리적입니다.
초반부에서는 LLM의 기본기를 다지는데, 단순히 이론적인 설명에 그치지 않습니다. 예를 들어 토큰화를 설명할 때도 단순히 단어를 쪼개는 것을 넘어, 이것이 모델의 속도, 비용, 컨텍스트 길이에 어떤 영향을 미치는지 ‘설계 변수’로서 접근하는 점이 인상적이었습니다. 트랜스포머 구조나 스케일링 법칙에 대한 설명도 실무자가 이해해야 할 수준으로 깔끔하게 정리되어 있습니다.
중반부와 후반부로 갈수록 이 책의 진가가 드러납니다. 현업에서 가장 고민하게 되는 지점들, 즉 "파인튜닝을 할 것인가, RAG(검색 증강 생성)를 쓸 것인가?" 와 같은 트레이드오프를 명확하게 분석해 줍니다. 특히 환각(Hallucination) 현상을 단순히 오류로 치부하지 않고 유형별로 분류해 대응 전략을 제시한 부분이나, 실제 서비스 품질을 좌우하는 추론 최적화(TPT, KV 캐싱 등)를 다룬 챕터는 엔지니어링 관점에서 큰 도움이 되었습니다.
물론 아쉬운 점이 없는 것은 아닙니다. ‘설계’에 초점을 맞추다 보니 당장 복사해서 쓸 수 있는 코드 레벨의 예제는 상대적으로 적은 편이고, 영어 기반 모델 중심이라 멀티 모달에 대한 내용은 깊게 다루지 않습니다. 하지만 책에 수록된 연습문제(가드레일 설정, JSON 스키마 추출 등)를 따라가다 보면 LLM 애플리케이션의 전체 구조를 잡는 데에는 부족함이 없습니다.
개인적으로, 이 책은 LLM 입문자보다는 이미 랭체인이나 API를 한두 번 써봤고, 이제 안정적인 시스템을 구축하고 싶은 중급 개발자나 아키텍트, PM에게 적합합니다. 코드 한 줄보다는 전체 시스템의 아키텍처를 어떻게 그릴지, 비용과 효율을 어떻게 최적화할지 고민하는 분들에게 일독을 권합니다.
대 LLM의 시대, AI 기술의 최전선에 있는 LLM은 RAG와 함께 다양한 분야에서 활용되고 있다. LLM의 흐름과 LLM의 활용을 모두 다루는 '실무로 통하는 LLM 애플리케이션 설계'를 통해 현업에서 사용 중인 LLM을 더 깊이 있게 알아가 보자.
3부 13챕터로 구성된 책은 1부에서 LLM의 구성 요소를 중점으로 다룬다. 데이터 전처리 등의 사전 훈련 데이터와 토큰화, 트랜스포머를 주제로 LLM의 기본을 설명한다. 이어지는 2부에서는 파인 튜닝과 추론을 중심으로 다루는데, LLM을 활용하는 방법과 파인 튜닝을 통한 특정 작업 성능 향상 방법 그리고 LLM의 주요 한계점에 대한 완화/해결 접근법을 안내한다. 마지막 3부에서는 LLM 상호 작용 패러다임을 중점으로 에이전트와 RAG를 중심으로 LLM 애플리케이션을 설명한다.
책의 마지막 챕터에서 다루는 LLM 애플리케이션 설계는, 앞선 챕터들에서 다룬 개념을 적용한 LLM 설계를 디자인 패턴과 시스템 아키텍처의 측면에서 LLM 시스템 구성, 다중 LLM 아키텍처 활용을 설명한다. (DSPy와 LMQL 등의 프레임워크 설명이 눈에 띈다.)
다양한 예시 코드로 LLM 설계와 최적화를 모두 학습 할 수 있는 책으로 LLM 어플리케이션을 실무에 적용 할 수 있는 다양한 전략을 알려주는 책을 LLM을 다루는 모든 분께 추천한다.
실무로 통하는 LLM 애플리케이션 설계는 아이디어 단계의 프로토타입을 실제 제품으로 확장하는 데 필요한 LLM 시스템 설계 전략을 종합적으로 다룹니다. 단순히 LLM 모델을 만드는 법이 아니라 LLM으로 무엇을 만들것인가?라는 질문에 집중할 수 있는데요. 실제 서비스 구축에 필요한 원리, 도구, 아키텍처를 체계적으로 배우고 싶은 분들에게 소개합니다.
LLM 기술은 챗GPT 이후 폭발적으로 발전해 사회 곳곳에 스며들고 있습니다. 앞으로 10년간 AI 활용 능력은 핵심 역량으로 자리 잡을 것으로 생각합니다. 특히 LLM은 소프트웨어 개발 방식 자체를 뒤흔들고 있는데요. 그러나 환각, 추론 부족, 편향성, 조정 난이도 등 현실적으로 한계 또한 분명 존재합니다. 실무로 통하는 LLM 애플리케이션 설계는 이런 문제들을 명확하게 짚고, 실무적으로 해결할 방법을 제시한다는 점이 흥미롭습니다.
지금 읽어야 하는 이유로 LLM이 단순한 도구 사용 단계에서 벗어나 실제 서비스와 제품 개발로 확장되고 있는 지금, 이 책은 그 변화의 흐름을 가장 실용적으로 짚어주고 있습니다. 모델의 제작 방식보다 LLM을 어떻게 활용하고 설계할 것인가에 집중하는데요. 최신 연구 흐름과 실무 노하우를 한 권에 정리해 프로덕션 환경에서도 바로 적용할 수 있는 구체적인 지침을 제공합니다.
실무로 통하는 LLM 애플리케이션 설계는 3부로 나눠 있어 단계별로 학습하기 좋습니다.
1부 LLM의 구성요소에선 훈련 데이터, 모델 아키텍처, 정렬 훈련 등 LLM이 어떻게 만들어지는지 기본 원리를 이해하는 단계입니다. 직접 모델을 학습시키지 않아도, LLM을 제대로 다루기 위해 꼭 필요한 기초를 다져줍니다.
2부 LLM 활용하기입니다. 프롬프팅, 파인튜닝, RAG, ReAct 등 실제 모델을 어떻게 써야 하는지 대한 실전 파트 단계입니다. LLM의 한계(환각, 추론 문제 등) 어떻게 보완할지에 대한 전략까지 담겨있습니다.
3부는 LLM 애플리케이션 패러다임입니다. RAG 시스템 아키텍처, 에이전트 기반 설계 등 실제 서비스 개발을 위한 전체 시스템 관점에서 LLM의 역할을 설명합니다. LLM을 하나의 기능이 아니라 서비스 생태계 속 핵심 요소로 바라보고 어떻게 배치할지 고민하게 만드는 부분입니다.
하지만, 이 책은 영어 기반 LLM에 초점을 맞추고 있으며, 멀티 모달 모델은 다루지 않습니다. 최신 모델들이 점점 텍스트, 이미지, 음성 등 다양한 입력을 동시에 처리하는 멀티모달 방향으로 발전하고 있다는 점을 고려하면, 이 책에서 배우는 LLM의 핵심 개념과 구조는 멀티 모달 시대를 준비하는데 충분히 도움받을 수 있다고 생각합니다. 또한, 복잡한 이론이나, 수학적 내용을 깊게 파고들지 않습니다. 필요한 경우 관련 자료와 링크를 제시합니다. 그리고 실무로 통하는 LLM 애플리케이션 설계를 가장 효과적으로 읽는 방법은 순서대로 읽으며 연습문제를 직접 풀어보고, 제시된 참고 링크를 함께 탐색하는 것입니다.
LLM의 전체 흐름을 이해하고 싶은 독자
→ 1, 2, 3, 4, 5, 10, 11장 중심
LLM 기반 서비스 기획을 고민하는 제품 관리자(PM)
→ 1, 2, 3, 5, 8, 10, 11, 12, 13장 추천
머신러닝 연구자
→ 7, 8, 9, 10, 11, 12장에서 깊이 있는 통찰과 연구 아이디어 확보 가능
처음부터 직접 LLM을 학습시키고 싶은 독자
→ 2, 3, 4, 5, 7장에서 핵심 원리 학습 가능
최근 등장한 다양한 LLM 개발 프레임워크 덕분에 프로토타입 제작은 쉬워졌지만, 프로덕션 급 애플리케이션으로 확장하는 과정은 여전히 어렵고 복잡합니다. 이 책은 바로 어려운 부분을 체계적으로 정리한 가이드라고 볼 수 있는데요. 80개 이상의 연습문제와 풍부한 그림을 통해 개념을 직관적으로 이해하고 직접 체화할 수 있도록 구성한 점도 실무자에게 큰 장점으로 다가올 수 있습니다.
실무로 통하는 LLM 애플리케이션 설계는 LLM의 원리, 활용, 실무 아키텍처를 한 권에 정리한 현재 시점에서 가장 실용적인 LLM 개발 지침서 중 하나입니다. 이론과 실무 개념과 구현이 균형 있게 담겨 있어 누구든 LLM 기반 서비스를 설계하고자 한다면 꼭 읽어야 할 책으로 추천합니다.
안녕하세요. 정리하는 개발자 워니즈입니다. 최근들어 AI 활용이 급속히 많아지면서 대부분의 서평 작성의 주된 관심사가 AI쪽으로 많이 치우치는데요. 이번 책은 실무로 통하는 LLM 애플리케이션 설계라는 책에 대해서 서평을 해보려고 합니다.
목차
PART 1 — LLM의 구성 요소
CHAPTER 1. LLM의 개념과 첫걸음
CHAPTER 2. 사전 훈련 데이터
CHAPTER 3. 어휘와 토큰화
CHAPTER 4. 아키텍처와 학습 목표
CHAPTER 5. 사용 목적에 맞게 LLM 활용하기
CHAPTER 6. 파인 튜닝
CHAPTER 7. 고급 파인 튜닝 기법
CHAPTER 8. 정렬 훈련과 추론
CHAPTER 9. 추론 최적화
CHAPTER 10. LLM과 외부 도구의 인터페이스
CHAPTER 11. 표현 학습과 임베딩
CHAPTER 12. 검색 증강 생성(RAG)
CHAPTER 13. 디자인 패턴과 시스템 아키텍처
그럼 각 항목별로 서평 작성을 해보도록 하겠습니다.
챕터별 간단 서평
[PART 1 LLM의 구성 요소]
CHAPTER 1 – LLM의 개념과 첫걸음
이 장은 LLM이 무엇인지, 왜 지금 중요한지, 그리고 실제로 API나 프롬프트를 통해 접근할 수 있다는 점을 알기 쉽게 설명합니다. LLM의 강점과 한계, 그리고 “단순 호출 → 프로토타입 → 제품화”로 이어지는 실무 흐름을 처음부터 보여줍니다.
특히 “첫 번째 챗봇 프로토타입 만들기” 같은 실습 예시는, LLM이라는 개념이 추상적이지 않고 손에 잡히는 도구라는 것을 느끼게 해줍니다.
한 줄 요약: LLM에 처음 입문하는 사람에게 “이게 뭐고, 어떻게 시작할 수 있나”를 알려주는 훌륭한 출발점.
CHAPTER 2 – 사전 훈련 데이터
LLM이 단순히 “모델 + 프롬프트”로만 이루어지는 게 아니라, 사전 훈련 데이터의 품질과 구성, 전처리, 편향성 등이 결과에 얼마나 큰 영향을 주는지를 짚어줍니다.
이 장을 통해 “LLM은 블랙박스가 아니라, 결국 데이터 + 구조 + 학습 방식의 산물”이라는 점을 이해하게 되며, 실무 프로젝트로 도입할 때 ‘데이터 확보와 정제’가 얼마나 중요한지도 알 수 있습니다.
한 줄 요약: 좋은 LLM은 좋은 데이터에서 시작한다 — 데이터의 품질과 편향을 간과하면 안 된다.
CHAPTER 3 – 어휘와 토큰화
어휘(vocabulary), 토크나이저, 토큰화 파이프라인 등 LLM 내부의 기초 메커니즘을 설명합니다. 평소 우리가 의식하지 못하는 부분이지만, 한글·다국어를 다루거나 커스텀 모델을 만들 때 매우 중요한 요소입니다.
특히 한국어처럼 언어 구조가 영어와 다른 경우, 이 장의 개념이 실제 성능에 큰 영향을 줄 수 있다는 점이 와닿습니다.
한 줄 요약: ‘토큰화’는 기술적 디테일이지만, LLM의 퍼포먼스와 정확성에 직접 영향을 준다.
CHAPTER 4 – 아키텍처와 학습 목표
여기서는 왜 LLM이 현재의 ‘트랜스포머(transformer)’ 구조를 사용하는지, 손실 함수(loss function), 의미 표현, 사전 훈련 모델(backbone) 등이 어떤 의미를 갖는지를 설명합니다.
수학적인 깊이보다는 실무 관점에서 “우리가 왜 이 구조를 선택해야 하는가 / 어떤 trade-off가 있는가”를 이해하게 해 주기 때문에, 개발자나 실무 책임자로서 기술적 설계 결정을 할 때 유용합니다.
한 줄 요약: LLM의 뼈대와 설계 철학을 이해해야, 안정적이고 확장 가능한 AI 애플리케이션이 가능하다.
[PART 2 LLM 활용하기]
CHAPTER 5 – 사용 목적에 맞게 LLM 활용하기
모델 선택, 로딩 방식, 디코딩 전략, 출력 구조화, 디버깅/해석 가능성 등 실무자가 당장 고려해야 할 사항들을 실용적으로 다룹니다.
“LLM은 무작정 던져 쓰는 게 아니라, 목적과 요구사항에 맞춘 세밀한 설정이 필요하다”는 점을 설계 초기부터 인식하게 합니다.
한 줄 요약: “어떤 LLM을, 어떻게, 왜 쓰느냐”를 목적 중심으로 정리해 주는 장.
CHAPTER 6 – 파인 튜닝
단순 API 호출 수준이 아니라, 특정 도메인이나 목적에 맞춘 커스텀 모델을 만들기 위한 파인 튜닝의 필요성과 실제 과정을 설명합니다.
특히 파인 튜닝이 왜 필요한지, 어떤 데이터셋이 필요한지, 그리고 초기 예제를 통해 “커스텀 LLM 만들기”에 대한 감을 잡게 해줍니다.
한 줄 요약: 기본 LLM으로 부족할 땐, 파인 튜닝으로 “우리만의 모델”을 만들 수 있다.
CHAPTER 7 – 고급 파인 튜닝 기법
전체 재훈련이 아닌, 파라미터 효율적 파인 튜닝(PEFT), 여러 모델 결합 등 비용과 자원을 줄이면서도 커스터마이즈할 수 있는 여러 기법을 소개합니다.
실무에서는 “모델 성능 vs 비용 vs 유지보수” 사이에서 균형을 잡아야 하는데, 이 장은 그 균형점을 찾는 데 많은 도움이 됩니다.
한 줄 요약: 리소스 제약이 있는 현실에서도, 실용적이고 효율적인 커스터마이징이 가능하다.
CHAPTER 8 – 정렬 훈련과 추론
단순한 언어 생성이 아니라, “어떤 응답이 좋은지/안 좋은지”를 학습시키는 정렬 훈련, 그리고 실제 추론 시 일어날 수 있는 문제들(예: 환각, 잘못된 추론, 부정확한 응답)과 그 완화 전략을 다룹니다.
특히 “LLM이 완벽하지 않다”는 사실을 숨기지 않고, 어떻게 보완·운영할지에 대한 현실적인 방법을 제시하는 점이 현실적이고 가치 있다고 느껴졌습니다.
한 줄 요약: LLM의 약점(환각, 오답)을 직시하고, 실무에서 어떻게 관리할지 알려준다.
CHAPTER 9 – 추론 최적화
단순한 생성이 아니라, 실제 운영 환경에서 inference 비용, latency, 메모리, 디코딩 속도, 저장 공간 등 현실적인 제약을 고려한 최적화 기법들을 소개합니다.
특히 대규모 시스템을 운영하거나, 여러 요청을 동시에 처리해야 할 때 “효율성 vs 품질” 사이에서 설계할 수 있는 구체적인 방법들을 얻을 수 있습니다.
한 줄 요약: “잘 동작하는 LLM”이 아니라, “효율적이고 실용적인 LLM 서비스”를 위한 필수 장.
[PART 3 LLM 애플리케이션 활용 패러다임]
CHAPTER 10 – LLM과 외부 도구의 인터페이스
LLM만으로는 부족하거나 비효율적인 작업을, 외부 툴/시스템/워크플로우와 결합하는 패러다임을 설명합니다. 에이전트 개념, 워크플로우 설계, 시스템 구성 요소 등을 다룬 부분은 단순한 챗봇을 넘는 복합적인 AI 애플리케이션을 고민하는 이들에게 유용합니다.
예: 문서 검색 + 요약 + 자동 응답, 혹은 도메인 지식 DB + LLM + 사용자 인터페이스를 함께 설계하는 경우 — 이처럼 ‘AI + 기존 시스템’의 통합 설계에 대한 감이 생깁니다.
한 줄 요약: LLM을 중심으로 하지만, 결국은 “기존 시스템 + AI”의 통합을 어떻게 설계할지 알려주는 장.
CHAPTER 11 – 표현 학습과 임베딩
임베딩, 의미 검색, 유사도 계산, 벡터 데이터베이스, 청킹(chunking) 등, LLM 기반 애플리케이션에서 자주 쓰이지만 “나중에 알면 되지” 싶었던 개념들을 정리합니다.
특히 문서 검색, 질문 응답 시스템, 지식베이스 구축 등에서 실용적으로 활용될 수 있는 기반 기술들을 다루기 때문에, 실제 서비스 설계 관점에서 매우 중요합니다.
한 줄 요약: 단순 생성 말고, “지식 검색 + LLM”을 염두에 둔다면 반드시 이해해야 할 장.
CHAPTER 12 – 검색 증강 생성 (RAG)
LLM이 단순히 내장된 지식만 쓰는 것이 아니라, 외부 문서/DB를 참조해 응답을 생성하는 RAG 기법을 설명합니다. RAG 활용 시나리오, 파이프라인, 한계, 파인 튜닝과의 비교 등 현실적인 고려사항이 풍부합니다.
이 장을 통해 “LLM = 모든 지식을 갖고 있는 만능 도구”가 아니라, “LLM + 외부 지식 소스 = 실무용”이라는 설계 철학을 이해하게 됩니다.
한 줄 요약: RAG는 현실 세계의 정보와 LLM을 연결하는 매우 실용적인 다리.
CHAPTER 13 – 디자인 패턴과 시스템 아키텍처
마지막으로, 다중 LLM 아키텍처, 프롬프트/에이전트/워크플로우 중심의 프로그래밍 패러다임, 전체 시스템 설계 패턴을 다룹니다.
이 장은 단순한 기능 구현을 넘어, 유지보수성, 확장성, 안정성을 고려한 “프로덕션급” LLM 애플리케이션 설계 관점을 제공합니다.
실무 환경, 특히 당신처럼 DevOps 파이프라인과 인프라 중심으로 일하는 팀이라면 이 장의 시야가 매우 도움이 될 것이라 생각합니다.
한 줄 요약: 단발성 실험이 아니라, 지속 가능한 LLM 시스템을 설계하려면 반드시 읽어야 할 장.
서평
누가 읽으면 좋은가
생성형 AI, 특히 대규모 언어 모델(LLM)을 실제 서비스나 제품에 적용하고자 하는 개발자 및 팀 리더
단순 실험이나 프로토타입을 넘어, 안정성과 확장성 있는 실무용 애플리케이션 개발을 고민하는 개발자
AI 기술을 조직 내 프로세스, 파이프라인에 도입하려는 기술 리더, 테크 리더
특히, 자동화·인프라 중심의 워크플로우 설계에 익숙한 개발자에게 적합합니다 — LLM을 단순한 기술 실험이 아니라 “실무용 도구”로 승격시키는 관점이 핵심이기 때문입니다.
책의 주요 장점
개념에서 실무까지 연결하는 설계 흐름
단순한 “LLM 이해” 혹은 “이론” 수준이 아니라, “LLM 기반 애플리케이션을 어떻게 설계·구축할 것인가”라는 실무 중심의 흐름을 제시합니다.
프토토타입 → MVP → 제품화까지 단계를 나눠서, 각 단계에서 고려해야 할 구조적 설계, 인프라, 안정성, 성능, 유지보수 등을 설명합니다.
생성형 AI의 현실과 한계에 대한 현실적 고려
단순히 “LLM이 만능이다”는 과장된 기대가 아니라, “어디까지 LLM이 잘 맞고, 어디에서 보완이 필요한가”를 냉정히 보는 시야가 인상적입니다.
예: 비용, 응답 지연(latency), 데이터 프라이버시, 모델 업데이트, 에러 핸들링 — 실무에서 마주할 수 있는 문제들에 대한 대응 전략이 구체적입니다.
실용적이고 응용 가능한 예시 제공
단순한 설명이 아니라 실제 구현 예시, 설계 패턴, 체크리스트, 고려해야 할 변수를 포함하고 있어, 읽고 바로 실무에 적용할 여지가 많습니다.
“기술 → 설계 → 제품”으로 넘어가는 가교 역할을 한다는 점이 이 책의 강점입니다.
아쉬운 점 / 보완할 부분
배경 지식에 대한 요구
기본적으로 AI, LLM, 머신러닝에 대한 기초 지식이 어느 정도 있어야 내용을 잘 따라갈 수 있습니다. 입문자보다는 “이미 AI/ML/DevOps에 익숙한 개발자” 대상입니다.
한국어 환경 관련 내용 부족
모델 예시나 활용 사례 상당수가 영어권 / 글로벌 서비스 중심이라, 한국어 NLP, 한국 사용자 경험, 한국의 규제나 인프라 환경에 맞춘 내용은 다소 부족합니다.
한국 환경에서 LLM을 운영하려는 독자라면, 여기에 더해 현지화 전략, 데이터 거버넌스, 한글 처리 관련 보완이 필요합니다.
빠르게 변하는 기술 트렌드와의 시차
AI/LLM 분야는 매우 빠르게 진화하기 때문에, 출간 시점 이후 등장한 최신 모델이나 기술 변화(예: 새로운 알고리즘, 프레임워크, 정책 등)는 반영되지 않을 수 있습니다.
『실무로 통하는 LLM 애플리케이션 설계』는 단순히 기술을 소개하는 책이 아니라, 생성형 AI 시대에 개발자가 어떤 관점과 철학으로 접근해야 하는지를 짚어주는 안내서였다. 읽는 내내 복잡한 개념을 억지로 끌고 가지 않고, 실무자가 궁금해할 질문에 정확히 답해주는 구성 덕분에 부담 없이 깊이 있게 이해할 수 있었다. 특히 “LLM을 어떻게 만들 것인가”보다 “LLM을 어떻게 제대로 활용할 것인가”에 초점을 맞춘 서술이 인상적이었다. 기술이 빠르게 변화하더라도 이 책에서 배운 원칙과 사고방식은 오래 유효할 것이라고 느낀다. 생성형 AI와 함께 일할 모든 개발자에게 자신 있게 추천하고 싶은 책이다.
그동안 틈틈이 데이터 분석이나 빅데이터 등을 공부하면서 심심치 않게 LLM에 대해 들어봤다. 대규모 언어 모델(LLM)이라고 하면 어렵게 들리겠지만, 사실 이제는 우리가 일상에서도 많이 사용하는 챗GPT와 같은 AI의 기본이 되는 딥러닝 모델이다.
이미 국내에서도 많은 기업들이 AI를 이용해 서비스를 출시하고 있고, 여전히 새로운 서비스를 만들기 위해 분주히 노력하고 있다. 다만 LLM을 구축하는 데는 상당히 많은 비용이 들기 때문에 사용 LLM이나 오픈 소스 LLM을 사용하는 편이다.
이 책은 LLM 애플리케이션의 개발을 앞두고 있다면 실무적으로 참고하기 좋은 책이다. 책을 읽어보기 전에는 AI 서비스를 만들려면 이미 만들어진 모델을 사용하면 되지 '왜 LLM이 무엇인가를 배워야 하지' 이런 생각이 먼저였다. 하지만 조금씩 책의 진도를 넘어가면서 왜 배워야 하고 어떻게 실무에서 해야 하는지 알려준다. 책의 비유를 빌리자면 우리가 마트에서 물건을 구입할 때 제품의 성분표를 읽는 것과 같다. 우리가 가공식품을 구입할 때 성분과 함량을 꼼꼼히 비교하는 것처럼 LLM을 구성하는 핵심 요소와 원리에 대해 알아야 이를 잘 활용할 수 있는 것이다.
현재 시점에서 우리가 접하고 활용할 수 있는 LLM의 종류에 대한 소개부터 어떤 LLM이 적합한지 선택하고, 최적의 성능으로 활용할 수 있도록 도와주는 내용들을 담고 있다. LLM은 아직 완벽하지 않다. 다양한 영역에서 추론에 한계를 보이고, 현실과 다른 내용을 생성하는 환각 문제도 있다. 이러한 한계점을 보완하기 위한 다양한 방법들을 설명한다. 전반적으로 LLM에 대해 방대하고 전문적인 지식들을 제공하고 있다.
사실 읽으면서 LLM과 관련된 많은 전문 용어들을 마주해야 하기 때문에 쉽게 이해하지 못하는 부분도 많이 있다. 그리고 당장 실무적으로 활용할 계획이 아니라서, 현재는 가볍게 훑어보고 정말 필요한 시점에서 다시 읽어봐야 할 부분도 많이 보인다. 그리고 우리가 자주 사용하는 생성형 AI의 구조와 원리가 어느 정도 이해할 수 있게 되었다.
책에서 설명하는 내용들 중 일부는 실무적으로 직접 해볼 수 있게 코드로 설명하는 부분들이 있다. 예를 들어 챗봇 프로토타입을 만들거나 파인튜닝을 하기 위해 라이브러리를 연습하도록 코드들이 삽입되어 있다. 물론 이러한 코드를 사용하기 위한 개발 환경적인 부분은 설명하지 않는다. 기본적인 전제가 LLM 애플리케이션 개발을 위한 것이므로 개발의 기초적인 부분은 생략되고 LLM 분야에 대한 전문적인 지식 위주로 소개되고 있다.
책을 읽으면서 이미 만들어진 LLM의 API를 활용해서 애플리케이션을 만드는 것도 쉬운 일이 아니라는 것을 깨달았다. 이미 주변에서 사용해 볼 수 있는 여러 AI 서비스들도 이러한 노력이 충분히 반영된 것인가 궁금하기도 하고 기회가 된다면 좋은 LLM 애플리케이션을 구축해 보고 싶다는 생각도 들었다.
최근에 LLM 관련 책을 여러 권 읽어봤지만, 이 책처럼 “실제로 만들고 운영해본 사람이 쓴 느낌”을 주는 책은 거의 없었다. 이론을 나열하는 책이 아니라, 실무에서 진짜로 부딪히는 문제들을 어떻게 풀어야 하는지를 중심으로 설명한다는 점이 가장 큰 장점이었다.
책의 초반부에서 LLM 스케일링 법칙을 다시 정리해주는 부분이 마음에 들었다. 모델의 성능은 단순히 파라미터 수로 결정되는 게 아니라 데이터량, 연산량, 모델 크기 사이의 균형이 중요하다는 내용을 강조하는데 실제로 실무에서 “모델 더 키우면 성능 좋아지나요?” 같은 얘기를 들을 때 늘 설명하기 어려웠던 지점을 명확하게 짚어준다. 손으로 적어둔 스케치처럼 프롬프트가 입력되고 모델이 출력을 만들고 다시 그 결과가 컨텍스트로 쌓이는 흐름을 시각적으로 풀어준 점도 좋았다. 이 구조는 이후 RAG나 에이전트 파트를 이해할 때 기초로 계속 쓰이기 때문에 초반에 확실하게 잡아주는 게 꽤 도움이 됐다.
데이터 챕터에서는 합성 데이터의 장단점을 정리한 내용이 실무 감각 그대로라서 공감이 많이 갔다. 요즘 synthetic data를 활용하는 사례가 많지만, 이 책처럼 합성이 정렬이나 규칙 기반 작업에는 도움이 되는 반면 실제 지식형 태스크에서는 한계가 있다는 설명을 깔끔하게 정리해주는 책은 많지 않다. 토큰화 챕터도 생각보다 유익했는데, 단순히 단어를 조각내는 기술 정도로만 알고 있던 토크나이저가 모델의 속도, 비용, 컨텍스트 길이까지 사실상 모든 구조를 결정하는 ‘초기 설계 요소’라는 점을 실용적인 시선으로 설명해준다.
트랜스포머 구조를 하나의 흐름도로 정리한 그림은 이 책 전체에서 손에 꼽을 만큼 잘 만든 구성이다. 입력에서 시작해서 임베딩과 위치 인코딩을 거쳐 멀티헤드 어텐션, 피드포워드, 정규화, 소프트맥스까지 이어지는 전체 플로우가 딱 한 페이지에 정리되어 있으니, 이걸 기준으로 모델 내부 구조가 한 번에 정리되는 느낌이었다. 이후에 등장하는 KV 캐싱이나 디코딩 최적화 같은 개념들이 훨씬 더 쉽게 연결되기도 했다.
LLM을 어떻게 선택하고 활용할지에 대한 실전 조언들도 꽤 현실적이다. 대부분 모델을 비교할 때 정확도나 파라미터 수만 보는데, 실제로 사용자 체감 품질은 TPT, 즉 초당 생성되는 토큰 속도에서 갈린다는 점을 강조하는 부분이 특히 좋았다. 내가 GPU 인스턴스에서 다양한 LLM을 튜닝할 때 결국 서비스 품질을 좌우하는 건 “얼마나 빨리 답이 오느냐”였기 때문에, 이 챕터 내용은 실무 경험과 정확히 맞아떨어졌다.
파인튜닝 부분도 중급자에게 도움이 되는 구성이었다. 요즘은 완전 파인튜닝보다 PEFT나 RAG 조합으로 해결하는 게 일반적이라는 현실적인 조언이 좋았고, 이어지는 고급 파인튜닝에서는 LoRA나 QLoRA를 단순히 소개하는 것이 아니라 어떤 레이어에 어떤 방식으로 적용하느냐가 더 중요하다는 내용을 짚어줘서 실전적인 깊이가 있었다.
환각 파트는 이 책에서 유독 돋보인다. 환각을 단일 문제로 취급하는 것이 아니라 인컨텍스트 환각, 오정보 기반 환각, 데이터 부족형 환각 등 여러 유형으로 분류해 다루는데, 이런 정리가 잘 된 자료는 실제로도 흔치 않다. LLM 환각을 해결하려고 할 때 원인이 무엇이냐에 따라 해결책이 달라진다는 점을 자연스럽게 이해하게 해준다.
그리고 개인적으로 이 책의 백미는 추론 최적화 챕터였다. 효율적인 추론을 위해 고려해야 할 것이 연산량을 줄이는 것, 디코딩 속도를 높이는 것, 저장 공간을 절약하는 것이라는 문장이 있는데, 실제로 GPU 최적화 회의에서 엔지니어들이 사용하는 표현과 거의 완전히 동일하다. KV 캐싱, 양자화, 프루닝, 메모리 접근 최적화 같은 기술을 ‘왜 써야 하는지’부터 ‘실제로 어떤 상황에서 효과가 있는지’까지 연결해서 설명해 주는 챕터라 바로 실무에 가져다 쓸 수 있을 것 같았다.
에이전트 개념을 설명하는 방식도 좋았다. 에이전트가 목표를 위해 스스로 작업 순서를 정하고, 필요하면 API나 DB, 코드까지 직접 호출하는 시스템이라는 정의는 요즘 과하게 추상화된 ‘에이전트’ 마케팅 문구들을 일거에 정리해 준다. 이미지에서 적어둔 메모처럼 “우선순위 결정 → 작업 순서 구성 → 도구 호출”이라는 흐름이 에이전트의 본질이라는 설명이 특히 와닿았다.
임베딩 챕터에서는 768차원 임베딩 값을 직접 출력해 보여주는 예제가 직관적이었다. 임베딩이라는 개념을 추상적인 벡터로만 설명하지 않고 실제 값과 함께 설명해주니, 임베딩 크기 최적화나 의미 검색, 유사도 측정 방식 같은 뒤쪽 내용도 훨씬 명료하게 바라볼 수 있었다.
RAG 관련 파트도 기대 이상이다. 대부분의 책은 RAG를 검색 + 생성 구조 정도로만 설명하지만 이 책은 RAG를 메모리 관리, 컨텍스트 선정, 모델 훈련 보조, 파인튜닝 대안, 긴 컨텍스트의 경쟁 구조 등 훨씬 넓은 관점에서 다룬다. 요즘 RAG가 사실상 LLM 시스템의 중심이 되는 걸 생각하면, 이 수준의 정리는 실무에서 바로 활용 가능한 깊이다.
마지막으로 시스템 아키텍처 챕터에서는 단일 LLM이 아니라 여러 모델과 도구, 에이전트, 파이프라인을 조합해서 완성되는 멀티 LLM 구조를 어떻게 설계해야 하는지 설명하는데, 최근 기업들이 AI 시스템을 구축할 때 실제로 고민하는 문제들과 거의 정확히 맞아떨어진다.
전체적으로 이 책은 LLM을 “사용해본 단계”에서 “제대로 설계하고 최적화하고 제품화할 수 있는 단계”로 가고 싶은 사람에게 딱 맞는 책이다. 실무에서 마주치는 문제들을 구체적인 언어로 설명해 주기 때문에, 나처럼 이미 LLM을 다뤄본 사람도 충분히 배울 게 많았다. LLM 기반 서비스를 직접 만들고 운영할 계획이 있다면 한 번쯤 읽어볼 가치가 충분하다.
이번에 소개할 책은 한빛미디어에서 출간된 「실무로 통하는 LLM 애플리케이션 설계」입니다. 최근 GPT를 비롯한 LLM 기술이 빠르게 발전하면서, 이제는 단순히 모델을 “써보는 것”을 넘어 실제 서비스에 어떻게 적용할 수 있을지가 더욱 중요한 시대가 되었습니다. 이 책은 바로 그 지점을 정확히 겨냥한 실무형 안내서로, LLM을 이해하고 실제 제품으로 구현하는 과정 전체를 매우 체계적으로 담아낸 것이 특징입니다.
LLM 이론을 처음 접하는 독자도 어렵지 않게 읽을 수 있고, 이미 RAG나 파인튜닝을 시도해 본 개발자나 기획자에게도 실무적으로 도움이 되는 내용이 균형 있게 구성되어 있습니다. 특히 단순한 개념 나열이 아니라, 현업에서 마주치게 되는 고민들을 어떤 기준으로 풀어가야 하는지 방향을 잡아주는 느낌이라 읽는 내내 “실제 프로젝트에 바로 써먹을 수 있겠다”는 생각이 들었습니다.
1. 구성과 전반적인 특징
책은 크게 세 부분으로 나뉩니다.
(1) LLM의 구성 요소, (2) LLM 활용, (3) LLM 애플리케이션 설계 패러다임.
전체적으로 ‘개념 → 활용 → 서비스화’라는 흐름을 따라가며 자연스럽게 난이도가 올라가는 구조라 한 권을 처음부터 끝까지 차례대로 읽기에도 좋고, 필요한 파트만 골라 보는 참조용으로 활용하기에도 괜찮았습니다.
1) 개념을 쉽게 잡아주는 이론 파트
LLM의 정의, 사전훈련 데이터, 토큰화, 트랜스포머 구조 같은 필수 개념을 처음 접하는 사람도 이해할 수 있도록 친절하게 설명합니다. 특히 사전훈련 데이터의 요구사항, 편향과 공정성 문제 같은 부분도 함께 짚어주기 때문에 단순히 “성능 좋은 모델”이 아니라 실제 서비스에서 고려해야 할 관점까지 자연스럽게 익힐 수 있습니다.
2) 실무를 염두에 둔 활용 파트
프롬프트 설계, 디코딩 전략, 구조화된 출력, 모델 디버깅, 해석 가능성 등 실제 개발 단계에서 바로 적용할 수 있는 내용이 많이 포함되어 있습니다. “어떤 모델을 고를 것인가”에서 시작해 “어떤 방식으로 추론을 실행하고, 결과를 어떻게 안정적으로 받게 할 것인가”까지 이어지는 흐름이 잘 정리되어 있어, LLM을 제품에 녹여 넣는 전체 과정이 머릿속에 한 번에 그려지는 느낌입니다.
2. 실전 개발자를 위한 핵심 내용
이 책의 가장 큰 장점은 실전에서 많이 고민하는 주제를 깊고 구체적으로 다룬다는 점입니다.
1) RAG와 검색 기반 시스템 설계
최근 챗봇이나 QA 시스템을 만들 때 사실상 필수 기술이 된 RAG를 별도의 장으로 상세하게 다룹니다.
검색 여부를 어떻게 판단할지, 청킹 전략은 어떻게 세울지, 임베딩 모델을 무엇으로 고를지, 벡터 데이터베이스를 어떻게 설계할지 등 실제 RAG 파이프라인을 설계할 때 필요한 요소들이 잘 정리되어 있습니다.
또한 긴 컨텍스트를 가진 LLM을 그대로 쓰는 것과 RAG를 사용하는 경우를 비교해 각각의 장단점을 설명해 주는 부분도 실무적인 판단에 큰 도움이 됩니다.
2) 파인튜닝과 PEFT, 그리고 정밀도 낮추기
파인튜닝 파트에서는 “언제 파인튜닝을 해야 하는가”라는 질문에서부터 시작해, 데이터셋 구성, 학습 절차, 평가까지 전체 흐름을 하나의 예제로 보여줍니다. 여기에 더해 파라미터 효율적 파인튜닝(PEFT), 여러 모델을 결합하는 기법 등 실제로 비용과 자원이 제한된 환경에서 많이 고민하게 되는 부분을 잘 짚어줍니다.
특히 인상적이었던 부분은 정밀도를 낮춰서 파인튜닝하는 기법을 비교적 자세히 설명하고 있다는 점입니다.
단순히 “8비트, 4비트로 줄이면 메모리를 아낄 수 있다” 수준이 아니라,
정밀도를 낮추는 과정에서 어떤 장단점이 생기는지, 어느 부분의 파라미터를 고정하고 어느 부분만 학습시키면 좋은지, 어떤 라이브러리 조합으로 구현할 수 있는지 등이 실제 코드와 함께 소개되어 있습니다.
이 덕분에 “LLM 파인튜닝은 고사양 GPU가 없으면 불가능하다”는 생각을 꽤 많이 덜 수 있었습니다. 책에서 안내하는 방식대로 정밀도를 낮추고, 필요한 부분만 효율적으로 학습하도록 구성하면 비교적 작은 자원으로도 의미 있는 파인튜닝을 시도해 볼 수 있습니다.
무엇보다도, 책에 나오는 예제 코드를 실제로 RTX 3060 6GB VRAM이 장착된 노트북 환경에서 직접 실행해 볼 수 있었다는 점이 상당히 만족스러웠습니다.
요즘 LLM 관련 서적을 보면 예제는 너무 좋은데, 막상 돌려보려고 하면 16GB, 24GB 이상 VRAM을 요구하는 경우가 많아 현실적인 난관이 생기곤 하는데요.
이 책의 예제들은 정밀도를 낮추는 기법과 효율적인 파인튜닝 방식을 잘 활용하고 있어서, 6GB VRAM 환경에서도 약간의 옵션 조정만으로 실행이 가능했습니다. “실무형”이라는 책의 방향성과도 잘 맞는 부분이라 개인적으로 가장 마음에 들었던 지점 중 하나입니다.
3) 에이전트 기반 아키텍처
요즘 많은 기업에서 주목하는 LLM 에이전트 개념도 별도의 챕터로 다룹니다.
LLM이 외부 도구와 상호작용하는 방식, 에이전트의 역할을 어떻게 정의할지, 워크플로를 어떤 식으로 설계할지 등을 단계적으로 설명해 주어 최근 Agentic AI 흐름을 이해하는 데 큰 도움이 됩니다. 단순히 “툴을 호출할 수 있다” 수준의 설명이 아니라, 시스템 전체를 어떻게 구성할지 고민할 수 있도록 도와주는 구성입니다.
4) 추론 최적화와 프로덕션 고려사항
실제 서비스로 운영할 때 반드시 고려해야 하는 추론 최적화 기법도 자세히 다룹니다.
연산량을 줄이는 방법, 디코딩을 가속화하는 방법, 저장 공간을 절약하는 방법 등을 정리해 주어, 모델 개발 단계에서 끝나는 책이 아니라 운영과 비용까지 함께 고민하도록 설계된 점이 돋보였습니다. GPU 메모리가 넉넉하지 않거나 인프라 비용이 부담되는 팀에게 특히 유용할 부분입니다.
3. 학습 친화적인 구성
책 전반에 걸쳐 개념도와 그림이 풍부하게 수록되어 있어, 현재 어느 부분을 공부하고 있는지 한눈에 파악하기 쉽습니다. 각 장마다 연습 문제가 포함되어 있어 내용을 스스로 정리해 볼 수 있고, 깃허브 예제 코드도 제공되어 직접 실험하면서 배울 수 있는 구조입니다.
이론만 읽고 끝나는 책이 아니라, “이제 직접 해보자”라는 방향으로 자연스럽게 이어지는 구성이어서, 혼자 공부하는 용도로도, 스터디나 강의 교재로 활용하기에도 적합해 보입니다.
4. 마무리
「실무로 통하는 LLM 애플리케이션 설계」는
LLM의 기초 개념부터 활용 기법, 그리고 실제 프로덕션 아키텍처까지 단계적으로 연결해 주는 책입니다.
특히 다음과 같은 점이 인상적이었습니다.
최신 LLM 기술 흐름과 활용 패턴을 폭넓게 다룬 점
RAG, 파인튜닝, 에이전트, 임베딩 검색 등 실전에서 바로 쓰이는 주제를 깊게 설명한 점
정밀도를 낮춘 파인튜닝과 같이 “자원이 한정된 실무 환경”을 고려한 내용이 담겨 있는 점
RTX 3060 6GB 노트북 환경에서도 예제 코드를 직접 실행해 볼 수 있을 정도로 현실적인 구성이라는 점
LLM을 단순히 사용해 보는 수준을 넘어, 실제 서비스 수준의 애플리케이션으로 구현해 보고 싶은 개발자, 최신 LLM 응용 기법을 정리하고 싶은 연구자, AI 기반 서비스를 기획하고 설계해야 하는 기획자 모두에게 추천할 만한 책입니다.
실무에서 LLM을 활용해 무언가를 만들어 보고 싶다면, 이 책이 좋은 출발점이자 든든한 길잡이가 되어 줄 것 같습니다. 앞으로 나올 후속 개정판도 기대하게 만드는, 완성도 높은 책이었습니다.
구현과 운영 사이, 전체 그림을 그리는 '설계'에 대한 궁금증이 있었는데 이 책 《실무로 통하는 LLM 애플리케이션 설계》를 만나게 되었습니다. 이 책은 LLM 기본 개념을 아는 개발자가 시스템을 설계하려 할 때 읽으면 좋습니다. RAG, 파인튜닝 같은 용어를 들어본 적 있고, 이제 하나의 완성된 프로덕트를 만들고 싶다면 딱 맞는 책입니다.
책은 제목처럼 철저하게 '설계'와 '전략'에 집중합니다. 실무자가 현장에서 가장 고민하는 지점들, 예를 들어 파인 튜닝(Fine-tuning)과 RAG(검색 증강 생성) 중 무엇을 선택해야 할지, 처음부터 모델을 만들 것인지 아니면 상용 API를 가져다 쓸 것인지와 같은 트레이드오프를 명쾌하게 분석해 줍니다. 이런 접근 덕분에 막연하던 시스템 구축의 방향이 좀 잡혔습니다. 특히 인상 깊었던 부분은 애플리케이션 활용 패러다임을 다룬 3부였습니다. 요즘 화두가 되는 RAG나 에이전트, 랭체인(LangChain), LlamaIndex 같은 도구들을 소개하는 데 그치지 않고, 이들을 어떻게 조합해야 실제 문제를 해결하는 아키텍처가 되는지 보여주었기 때문입니다.
이 책은 LLM 환경에 대한 종합적인 가이드를 제공하며, 복잡한 LLM 애플리케이션을 구축하는 데 필요한 직관과 도구를 갖추도록 돕습니다. 《실무로 통하는 LLM 애플리케이션 설계》, 13p
책을 읽으면서 많은 연습 문제와 함께 생각할 거리가 많았습니다. 1966년 챗봇의 시초인 'ELIZA' 논문을 통해 대화형 AI의 뿌리를 더듬어보는가 하면, 영화 '스파이더맨'의 앤드류 가필드 위키백과 페이지에서 정보를 추출해 JSON 스키마로 구조화해 보는 문제는 텍스트 생성을 넘어, 비정형 데이터를 시스템이 처리 가능한 정형 데이터로 변환하는 LLM의 기능을 확인할 수 있었습니다.
또한 프롬프트 해킹을 막기 위한 가드레일 작성, 직접 데이터셋을 만들어 파인 튜닝 후 코사인 유사도를 측정해 보는 과정, 캐나다 의회 토론 데이터셋으로 모델을 평가해보는 경험 등은 실무 감각을 키우기에 도움이 될 것 같네요. 연습 문제에 필요한 데이터셋과 논문, 연구 자료는 책의 깃허브(https://github.com/corazzon/designing-llm-apps)에) 에 꼼꼼하게 정리되어 있어 바로 참고하기 좋았습니다.
AI 시대를 살아가는 엔지니어에게 던지는 화두도 흥미로웠습니다. 사전 학습 데이터의 저작권 문제나 AI 생성 데이터가 다시 학습에 쓰일 때의 영향, 토큰화 알고리즘의 부작용으로 생겨난 'SolidMagiGoldKarp' 같은 기묘한 현상, 그리고 LLM의 암기 능력으로 인한 보안 취약성 등은 책을 읽는 동안 생각이 멈추지 않게 만들었습니다.
아쉬운 점이 없지는 않습니다. LLM의 '설계'라는 관점을 다루다 보니, 당장 복사해서 쓸 수 있는 코드 레벨의 상세한 구현 예제는 상대적으로 적습니다. 따라서 LLM을 처음 접하는 입문자보다는, 이미 기본기는 갖췄으나 하나의 완성된 프로덕트나 서비스를 고민하는 개발자나 아키텍트에게 더 적합해 보입니다. 책은 LLM 시스템을 설계하는 사람들에게 방향을 잡아주는 나침반 같았습니다. 팀에서 기술 결정을 내려야 하거나, 할루시네이션이나 편향 문제를 미리 대비하고 싶다면 추천하고 싶습니다.
실무로 통하는 LLM 애플리케이션 설계는 급변하는 생성형 AI 환경 속에서 실제 업무에 LLM을 어떻게 녹여낼 것인지 명확한 가이드를 제시하는 책입니다. 단순히 모델을 호출하거나 프롬프트를 작성하는 수준을 넘어서, LLM 기반 시스템을 어떻게 설계하고 운영하며 비즈니스 요구사항을 어떤 방식으로 기술적 구성으로 연결할 것인지를 구조적으로 설명한다는 점이 가장 큰 장점입니다. 책은 AI 기술 자체를 설명하기보다는 LLM 애플리케이션을 구축하기 위한 전체 흐름을 잡아주는 형태로 구성되어 있습니다.
LLM의 기본적인 작동 원리를 실무자 관점에서 간결하게 짚어주고, 사용자 요구사항을 어떻게 분석해 시스템 구조에 녹일지, 프롬프트 엔지니어링·RAG·에이전트 설계·워크플로우 디자인 등 실질적으로 프로젝트에 바로 적용할 수 있는 내용들을 중심으로 이어집니다. 특히 대부분의 장에서 ‘실무에서 왜 이런 설계 방식이 필요한가?’라는 관점을 놓치지 않기 때문에, 단순한 기능 설명이 아니라 설계 의도를 이해하며 읽을 수 있습니다.
이 책은 개념보다 ‘설계 과정’을 강조하며, LLM 기능을 설명하는 데 그치지 않고 ‘어떤 문제를 어떤 구성으로 해결할 것인가’를 중심으로 사례 기반 접근을 취합니다. 또한 프롬프트·RAG·에이전트 구현까지 실무 수준에서 다루며, 실제 프로젝트에서 자주 부딪히는 고민을 본문 전체에서 반복적으로 다루어 노하우를 전달합니다. 수학적 설명보다 실제 LLM 애플리케이션 엔지니어링에 필요한 요소들만 선별해 구성되어 있어 빠르게 실전에 적용할 수 있습니다.
현업에서 실수하기 쉬운 포인트를 정리하는 부분도 매우 실용적입니다. 빠르게 변하는 AI 기반 LLM 기술을 실무에 적용해야 하는 사람에게는 필독서에 가까운 책이며, 한빛미디어의 다른 AI 실무서와 함께 읽으면 훨씬 입체적인 학습이 가능합니다.