이제 LLM(대규모 언어 모델)을 이용하는 것은 비단 개발자 뿐만 아니라 각 분야의 전문가나 준전문가, 해당 분야의 입문자나 준비하는 학생들의 필수 교양이 되었습니다. 이런 시대적인 흐름에서 당연히 많은 LLM 도서들이 새롭게 소개되고 있는 지금입니다. 이번에 접하게 된 핸즈온 LLM은 많고 많은 좋은 내용의 도서중에서도 단연 돋보이는 최고의 수작이였습니다. AI 기술을 현업에서 활용하고 있지만 쏟아지는 신기술과 경쟁적으로 발표하는 모델을 따라가면서 적용해 보기 급급해 기본기를 다질 여유가 없었지만, 이 도서를 통해 기본으로 돌아가 눈으로 확인하고 손으로 실습하며 핵심 개념을 차분히 정리할 수 있었습니다. 초심자부터 현업 개발자까지 AI의 기본과 흐름을 단번에 잡을 수 있는 훌륭한 길잡이가 되는, 개발에 익숙한 개발자라면 이 책 한권으로 LLM의 원리부터 활용과 미세튜닝까지 폭넓게 배우며 기술 역량을 끌어올릴 수 있는 특별한 도서입니다.
보이는 설명, 풍부한 예제, 무료로 모든 실습가능, 단계적 학습
이 도서가 특별하게 느껴질 수 있는 이유중 하나는 직관적인 그림, 삽화와 실습 중심 접근에 있습니다. 대략 보기에도 수백여개에 달하는 맞춤형 그림과 도표, 삽화가 그것도 컬러로! 수록되어 복잡한 개념을 한눈에 이해하도록 이끌어 줍니다. 다른 책들은 추상적으로만 다루고 지나가는 내용도 이 책에서는 풍부한 다이어그램을 곁들여 설명하여, 독자들은 머릿속에 그림을 넣고 글을 읽으며 이를 마치 스케치한 드로잉을 3D로 만들고 채색을 하는 듯한 과정을 거칩니다. 개념을 소화하는 과정입니다. 예를들어 GPT 모델의 트랜스포머 구조나 어텐션 매커니즘 같이 처음보면 엇!엌? 하는 주제도 시각적으로 풀어냅니다. 복잡한 주제를 아름답고 통찰력있게 묘사하고 표현하는 기법이 단연 돋보입니다.
또 도서 이름인 [핸즈온(Hands-On)], 즉 손가락으로 익히는 실습 위주의 구성이 특징입니다. 각 장마다 파이썬으로 실행 가능한 예제와 실제 데이터 실습이 포함되어 있습니다. 배운 개념을 바로 타이핑 하면서 익숙해질 수 있습니다. 코드 예제는 공식 깃허브에 공개되어 있습니다. 저자는 책에서도 기술했듯 구글 계정만 있으면 누구나 무료로 이용할 수 있는 코랩(Colab)에서도 실행이 가능하도록 모델을 선택적으로 사용하였습니다. 그 덕에 독자들은 별도의 고가 머신 없이도 손쉽게 코드를 따라하며 LLM활용법 익힘이라는 본질에 집중할 수 있습니다.
또한 내용이 이론과 실제의 균형을 훌륭하게 잡았습니다. LLM의 기본 개념과 역사적 맥락을 충실하게 다루고 있으면서도, 이를 바로 실무 활용사례로 연결합니다. 생성형 모델 뿐만 아니라 임베딩 기반의 분류나 검색 등 비 생성형 LLM의 활용 도 폭넓게 다루어 응용 범위도 넓습니다. 처음에는 기초 개념으로 시작하여 마지막장에서는 직접 LLM을 미세 튜닝하고 구축하는 경지까지 자연스럽게 안내해 줍니다. 이와 같은 기초 > 활용 > 응용으로 자연스럽게 이어지는 체계적인 단계 구성 덕분에 자신감도 덤으로 얻을 수 있습니다. 시각화된 설명, 풍부한 예제, 단계적 학습 구조가 고루 갖추어져 있는, 현재 출간된 LLM 서적들 중에서도 가장 실용적이고 이해하기 쉬운 입문서라고 할 수 있습니다.
최신기술, 다양한 활용사례, 실습을 통한 학습
2024년 초중반까지의 최신 LLM 기법들이 빠짐없이 다루어 지고 있습니다. 업계 디펙토 표준 프레임워크로 인정받고 있는 LangChain 소개, RAG(Retrieval Augmented Generation)과 같은 핫한 주제, LoRA, 어댑터를 통한 파라미터의 효율적 미세 튜닝, 양자화 기법까지, 최신 기술 동향이 반영되어 협업 트렌드에 뒤지지 않습니다.
LLM이라고 하면 텍스트 생성만 생각하기 쉽지만, 텍스트 분류, 클러스터링, 검색엔진, 챗봇, 멀티모달 등 폭넓은 응용 시나리오도 소개합니다. 예를들어 4장에서는 오픈소스 임베딩 모델을 활용하여 라벨없는 데이터로도 분류를 수행하는 새로운 방법을 보여주고, 5장에서는 HDBSCAN 군집화와 BERTopic을 활용해 LLM으로 토픽 모델링하는 방법 등 일반적이지 않은 창의적인 활용방법도 선보입니다. 다양한 방법과 창의적인 예시는 LLM의 잠재력을 다양한 각도에서 조망하는 시범을 보여주어 독자가 자신의 상황에 맞는 활용 아이디어를 생각할 수 있는 생각의 힘을 배양해 줍니다.
각 장은 코랩 노트북 실습으로 진행할 수 있습니다. 모호한 부분은 직접 코드를 돌려보면 바로 해결됩니다. 공색 깃허브에 코드와 데이터셋이 정리되어 있습니다. 학습 환경 설정방법도 간단합니다. 예제 코드는 모두 무료로 누구나 사용가능한 소형 모델 위주로 선별되어 작성되어 GPU 자원이 부족한 우리 모두가 큰 무리 없이 따라할 수 있습니다.
주요 알고리즘이나 개념이 컬러 도식이나 그림으로 되어 있습니다. 트랜스포머의 셀프어텐션 구조, RAG 파이프라인, 어텐션의 흐름 등 낯섦이 있을 수 있는 모든 구석구석에 그림이 배치되어 있습니다. 직관적으로 이해하는데 큰 도움이 됩니다. 다른 도서에서는 몇페이지의 글로 설명되고 있는 것을 이 책은 한 장의 그림으로 명쾌하게 정리되어 학습 효율이 높고 내용이 나의 뇌속으로 그대로 들어옵니다. 그림을 보고 있으면 학습의 속도도 높여줄 뿐만 아니라 “왜 이런 구조가 필요하지?” 라는 질문의 답도 스스로 자동적으로 얻을 수 있습니다.
실습 비중이 높은 내용이지만 이론적인 배경도 소흘하지 않습니다. LLM의 역사, 언어 모델링의 원리, 토근화 기법 비교 등 기초 개념도 처음부터 잡아줍니다. 특정 프레임워크를 모르더라도 기초 구성요소들을 알고 있기 때문에 전체 그림을 이해하게 되는데 큰 도움이 됩니다. 또한 각장마다 최신 논문과 참고자료에 대한 주석이 풍부합니다. 더 깊이 공부하고 싶은 독자는 논문 원문이나 추가 자료로 학습을 시행착오 없이 쉽게 확장시킬 수 있습니다.
일부 내용은 기본지식이 필요, 실무 팁 부족은 다소 아쉬움
다소 아쉬운 점도 있습니다. 본 도서는 초중급자가 대상이 맞지만 일부는 관련 기본 지식이 부족하면 선뜻 읽혀지지 않는 난해한 부분이 있습니다. 1장의 LLM작동원리 부분과 10장 벡터 임베딩 생성, 멀티모달 LLM에서 트랜스포머 비전 모델을 설명하는 부분은 입문자들에게는 좀 어려운 부분입니다. 책 서두에 저자는 기본적인 머신러닝과 파이썬 지식을 전제로 한다고 안내했듯 완전 입문자라면 블로그 글이나 IT매체의 기고글 등을 통한 병행 선행 학습이 필요합니다.
실제 업무에 LLM을 활용하게 되면 출시 이후도 신경써 주거나 알아야 하는 부분들이 많이 있습니다. LLM 기반 애플리케이션을 실제 서비스로 인퍼런싱하고 운영하는 부분에 대한 지식은 거의 없는 편입니다. 대용량 모델의 스케일링, 배포 전략, 모니터링, 비용 최적화 같은 철저한 실무팁은 다루지 않고 있기 때문에 이런 내용도 기대하는 독자들에게는 조금 아쉬울 수 있습니다. 초중급자를 대상으로 내용을 구성하다보니 연구와 프로토타이핑 중심으로 이루어져 있어 완성된 제품화 단계를 포함한 이후 부분의 내용은 별도의 학습이 필요합니다.
또한 멀티모델 LLM을 소개하고 있지만 이지미 생성(diffusion) 모델에 대한 소개는 거의 없습니다. 9장에서 이미지 임베딩, VQA 사례를 다루고는 있지만 해당분야에서 가장 핫한 Stable Diffusion, Midjourney의 생성형 비전 모델 원리는 다루지 않습니다. 개인적으로 멀티모달 챕터라면 반드시 들어가야 하는, 빠지면 안되는 내용이라고 생각합니다.
또한 아무리 책이 최신이라고 해도 LLM의 변화속도가 워낙 빠르기 때문에 저술 이후의 새로운 모델이나 기법은 반영되지 못했습니다. LLM 분야를 리딩하는 OpenAI 최신 모델의 세무 내용도 간단하게 다루고 있습니다. 이 부분은 부족하게 느껴지기는 하지만 빠른 업계로 인한 문제로 본 도서의 의도와 핵심 개념을 다지는 부분은 전혀 영향이 없습니다.
이런 몇가지 아쉬운 점도 있지만 이 책의 가치에 비하면 무시할 만큼 영향력이 없다고 할 수 있습니다. 핵심 개념 이해와 실점 감각을 쉽게 습득할 수 있는, 관련 분야 종합서 중에서는 최고의 내용이기 때문입니다. 어려운 부분이 있지만, 그만큼 얻을 수 있는 지식의 폭이 넓다는 이면도 있으므로, 읽다가 다소 버거움을 느끼더라도 페이지 몇장만 넘어가면 해당 코드의 실습과 함께 직관을 얻게되는 경우가 다수입니다. 혹시 1장이 어려운 분은 일단 정독에서 속독으로 전환하고 2, 3장에서 자세히 배우면 그 부분에서 충분히 1장의 배경지식을 매워줍니다. 서로 보완적인 장들로 구성되어 있어 강약을 조절해서 읽어나가면 전체 흐름을 무난하게 따라갈 수 있습니다.
또한 개발 이후의 내용이 없는 것이 어쩌면 더 좋은 선택일 수 있습니다. LLM의 동작원리와 활용기법을 알고 싶은 초중급자의 니즈에 집중함으로써 이들이 더 어려워할 수 있는 이론 부분과 배경지식을 쉽게 전달하는데 주력합니다. 운영 팁까지 다루었다면 분량이 크게 늘어나게되고 니즈에 집중하지 못하고 도서의 핵심이 흐려졌을 수도 있습니다. LLM 그 자체를 이해하고 다루는데 집중한 내용입니다.
책의 내용을 따라가다보면 자연어 처리와 LLM 분야의 핵심 개념을 체득하면서 “그래서 이렇게 동작하는구나”를 자주 깨닫게 되고, 예를 들어 6장에서 간단한 프롬프트 템플릿으로도 모델이 다양한 아이디어를 탐색하도록 유도하는 부분 등은 무척 색다르게 느껴집니다. 이러한 돈오와 색다름이 본도서 가치의 증거가 되겠습니다. 방대한 LLM 지식을 모두 다룬다는 야심찬 기획의 부산물이 아닌 충실함을 담은 핵심내용의 쉬운 전달로 탄탄한 기본기와 실전 감각을 배양해 줄 수 있습니다.
(1장 LLM 소개) LLM의 개념과 역사와 함께 언어모델의 정의 GPT의 등장, 그리고 텍스트 뿐만 아니라 임베딩을 통한 분류 등 다양한 용도로 활용될 수 있는 등 전체를 개괄합니다. 그러면서 자연스럽게 LLM을 단순 텍스트 자동 완성기가 아니라 다양한 언어 이해 도구의 플랫폼으로 바라보는 관점 전환이 필요하다는 점을 강조합니다. 곁들여 책임있는 AI 이슈와 저사양의 환경 LLM 팁도 언급합니다.
(2장 토큰, 임베딩) LLM의 두가지 핵심 요소인 토큰화와 임베딩을 다룹니다. BPE, WordPiece 같은 토크나이저들을 비교하고 단어 임베딩에서 문장과 문서 임베딩까지 벡터 표현으로 의미를 파악하는 원리를 설명합니다. 다국어 모델이나 코드에 특화된 모델과 같이 성격이 다른 LLM 모델이 얼마나 다르게 토큰화하는지 사례를 보여주며 토큰화의 영향력을 느끼게 해 줍니다. 음악 추천 시스템에 임베딩 활용하기를 통해 텍스트 뿐만 아니라 다른 도메인에서도 통용될 수 있다는 점을 소개합니다.
(3장 트랜스포머) 현대 LLM의 토대인 트랜스포머 아키텍처를 상세히 해부하며 안내합니다. 유명한 저자 블로그(The Illustrated Tranformer)의 맨 상위글처럼 최신(2024년) 트랜스포머 구조까지 다룹니다. 셀프어텐션 매커니즘, 인코더-디코더 구조, 최신 개선 사항 등을 그림과 함께 설명합니다. 어텐션의 작동 원리를 이해하고 넘어간다면 이 장을 통해 이후의 모든 LLM 모델의 기반 개념을 확실하게 잡을 수 있습니다.
(4장 텍스트분류) 사전 훈련된 모델을 활용해 영화 리뷰 감성 분석분류 등 분류 작업을 실습합니다. 지도학습 부분도 흥미롭지만 임베딩을 활용한 라벨 없이 분류하는 부분은 특히 더 흥미롭게 볼 수 있습니다. 오픈소스 임베딩 모델과 간단한 알고리즘만으로도 제로샷에 가까운 분류작업이 가능한 것을 보여줍니다. 생성형 모델의 프롬프트를 이용해 분류하는 법과 한계도 서로 비교하며, 추후 어떤 상황에서 어떤 방법이 좋은지 결정하는 기준을 만드는데 도움을 줍니다.
(5장 텍스트 클러스터링, 토픽 모델링) 임베딩 모델을 활용하여 텍스트 클러스터링과 토픽 추출을 다룹니다. 논문 초록 데이터를 이용해서 문서들을 임베딩 한 다음 HDBSCAN으로 클러스터링하고 BERTopic을 적용해 각 군집의 토픽을 자동 추출하는 실습을 진행합니다. 이를 통해 LLM을 이용한 생성이 아닌 데이터의 탐색과 구조화에 활용할 수 있는 방법을 배옵니다. 라벨링이 어려운 대량의 문서에서 주제를 빠르게 파악할 수 있는 임베딩 > 군집화 > 토픽추출로 이어지는 워크플로는 실무에서도 유용한 패턴입니다.
(6장 프롬프트 엔지니어링) 본격적으로 텍스트 생성 모델을 다루면서 프롬프트 작성 기법에 초점을 맞춥니다. 챗GPT를 사용할 때 원하는 최고의 답을 얻기 위한 질문 설계방법을 위한 역할 설정, 체계적인 질의 등 최적 프롬프트를 찾는 여러 테크닉을 소개합니다. 특히 Tree of Thought 기법으로 하나의 질문에 대해 모델로 하여금 여러가지 생각의 분기를 칠 수 있도록 유도하는 프롬프트 전략은 간단하지만 모델의 결과 품질을 높이는 새롭게 느껴지는 방법이였습니다. 프롬프트 엔지니어링에 관심있다면 큰 도움을 얻을 수 있는 내용입니다.
(7장 고급 텍스트 생성) 더 발전된 생성기술과 LLM 개발 툴킷을 다룹니다. 유명한 LangChain 라이브러리를 사용하여 LLM 기반 에플리케이션을 구성하는 방법이 핵심입니다. 양자화해 경량화된 모델을 로드하고 체인을 통해 여러 LLM 기능을 조합하며 메모리 객체로 대화 문맥을 유지하는 기법 등을 실습합니다. 또한 에이전트 개념을 소개하고 LLM이 도구를 사용하거나 복잡한 작업을 스스로 결정하게 하는 시스템 구축하는 현재 가장 많이 고려되는 최신 기법을 다룹니다. LangChain의 기본 기능을 익히고 에이전트의 가능성을 엿보면서 최신 가장 핫한 MCP를 외부 리소스로 참고하면 실무에 바로 활용 가능한 기본 스킬과 샘솟는 아이디어를 얻게 됩니다. 내용을 따라 가면서 작은 LLM 앱이라도 만들어 보는 것을 추천합니다.
(8장 시탬틱 검색, RAG) 의미 기반으로 검색하는 시맨틱 검색 기술과 이를 활용한 RAG를 소개합니다. 구글이나 빙(Bing)이 검색 결과 후순위를 LLM으로 재랭킹하는 사례를 통해 검색엔진에서 LLM을 활용하는 검색 최적화 개념을 배웁니다. 이어 자연어 질문에 대해 지식을 검색하고 그 결과를 텍스트로 생성하는 RAG 파이프라인을 단계별로 구축합니다. 각 기업들은 RAG, 에이전트, MCP 등의 폭발적인 도입을 진행하고 있습니다. 그중 RAG는 [내 데이터로 챗봇 만들기] 프로젝트에 기본적으로 활용되는 기법입니다. RAG 작동 원리나 임베딩쿼리, 지식임베딩저장, 생성모델조합 등 고려할 사항들을 명확하게 배울 수 있습니다. 고급 RAG 테크닉과 평가 방법까지 다루고 있으므로, 관련 프로젝트의 기본지식을 배양할 수 있습니다.
(9장 멀티모달 LLM) 이미지 등 다른 형태의 모달리티를 통합한 LLM을 다룹니다. 비전 트랜스포머(Vision Transformer) 구조를 소개하고 이미지와 텍스트를 동일한 벡터 공간에 임베딩하는 CLIP 등의 모델을 설명합니다.이미지와 관련된 비전+언어 통합 활용사례를 실습하면서 이미지와 텍스트를 함께 이해하는 강력한 응용을 구현할 수 있음을 보여줍니다. 이미지 생성 모델 자체는 다루지 않지만 이미지+텍스트 처리를 융합하는 개념적 토대를 배우게 됩니다.
(10장 텍스트 임베딩 모델) 대조학습(Contrastive Learning)을 알아보고 SBERT를 활용해 도메인 특화 문장 모델을 만들어보는, 나만의 임베딩 모델을 학습시키는 고급주제를 다루고 있습니다. 데이터가 많지 않고 특히 라벨된 데이터가 부족한 상황에서 모델 개선에 적용 가능한 비지도 학습 기법 TSDAE도 다룹니다. 도서 내부적으로 파인튜닝 입문에 해당하는 11, 12자의 준비 장으로 꼼꼼한 정독이 필요합니다.
(11장 분류용 표현모델 미세 튜닝) BERT와 같은 사전훈련 언어모델을 실제 분류작업에 파인튜닝 하는 방법을 다루고 있습니다. 감성 분류 태스크에 BERT를 미세 튜닝하면서 전층을 다 훈련하는 경우와 일부 레이어만 동결하고 훈련하는 경우를 비교 분석합니다. 개체명 인식(NER) 태스크도 소개되어 단위별 예측을 위해 사전훈련 모델을 활용하는 법을 보여줍니다. GPU 메모리나 데이터 부족 여부에 따라 전체를 미세튜닝할지, 일부층만 미세튜닝할 지 절충안을 비교해 주어 실무에서 현실적인 선택을 하는데 필요한 기본 지식을 배양할 수 있습니다. 또한 NER 사례를 통해 문장 분류 외에 토큰 단위 태스크에도 LLM을 응용하는 확장 사례를 보여줍니다.
(12장 생성모델 미세튜닝) GPT와 같은 텍스트 생성 모델을 파인튜닝 방법론을 배울 수 있습니다. LLM을 고품질로 만드는 사전훈련 > 지도학습 기반 미세튜닝 > 선호도 튜닝의 3단계를 개념적으로 설명하면서 프롬프트에 잘 응답하는 모델을 만들기 위한 지도학습 미세튜닝(SFT) 기법과 AI안정성과 사용자 선호를 반영하는 선호도 튜닝(Preference Tuning) 기법을 실습합니다. 최근 주목받고 있는 RLHF(Reinforcement Learning from Human Feedback), DPO(Direct Preference Optimization), 파라미터 휴율적 튜닝(PEFT)도 간략히 다루고 있습니다. ChatGPT가 기반모델을 가지고 어떤 과정을 거쳐 튜닝되었는지 알수 있으며, 작은 모델을 가지고 그 과정을 따라해 보면서 직접 모델 튜닝 파이프라인을 구축합니다. 이 과정을 통해 단순 LLM 사용자에서 직접 개선하는 모델을 만들어 내는 AI 개발자 수준에 도달하게 됩니다.
각 장 마지막에 요약 섹션이 있어 복습하거나 정리하기 좋습니다. 필요한 경우 예를 들어 4장과 11장처럼 서로 관련된 장을 왔다갔다하면서 참고하면 더욱 좋습니다. 관심 분야의 챕터는 반드시 실습 코드를 타이핑해 보면서 자기것으로 만드는 것을 추천합니다.
LLM을 깊이 이래하기 위해서는 머신러닝 지식이 있다면 좋습니다. 본 도서도 머신러닝에 대한 배경을 조금은 알고 있다고 가정했기 때문에 완전 초심자여서 진도가 너무 안나간다면 [핸즈온 머신러닝-한빛출판사] 같은 입문서를 먼저 간단히 보는것도 좋습니다. 이를 통해 모델의 학습 및 평가나 과적합 같은 개념을 만들고 이 책을 읽으면 수월합니다. 이 책은 허깅페이스의 Transformers 라이브러리를 활용한 예제가 많이 있습니다. 실무에서도 표준처럼 사용하는 기능이니 이에 대한 지식이 있으면 좋습니다. 이 책을 완독하고 나면 분명 이전보다 한단계높은 수준의 기술 역량을 갖추게 됩니다. 새로운 기술과 개념이 계속 쏟아져 나오는 LLM 학습 여정은 끝이 없는 마라톤과도 같습니다.
본 도서는 LLM의 원리와 활용을 한꺼번에 잡아주는 종합 입문서로서 내용적인 면이나 번역의 품질 면에서도 모두 강력히 추천할 만한 합니다. 탄탄한 이론 설명과 실습 위주의 구성, 자세한 삽화와 방대한 시각자료 덕분에 지루하지 않고 몰입하면서 배울수 있고, 읽고 나서는 체계적인 LLM 지식 지도를 머릿속에 그릴 수 있습니다.
"한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다."