메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

대여 가능

전자책

종이책

핸즈온 LLM

프롬프트 엔지니어링부터 임베딩, 시맨틱 검색, 미세 튜닝까지, 손에 잡히는 LLM 개념

  • 저자제이 알아마르 , 마르턴 흐루턴도르스트
  • 번역박해선
  • 출간2025-06-09
  • 페이지460 쪽
  • eISBN9791169219501
  • 물류코드11950
  • 난이도
    초급 초중급 중급 중고급 고급
4.9점 (14명)
좋아요 : 113

LLM, 눈으로 익히고 손으로 구현하라. 
트랜스포머 구조부터 시맨틱 검색, 미세 튜닝, 프롬프트 엔지니어링까지 
그림과 실전 코드로 만들면서 배우는 대규모 언어 모델의 모든 것

 

이 책은 LLM을 쓰는 것을 넘어, 이해하고 구현하는 것까지 나아가고 싶은 이를 위한 실전 가이드입니다. 직관적인 시각 자료와 예제를 제공해 ‘왜 이런 구조가 필요한지’ 이해하고 실용적인 도구와 개념을 익힐 수 있도록 구성했습니다. 사전 훈련된 대규모 언어 모델을 사용하는 방법과 시맨틱 검색 시스템을 만드는 방법, 텍스트 분류, 검색, 클러스터링을 위해 사전 훈련된 모델과 각종 라이브러리를 사용하는 방법을 배웁니다.

  • 텍스트 생성과 표현에 뛰어난 트랜스포머 언어 모델의 구조
  • 텍스트 문서를 그룹화하고 주제를 파악하는 고급 LLM 파이프라인
  • 밀집 검색과 재순위 결정 같은 방법으로 키워드 검색을 넘어서는 의미 검색 엔진 구축
  • 프롬프트 엔지니어링부터 검색 증강 생성까지 생성 모델 활용법
  • 미세 튜닝, 생성적 사전 학습, 문맥 학습 같은 기술로 특정 용도에 맞게 LLM을 훈련하고 최적화하는 방법

 

이 책의 구성
1부: 언어 모델 이해하기

  • 소규모 및 대규모 언어 모델의 내부 동작 원리
  • 언어 모델의 두 가지 핵심 요소: 토큰화와 임베딩
  • 그림으로 살펴보는 트랜스포머의 모델 구조

 

2부: 사전 훈련된 언어 모델 사용하기

  • 지도 학습 분류
  • 텍스트 클러스터링과 토픽 모델링
  • 임베딩 모델 활용한 시맨틱 검색
  • 텍스트 생성 모델
  • 비전 도메인에 언어 모델 사용하는 방법

 

3부: 언어 모델 훈련 및 미세 튜닝

  • 임베딩 모델을 만들고 미세 튜닝하는 방법
  • 분류를 위해 BERT를 미세 튜닝하는 방법
  • 생성 모델을 미세 튜닝하는 방법

 

대상 독자

  • 챗GPT 같은 AI 서비스가 어떻게 작동하는지 궁금하신 분
  • NLP 프로젝트를 시작하려는 학생 및 개발자
  • AI를 활용한 비즈니스 모델을 고민하는 실무자

 

제이 알아마르 저자

제이 알아마르

코히어(Cohere)(대규모 언어 모델을 API로 제공하는 선두 업체)의 이사이자 엔지니어링 펠로(fellow)입니다. 언어 모델을 실용적으로 사용하는 방법을 기업과 개발자 커뮤니티에 조언하고 교육하는 일을 합니다. 유명한 그의 AI/ML 블로그(https://jalammar.github.io)를 통해 수백만 명의 연구자와 엔지니어들이 머신러닝 도구는 물론이고 (넘파이와 판다스 같은 패키지 문서에 수록된) 기본 지식부터 (트랜스포머, BERT, GPT-3, 스테이블 디퓨전 같은) 최신 개념까지 폭넓게 이해하는 데 도움을 주고 있습니다. 제이는 Deeplearning.ai와 Udacity에서 인기 있는 머신러닝 코스와 자연어 처리 코스를 제작한 이력도 있습니다.

마르턴 흐루턴도르스트 저자

마르턴 흐루턴도르스트

IKNL(Netherlands Comprehensive Cancer Organization)의 선임 임상 데이터 과학자입니다. 조직 심리학, 임상 심리학, 데이터 과학 분야의 석사 학위를 받았으며 복잡한 머신러닝 개념을 대중에게 전달하고 있습니다. 잘 알려진 그의 블로그(https://newsletter.maartengrootendorst.com)를 통해 수백만 독자에게 인공지능의 기초 개념을 주로 심리학 관점에서 설명했습니다. BERTopic, PolyFuzz, KeyBERT 같은 대규모 언어 모델을 활용한 여러 오픈 소스 패키지의 창시자이자 메인테이터입니다. 그의 패키지는 수백만 번 다운로드되었고 전 세계 데이터 전문가와 조직에서 사용되고 있습니다.

박해선 역자

박해선

기계공학을 전공했지만 졸업 후엔 줄곧 코드를 읽고 쓰는 일을 했습니다. Microsoft AI MVP, Google AI/Cloud GDE입니다. 텐서플로 블로그(tensorflow.blog)를 운영하고 있고, 머신러닝과 딥러닝에 관한 책을 집필하고 번역하면서 소프트웨어와 과학의 경계를 흥미롭게 탐험하고 있습니다.

『혼자 만들면서 공부하는 딥러닝』(한빛미디어, 2025), 『혼자 공부하는 머신러닝+딥러닝(개정판)』(한빛미디어, 2025), 『챗GPT로 대화하는 기술』(한빛미디어, 2023), 『혼자 공부하는 데이터 분석 with 파이썬』(한빛미디어, 2023), 『Do it! 딥러닝 입문』(이지스퍼블리싱, 2019)을 집필했습니다.

『머신 러닝 Q & AI』(길벗, 2025), 『개발자를 위한 필수 수학』(한빛미디어, 2024), 『실무로 통하는 ML 문제 해결 with 파이썬』(한빛미디어, 2024), 『머신러닝 교과서: 파이토치 편』(길벗, 2023), 『스티븐 울프럼의 챗GPT 강의』(한빛미디어, 2023), 『핸즈온 머신러닝 3판』(한빛미디어, 2023), 『만들면서 배우는 생성 AI』(한빛미디어, 2023), 『코딩 뇌를 깨우는 파이썬』(한빛미디어, 2023), 『트랜스포머를 활용한 자연어 처리』(한빛미디어, 2022), 『케라스 창시자에게 배우는 딥러닝 2판』(길벗, 2022), 『개발자를 위한 머신러닝&딥러닝』(한빛미디어, 2022), 『XGBoost와 사이킷런을 활용한 그레이디언트 부스팅』(한빛미디어, 2022), 『구글 브레인 팀에게 배우는 딥러닝 with TensorFlow.js』(길벗, 2022), 『파이썬 라이브러리를 활용한 머신러닝(개정2판)』(한빛미디어, 2022), 『머신러닝 파워드 애플리케이션』(한빛미디어, 2021), 『파이토치로 배우는 자연어 처리』(한빛미디어, 2021), 『머신러닝 교과서 3판』(길벗, 2021)을 비롯해 여러 권의 책을 우리말로 옮겼습니다.

1부 언어 모델 이해하기

 

1장 대규모 언어 모델 소개
_1.1 언어 AI란?
_1.2 언어 AI의 최근 역사
_1.3 ‘대규모 언어 모델’의 정의
_1.4 대규모 언어 모델의 훈련 패러다임
_1.5 대규모 언어 모델 애플리케이션: 왜 유용한가요?
_1.6 책임 있는 LLM 개발과 사용
_1.7 부족한 자원이 필요한 전부입니다
_1.8 대규모 언어 모델 인터페이스
_1.9 첫 번째 텍스트 생성하기
_1.10 요약

 

2장 토큰과 임베딩
_2.1 LLM 토큰화
_2.2 토큰 임베딩
_2.3 텍스트 임베딩(문장과 전체 문서)
_2.4 LLM을 넘어 활용되는 단어 임베딩
_2.5 추천 시스템을 위한 임베딩
_2.6 요약

 

3장 대규모 언어 모델 자세히 살펴보기
_3.1 트랜스포머 모델 개요
_3.2 트랜스포머 아키텍처의 최근 발전 사항
_3.3 요약

 

2부 사전 훈련된 언어 모델 사용하기

 

4장 텍스트 분류
_4.1 영화 리뷰 데이터셋
_4.2 표현 모델로 텍스트 분류하기
_4.3 모델 선택
_4.4 작업에 특화된 모델 사용하기
_4.5 임베딩을 활용하여 분류 작업 수행하기
_4.6 생성 모델로 텍스트 분류하기
_4.7 요약

 

5장 텍스트 클러스터링과 토픽 모델링
_5.1 아카이브 논문: 계산 및 언어
_5.2 텍스트 클러스터링을 위한 파이프라인
_5.3 텍스트 클러스터링에서 토픽 모델링으로
_5.4 요약

 

6장 프롬프트 엔지니어링
_6.1 텍스트 생성 모델 사용하기
_6.2 프롬프트 엔지니어링 소개
_6.3 고급 프롬프트 엔지니어링
_6.4 생성 모델을 사용한 추론
_6.5 출력 검증
_6.6 요약

 

7장 고급 텍스트 생성 기술과 도구
_7.1 모델 I/O: 랭체인으로 양자화된 모델 로드하기
_7.2 체인: LLM의 능력 확장하기
_7.3 메모리: 대화를 기억하도록 LLM을 돕기
_7.4 에이전트: LLM 시스템 구축하기
_7.5 요약

 

8장 시맨틱 검색과 RAG
_8.1 시맨틱 검색과 RAG 소개
_8.2 언어 모델을 사용한 시맨틱 검색
_8.3 RAG
_8.4 요약

 

9장 멀티모달 대규모 언어 모델
_9.1 비전 트랜스포머
_9.2 멀티모달 임베딩 모델
_9.3 텍스트 생성 모델을 멀티모달로 만들기
_9.4 요약

 

3부 언어 모델 훈련 및 미세 튜닝

 

10장 텍스트 임베딩 모델 만들기
_10.1 임베딩 모델
_10.2 대조 학습이란?
_10.3 SBERT
_10.4 임베딩 모델 만들기
_10.5 임베딩 모델 미세 튜닝
_10.6 비지도 학습
_10.7 요약

 

11장 분류용 표현 모델 미세 튜닝하기
_11.1 지도 분류
_11.2 퓨샷 분류
_11.3 마스크드 언어 모델링으로 미세 튜닝 계속하기
_11.4 개체명 인식
_11.5 요약

 

12장 생성 모델 미세 튜닝하기
_12.1 LLM 훈련의 세 단계: 사전 훈련, 지도 학습 미세 튜닝, 선호도 튜닝
_12.2 지도 학습 미세 튜닝
_12.3 QLoRA를 사용한 지시 기반 튜닝
_12.4 생성 모델 평가
_12.5 선호도 튜닝/정렬/RLHF
_12.6 보상 모델을 사용한 선호도 평가 자동화
_12.7 DPO를 사용한 선호도 튜닝
_12.8 요약

대규모 언어 모델(LLM)이 인류의 소통 방식을 근본적으로 바꾸고 있습니다. 기계가 인간의 언어를 이해하고 생성하는 능력은 AI 기술의 새 지평을 열었을 뿐 아니라, 산업 전반에 혁신의 바람을 불러일으키고 있습니다.


이 책은 시각적 접근법으로 복잡한 LLM의 세계를 명쾌하게 안내합니다. 딥러닝 이전 단순한 단어 표현 방식부터 최신 트랜스포머 아키텍처까지, LLM의 발전 과정을 한눈에 파악할 수 있습니다. 독자는 LLM의 내부 작동 원리를 이해하고, 그 구조와 훈련 방법, 다양한 미세 튜닝 기법을 직접 탐험하게 됩니다.


실용적인 응용에 중점을 둔 이 책은 텍스트 분류, 클러스터링, 토픽 모델링부터 챗봇과 검색 엔진 구축까지 다양한 LLM 응용 사례를 상세히 다룹니다. 직관적인 설명과 시각적 도해, 실전 코드가 조화롭게 어우러져 독자가 쉽게 이해할 수 있습니다.


AI와 언어 모델에 첫 발을 내딛는 입문자부터 더 깊은 이해를 추구하는 전문가까지, 흥미진진한 LLM의 세계로 여러분을 초대합니다. 이 책과 함께라면 누구나 LLM의 무한한 가능성을 직접 경험할 수 있을 것입니다.

한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.

 

 

최근 몇 년간 폭발적으로 성장한 LLM(대규모 언어 모델) 기술은 이제 개발자에게 선택이 아닌 필수이다. 『핸즈온 LLM』은 단순히 LLM을 사용하는 것을 넘어, 그 내부 구조와 동작 원리를 깊이 이해하고 직접 응용하고자 하는 개발자에게 최적화된 책이다. 나 역시 LLM API를 몇 번 호출해 본 수준에 머물러 있었는데, 이 책을 통해 비로소 LLM의 블랙박스 같던 부분이 명확하게 이해되기 시작했다.

 

이 책은 개념 설명과 함께 풍부한 실습 예제를 제공하여 이론을 몸으로 체득할 수 있도록 돕는다. 예를 들어, 책 초반에 나오는 BoW(Bag of Words) 방식부터 토큰화, 임베딩과 같은 기본 개념을 시각 자료와 함께 설명하여 왜 단어를 숫자로 바꾸고 토큰 ID를 부여하는지, 그 중요성을 직접 토크나이저를 돌려보며 이해할 수 있었다. 특히 GPT-4와 GPT-3.5가 토큰을 나누는 방식이 달라 요금이 차이 나는 이유를 실습을 통해 다루는 것도 흥미로웠다.

 

실전 활용에 대한 깊이 있는 내용도 인상 깊었다. 4장 텍스트 분류에서는 영화 리뷰 데이터를 활용해 실제 분류 모델을 학습시키고, 임베딩을 사용한 분류 작업이 기존 모델보다 얼마나 직관적이고 안정적인 성능을 보여주는지 직접 경험했다. 또한, 8장 시맨틱 검색과 RAG(검색 증강 생성) 부분은 실무 적용 가능성이 가장 크게 느껴졌다. OpenAI의 리랭크 API를 활용한 검색 결과 재정렬 실습은 코드가 완벽하게 작동했으며, LLM 기반 검색이 키워드 검색보다 훨씬 똑똑하다는 것을 체감하게 했다. 덕분에 회사 챗봇 검색 기능 개선에 적용해 볼 아이디어를 얻을 수 있었다.

 

멀티모달 LLM을 다루는 9장에서는 ViT(Vision Transformer)를 통해 이미지를 언어 모델 입력으로 처리하는 원리를 그림과 함께 설명해 주어 "이미지를 어떻게 텍스트 모델에 넣는다는 거지?"라는 막연한 궁금증을 해소할 수 있었다. 실습보다는 개념 중심이었지만, 추후 멀티모달 프로젝트를 진행할 때 다시 찾아볼 중요한 챕터가 될 것 같다.

 

이 책은 복잡한 내용을 필요한 수준에서 설명하고, 적절한 코드 예제를 제공하여 따라 하면서 자연스럽게 개념을 익힐 수 있도록 구성되어 있다. 물론 한 권으로 설명해도 부족한 개념을 제한된 지면 안에서 다루다 보니 마냥 쉬운 책은 아니었다. 그럼에도 불구하고 LLM을 단순히 사용하는 수준을 넘어, LLM의 구조를 이해하고 조작하며 응용하는 단계로 나아가고 싶은 개발자에게 강력히 추천한다. 이론에만 그치지 않고 코드로 직접 검증하며 배우고 싶은 실무 개발자에게도 큰 도움이 될 것 같다.

"한빛미디어 서평단 <나는 리뷰어다> 활동을 위해서 책을 협찬받아 작성된 서평입니다."


한빛미디어의 핸즈온 LLM 도서는 나처럼 LLM을 그저 "API만 몇 번 호출해봤다" 수준의 개발자에게 이 책은 정말 딱 맞는 입문서다. 『핸즈온 LLM』을 통해 그동안 블랙박스 같던 언어 모델의 구조와 동작 원리를 차근차근 이해할 수 있었고, 중요한 건 직접 실습하며 몸으로 익힐 수 있었다는 점이다.


예를 들어, 책 초반에 나온 BoW(Bag of Words) 방식(1.2.1절)과 같은 전통적인 언어 표현 방식부터 시작해서, 토큰화(Tokenization)와 임베딩(Embedding)이 어떤 역할을 하는지 시각적으로 설명해준다. 단
어를 숫자로 바꾸는 게 왜 중요한지, 왜 단어별로 다른 토큰 ID가 붙는지를 직접 토크나이저를 돌려보며 확인할 수 있어서 단순한 개념을 넘어 ‘이해’로 이어졌다.


2장에서는 GPT-4와 GPT-3.5가 토큰을 어떻게 나누는지 비교해보는 실습이 인상 깊었다. GPT API를 쓸 때마다 ‘왜 요금이 이렇게 다르지?’ 궁금했는데, 토큰 분할 기준 차이 때문이라는 걸 처음 알았다. 책에서 제시한 예제를 복사해서 실행해보니, 말 그대로 문장 하나로도 토큰 수가 크게 달라지는 걸 눈으로 확인할 수 있었다.


또 4장 텍스트 분류에서는 영화 리뷰 데이터를 가지고 실제 분류 모델을 학습시키고, 그 성능을 다양한 메트릭(accuracy, precision, recall 등)으로 평가하는 과정을 실습했다. 개인적으로는 임베딩을 사용한 분류 작업(4.5절) 부분이 특히 흥미로웠다. 기존 모델보다 훨씬 직관적이고 성능도 안정적이었다. 내가 평소 다루는 웹 애플리케이션에도 이런 방식으로 간단한 분류 모델을 붙여볼 수 있겠다는 아이디어가 떠올랐다.


8장 시맨틱 검색과 RAG에서는 실전 서비스와 가장 가까운 느낌이 들었다. 특히 책에 소개된 OpenAI의 리랭크 API를 활용한 검색 결과 재정렬(8.2.2절)은 코드 예제가 실제로 잘 돌아갔고, 인덱싱된 문서에서 원하는 정보를 훨씬 정확히 추출해주는 걸 보며 확실히 LLM 기반 검색이 전통적인 키워드 기반 검색보다 똑똑하다는 걸 체감했다. 이후 나도 회사에서 챗봇 검색 기능 개선할 때 적용해볼 계획이다.


그리고 9장 멀티모달 LLM에서는 ViT(Vision Transformer)를 활용해 이미지를 언어 모델 입력으로 처리하는 내용을 다룬다. 평소 "이미지를 어떻게 텍스트 모델에 넣는다는 거지?" 하고 막연히 생각했던 부분이, ViT가 이미지를 토큰처럼 다룬다는 원리를 그림과 함께 설명해줘서 한 방에 이해가 됐다. 물론 여기는 실습보단 개념 중심이지만, 나중에 멀티모달 실무로 확장할 때 다시 꺼내볼 챕터다.


책을 읽으며 수시로 메모하고 형광펜으로 표시하게 될 만큼, 구성도 친절하고 시각 자료가 풍부하다. 복잡할 수 있는 내용을 꼭 필요한 수준에서 설명해주고, 적절한 코드 예제가 있어서 따라 하며 자연스럽게 개념을 익힐 수 있다.
무엇보다 이 책은 GPT를 단순히 사용하는 수준에서, LLM을 구성하고 조작하고 응용하는 단계로 넘어가고 싶은 개발자에게 정말 실용적이다. LLM의 구조, 학습 방식, 그리고 서비스 적용까지 실습 중심으로 경험할 수 있어서, 책을 덮고 나면 "나 이제 한 번 만들어볼까?" 하는 자신감이 생긴다.

 


이 책은 GPT API를 써봤지만, LLM 내부 구조가 궁금했던 개발자, 프롬프트 엔지니어링, 시맨틱 검색, RAG 등 최신 AI 기술을 직접 실습하고 싶은 사람, 이론에만 그치지 않고, 코드로 검증하며 배우고 싶은 실무 개발자에게 모두 유익하다. 단순한 이론서도, 복잡한 논문도 아니다. 이 책은 말 그대로 “내 손으로 LLM을 만지는 경험”을 할 수 있게 해주는 실전 입문서다. 지금 AI에 관심 있는 개발자라면 꼭 한 번은 읽어보길 추천한다.


 

  한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다.

핸즈온 LLM(한빛미디어, 2025)

 

 

 

책 소개

저자 : 제이 알아마르(Jay Alammar), 마르턴 흐루턴도르스트(Maarten Grootendorst)

역자 : 박해선

제목 : 핸즈온 LLM

출판사 : 한빛미디어

출간 연도 : 2025.06. 

원서명 : Hands-On Large Language Models(O'Reilly Media, 2024.12.)

페이지 : 460쪽

 

 


 

AI를 활용한 코딩이 대세인 요즘, 분야를 막론하고 LLM과 RAG의 사용에 관한 이야기로 가득하다. 그 중 LLM, 

대규모 언어 모델은 챗봇 및 가상 어시스턴트부터 콘텐츠 생성, 연구 지원 및 언어 번역에 이르기까지 다양한 분야의 애플리케이션을 혁신하고 있다.

 

한빛미디어의 '나는 리뷰어다'를 통해 만나게 된 이번 '핸즈온 LLM'은 언어 기술의 발전 과정과 응용 기술을 한 권으로 압축하여 제공하는 LLM 입문서이다. 트랜스포머부터 최근 화두인 RAG 그리고 양자화까지의 폭 넒은 지식을 전달하는 책을 만나보자.

 

 

cf) 대규모 언어 모델(LLM, Large Language Models) : 방대한 양의 데이터를 학습하여 자연어 및 기타 유형의 콘텐츠를 이해하고 생성하여 광범위한 작업을 수행할 수 있는 모델로, LLM은 훈련에 사용되는 방대한 양의 데이터를 기반으로 다른 형태의 콘텐츠뿐만 아니라 인간처럼 텍스트를 이해하고 생성하도록 설계됨.

 

 


 

책은 총 3부  12장으로 구성되어 있다.

 

1부 : 언어 모델 이해하기(1 ~ 3장)

2부 : 사전 훈련된 언어 모델 사용하기(4 ~ 9장)

3부 : 언어 모델 훈련 및 미세 튜닝(10 ~ 12장)

 

 

 

(다양한 시각 자료와 예시 코드로 LLM에 사용되는 다양한 기술을 실습 할 수 있는 것이 책의 강점이다.)


 


 


 

도입부인 1부에서는 '언어 모델 이해'를 주제로 LLM의 발전과정과 LLM을 구성하는 요소 그리고 다양한 LLM을 설명한다. LLM의 동작 원리를 쉽게 설명하여 입문자도 LLM의 변천사와 매커니즘을 이해 하기 쉽다.

 

1부에서 트랜스포머와 그에 기반한 LLM을 주로 설명한다면, 이어지는 2부에서는 LLM 어플리케이션을 주제로 한다. '텍스트 분류'에 초점을 맞추어 텍스트 클러스터링과 토픽 모델링 그리고 프롬프트 엔지니어링 등을 설명하는데, 시맨틱 검색과 RAG까지 폭 넓은 지식을 독자에게 전달한다.

 

 

 

책의 후반부인 3부는 모델 훈련과 미세 튜닝 기법을 중심으로 설명한다. 텍스트 임베딩 모델 생성과 생성 모델 미세 튜닝까지의 설명 과정에서 필요한 다양한 기술과 개념을 예제 코드를 통해 명확하게 구현하며 설명하는 점이 눈에 띄는 요인이다.

 

 


 

LLM의 시대, 언어 모델의 기초부터 심화 그리고 응용을 모두 다루는 이 책은 용어의 명확한 정의를 기준으로 시각화 자료와 예시 코드를 통해 대규모 언어 모델의 전반을 설명한다. LLM의 작동 원리를 통해 그리고 LLM의 다양한 활용과 미세 튜닝으로, 더 빠르게 변화하는 LLM의 기본을 알고 싶은 모든분께 일독을 추천한다.

 

 

 

  한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다.

최근 개발되는 대부분의 서비스가 생성형 AI(LLM)를 사용할 정도로 그 열기가 대단하다. 사실 우리가 제대로 인식하지 못했지만, 자연어 처리 분야의 인공지능 기술은 텍스트 분류, 클러스터링, 개체명 인식, 기계 번역 분야에서 이미 사용되고 있었다. 최근 ChatGPT, Claude, Gemini, Grok등의 프런티어 모델은 다방면에서 우수한 성능을 보여준다. 하지만 보안과 가격 정책으로 제품화에 적합하지 않거나, 개발하려는 도메인과 맞지 않는 경우가 여전히 많다. 때로는 배보다 배꼽이 더 큰 경우도 있다. 따라서, 우리는 LLM의 개념을 제대로 이해하여 개발하려는 도메인에 가장 적합한 모델을 찾고 개선하여 제품화하는 능력을 키울 필요가 있다.

 

[선수 지식]

- 파이썬과 머신러닝(텐서플로, 허깅페이스, 케라스) 기초

- 자연어 처리 기초(토크나이저, 임베딩, 텍스트 분류, 클러스터링, 토픽 모델링, 검색, 차원 축소)

- LLM 서비스, API 사용 경험

 

[추천 독자]

- 생성형 AI를 활용한 자연어 처리를 배우려는 개발자

- 생성형 AI를 활용하여 제품을 만들고 싶은 개발자

- 오픈 모델을 사용하여 서비스를 개발하고 싶은 개발자

- 오픈 모델 미세 튜닝을 통해 모델의 성능을 높이고 싶은 개발자

 

[키워드]

#LLM #트랜스포머 #인코더 #디코더 #자연어처리 #토큰 #임베딩 #추천시스템 #분류 #지도학습 #BERT #T5 #ChatGPT #클러스터링 #토픽모델링 #프롬프트엔지니어링 #체인 #메모리 #에이전트 #시맨틱검색 #RAG #리랭킹 #멀티모달 #비전트랜스포머 #대조학습 #SBERT #미세튜닝 #비지도학습 #지도분류 #퓨샷분류 #개체명인식 #LoRA #QLoRA #벤치마크 #선호도튜닝 #정렬 #RLHF #DPO #양자화 #SFT #PEFT

 

[특징]

- 어려운 개념을 그림을 통해 알기 쉽게 설명 (거의 그림책 수준)

- 주요 논문 내용을 인용하여 개념을 자세히 설명

- 허깅페이스의 오픈 모델과 코랩을 사용한 실습

- 실전에서 바로 사용할 수 있는 수준의 실습 코드

- 임베딩 모델과 생성형 AI 모델의 훈련 방법 및 미세 튜닝 방법 제공

- 옮긴이의 친절한 부연 설명

 

[책의 구성]

이 책은 전체 3부, 12개 장으로 구성되어 있다. 

 

1부 "언어 모델 이해하기"는 3개의 장으로 인공 지능 분야에서 자연어 처리 모델의 역사와 개념 및 용어를 설명한다.

1장 "대규모 언어 모델 소개"에서는 인공 지능에서 자연어 처리 분야의 역사와 개념을 그림과 함께 상세히 설명한다. 

<1부 언어 모델 이해하기 - 1장 대규모 언어 모델 소개, p48~p49>

 

2장 "토큰과 임베딩"에서는 자연어 처리의 핵심인 토크나이징과 임베딩의 개념을 설명하고, 임베딩의 종류별 결과를 보여주고, word2vec 모델로 실습한다.

<1부 언어 모델 이해하기 - 2장 토큰과 임베딩, p72~p73>

 

3장 "대규모 언어 모델 자세히 살펴보기"에서는 트랜스포머 모델의 개념을 설명하고, 코드를 통해 개념을 구체화하여 설명한다.

 

2부 "사전 훈련된 언어 모델 사용하기"는 6개 장으로 허깅페이스의 자연어 처리 모델을 사용하여 다양한 상황에서의 활용법을 설명한다.

4장 "텍스트 분류"에서는 텍스트 분류 개념을 설명한 후 BERT, T5, ChatGPT로 텍스트를 분류하는 방법을 설명한다.

5장 "텍스트 클러스터링과 토픽 모델링"에서는 파이프라인을 통해 텍스트 클러스터링의 개념을 설명하고, 토픽 모델링을 실습한다.

<2부 사전 훈련된 언어 모델 사용하기 - 5장 텍스트 클러스터링과 토픽 모델링 , p172~p173>

 

6장 "프롬프트 엔지니어링"에서는 프롬프트 엔지니어링의 개념과 구성 요소, 다양한 기법(제로샷, 퓨샷, CoT, ToT)을 예시와 함께 설명한다.

<2부 사전 훈련된 언어 모델 사용하기 - 6장 프롬프트 엔지니어링, p208~p209>

 

7장 "고급 텍스트 생성 기술과 도구"에서는 체인 기법, 메모리, 에이전트, ReAct를 예시를 들어 설명한다.

8장 "시맨틱 검색과 RAG"에서는 리랭킹을 활용한 검색의 개념을 설명하고, 로컬 모델과 FAISS를 사용한 RAG를 실습한다.

9장 "멀티모달 대규모 언어 모델"에서는 비전 트랜스포머의 개념과 텍스트 모델을 멀티모달 모델로 만드는 개념을 설명하고, 허깅페이스의 비전 모델사용하여 멀티 모달 실습을 진행한다.

 

3부 "언어 모델 훈련 및 미세 튜닝"는 3개의 장으로 자연어 처리 모델의 훈련 방법과 미세 튜닝 방법을 설명한다.

10장 "텍스트 임베딩 모델 만들기"에서는 대조학습을 통한 텍스트 임베딩 모델을 만드는 과정, 즉 데이터 생성, 훈련, 평가 방법과 비지도 학습으로 만드는 방법을 설명한다.

11장 "분류용 표현 모델 미세 튜닝하기"에서는 사전 훈련된 모델을 미세 튜닝하여 분류용 모델을 만드는 방법과 개선 방법을 설명한다. 

12장 "생성 모델 미세 튜닝하기"에서는 생성형 AI 모델을 훈련하는 방법, 정렬(Alignment)하는 방법과 LoRA를 사용한 미세 튜닝 방법, SFT, RLHF, DPO 기법을 사용한 선호도 미세 튜닝 방법을 설명한다.

<3부 언어 모델 훈련 및 미세 튜닝 - 12장 생성 모델 미세 튜닝하기, p434~p444>

 

[인용]

LLM의 다양한 평가 방법(벤치마크)에서 사람 평가의 중요성을 강조한 부분이 인상적이다. 우리의 목표는 좋은 점수가 아니라 좋은 서비스이기 때문이다.
 

결론적으로 LLM을 평가하는 하나의 완벽한 방법이란 존재하지 않습니다.

<중략>

하지만 무엇보다 중요한 것은 여러분이 최상의 평가자라는 점입니다. LLM이 여러분의 사용 사례에 잘 맞는지 결정하는 것은 여러분 자신이기 때문에 사람 평가가 가장 신뢰할 수 있는 방법입니다. 

<중략>

직접 모델을 테스트 하고 질문을 던져 보세요.

측정 지표가 목표가 되면 더 이상 좋은 지표가 아니다 - 굿하트 법칙

12장 생성 모델 미세 튜닝하기, p434

 

[소감]

이 책을 읽으면서 왜 아마존 AI 분야의 베스트셀러이면서 컴퓨터 과학 분야의 베스트셀러인지 확실히 알게 되었다. 자연어 처리 개념과 실습이라는 두 마리 토끼를 모두 제대로 잡았다. 책에서 설명하는 개념은 기초부터 고급 응용까지 필요한 모든 부분을 다루고 있으며, 수식이 아닌 그림으로 개념을 단계적으로 알기 쉽게 설명하여 마지막까지 재미있게 읽을 수 있었다. 관련 기술의 논문도 자세히 설명한다. 기술서, 특히 핸즈온 책에서 이렇게 많은 그림이 있는 책은 처음 경험했다.

개인적으로는 12장의 생성 모델 학습 방법이 가장 인상 깊었다. 이런 개념을 다루는 책도 많지 않았지만, 양자화, LoRA, QLoRA, 평가 방법, 선호도 튜닝, 정렬(Alignment), RLHF, SFT, PEFT, DPO에 대한 개념을 확실히 이해할 수 있었다.

코드 실습 중에 오류가 나거나 라이브러리 설명이 부족한 경우, 옮긴이의 친절한 설명이 큰 도움이 되었다. 아쉬운 부분은 그림의 텍스트와 실습 코드가 모두 영어라는 점이다. 다행히 한글 모델을 찾고 한글로 적용하는 방법을 혼자 해볼 수 있는 과제가 있어서 좋았다.

 

[추천]

저처럼 자연어 처리에 대한 이해가 부족했거나 자연어 처리에 입문하시는 분, 미세 튜닝의 원리부터 고급 응용까지 배워보고 싶은 분들에게 이 책을 자신 있게 추천한다. 특히 폐쇄망에 지능형 정보서비스를 도입하고자 하시는 분들은 책의 실용적인 실습 코드가 큰 도움이 될 것이다.

한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.

 

최근 몇 년간 대규모 언어 모델(LLM)은 우리 일상 깊숙이 자리 잡았다. 챗봇과의 대화부터 콘텐츠의 생성 및 수정, 복잡한 데이터 분석에 이르기까지 LLM의 활용 범위는 끝없이 확장되고 있기에 LLM을 쓸수록 그 근간에 대한 이해가 필요하다고 생각하게 된다. 하다못해 프롬프트조차 LLM의 작동 방식을 이해해야 좀 더 적절하게 작성할 수 있지 않을까 싶기도 하고, 지금 당장은 파인 튜닝을 한다거나 직접적으로 다룰 일은 없지만 언젠가 좀 더 내밀하게 속내를 들여봐야 하는 시점이 올지도 모른다는 생각이 들기도 한다. 그런 맥락이 이 책을 선택하게 된 중요한 동기가 되었고, 온전히 모든 내용을 흡수할 수는 없어도 기술의 큰 흐름을 눈동냥 하듯 훑어보는 것만으로도 충분히 가치 있는 느낌이었다.

 

이 책의 시작인 1부는 언어 모델의 역사를 짚어주며 독자가 가진 LLM에 대한 이해의 폭을 넓히고자 한다. 일반 사용자 입장에서는 LLM이 마치 갑자기 등장한 것처럼 느껴질 수 있지만, 사실 그 배경에는 수많은 언어 AI 기술의 발전이 있었다. 언어가 컴퓨터에게 어려운 개념임을 설명하며 BoW(Bag-of-Words)와 같은 초기 기법, 그리고 Word2Vec이 텍스트의 의미를 벡터 공간에 담아내는 과정을 설명하며 LLM의 기본 원리를 풀어 나간다. 예컨대 Word2Vec은 텍스트의 의미를 포착하기 위한 벡터 표현으로, 한 노드가 다른 노드에 미치는 영향의 강도와 방향에 따라 가중치를 부여한다. 이 과정을 통한 단어 임베딩은 비슷한 단어가 서로 가깝게 위치하게 되어 그 이전과 달리 좀 더 연관된 아웃풋을 만들어내는 것이 가능해졌다.

 

토큰과 임베딩은 LLM의 핵심 개념으로, 책에서 토큰화의 과정과 단어 임베딩이 어떻게 비슷한 단어를 서로 가깝게 위치시키는지 설명한다. BERT 베이스 모델부터 Phi-3까지 다양한 토크나이저별 특징과 결과 비교는 LLM이 텍스트를 처리하는 방식에 대한 이해를 돕고 있으며, LLM이 단순히 단어를 나열하는 것이 아니라 단어 간의 복잡한 관계를 이해하려 노력한다는 것이 흥미롭고 와닿는 부분이었다.

 

2부부터는 이론을 넘어서 실제 LLM 활용 과정을 다룬다. 영화 리뷰 데이터셋을 활용해 특화된 모델을 선택하고 임베딩과 분류 작업을 이어 나가는 과정을 이야기하고 있는데, 별도로 API 키만 준비되어 있다면 직접 차근차근 따라가 보는 것도 가능하다. 프롬프트 엔지니어링과 RAG(검색 증강 생성), 그리고 멀티모달까지 예시 코드를 통해 구현하고 있는데, 이 과정에서 LLM을 통해 답변을 마주했을 때 어떻게 이런 답변이 만들어졌는지 조금 더 이해할 수 있는 부분이었다.

 

책의 마지막 3부는 LLM을 특정 목적에 맞게 다듬는 과정, 즉 파인 튜닝(Fine-tuning)에 대한 심화적인 내용을 담고 있다. 텍스트 임베딩 모델을 직접 만들고, 분류용 모델과 생성 모델을 미세 튜닝하는 기술적인 부분을 다룬다. 초심자에게는 다소 버거울 수 있는 내용이지만, LLM의 성능을 최적화하고 특정 도메인에 특화된 모델을 구축하는 데 필요한 핵심 기술들을 폭넓게 제시하고 있다. QLoRA를 사용한 지시 기반 튜닝이나 DPO를 사용한 선호도 튜닝 같은 최신 기법들을 같이 다루고 있다는 점에서 좀 더 다양하게 접할 수 있는 부분이었다.

 

책의 서두에도 언급되어 있듯 초심자를 위한 책은 아니다. 초심자에겐 한 챕터 넘어가는 것도 다소 버겁게 느껴질 수도 있지만, 그럼에도 불구하고 다양한 기술적 기반을 폭넓게 다루고 있어서 훑어보기엔 좋은 책이라는 생각이 든다. LLM의 근본적인 원리부터 시작하여 실제 적용, 그리고 심화된 훈련 기법까지 다양한 기술적 기반을 폭넓게 다루고 있다는 점 때문에 그렇다. 단순히 LLM을 사용하는 걸 넘어서 그 작동 원리를 이해하고, 더 나아가 직접 모델을 다루고 싶다는 열망을 가진 사람이라면 다소 어렵더라도 충분히 읽어볼 만한 책이라고 생각한다.

한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다.

이 책은 단순히 ChatGPT를 써보는 수준을 넘어서, 실제 LLM 기반 서비스를 만들기 위한 실무 역량을 키워줍니다. LangChain, Hugging Face, OpenAI API, Pinecone, Colab 등 최신 도구를 실습 중심으로 익힐 수 있어, 코드 따라 하며 흐름을 잡기에 적합합니다. 특히 LLMOps와 평가, 파인튜닝 등 LLM을 서비스에 적용할 때 필요한 요소들을 빠짐없이 다뤄주어 실무 개발자에게 큰 도움이 됩니다. LLM에 관심 있는 개발자, 기획자, PM에게도 추천합니다.

한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다.


Intro

LLM(대규모 언어 모델)은 이제 개발자뿐 아니라 연구자, 학생, 기획자 등 다양한 분야에서 필수 교양으로 자리잡고 있다. 나도 지금까지 LLM의 작동 원리와 다양한 활용법을 공부해왔지만, 쏟아지는 기술과 툴을 따라가느라 기본기를 정리할 기회가 부족했었다. 이번 기회에 핸즈온 LLM을 읽으며 LLM의 핵심 개념을 차분히 정리하고, 실제로 손을 움직이며 실습까지 병행해볼 수 있었다.

LLM을 공부한 경험은 있었지만 한 번 전체를 체계적으로 복습하고 싶다는 마음에 이 책을 집어들었고, 결과적으로 정말 만족스러웠다. LLM 공부는 끝이 없는 여정이라 생각한다. 새로운 모델, 새로운 툴, 새로운 접근 방식이 계속 등장하니까 말이다. 그럴수록 더 중요한 건 ‘기본기’라는 걸, 이 책을 통해 다시금 느낄 수 있었다.

Book Review

LLM을 ‘다시’ 공부하고 싶은 사람에게 최고의 선택

이 책은 단순히 LLM을 처음 배우는 사람을 위한 입문서가 아니다. 이미 Transformer, Fine-Tuning, Embedding 등의 개념을 알고 있는 사람이라도, 그 연결고리를 제대로 정리하고 싶은 이들에게 훌륭한 가이드가 될 것이다.

예전에는 블로그 글이나 논문을 여기저기 흩어져서 보며 이해하려 했던 개념들이, 이 책의 3장(Transformer 구조 설명)을 통해 비로소 하나로 연결되는 느낌이었다. 특히 직관적인 시각자료와 함께 실습이 자연스럽게 이어지는 구성 덕분에 “아 그래서 이렇게 동작하는 거였구나” 하는 걸 책을 읽으면서 많이 느꼈다.

보이는 설명, 직접 해보는 실습

이 책의 가장 큰 장점은 ‘시각화’와 ‘실습’이다.

각 장마다 수십 개의 컬러 도식, 예시 그림, 코드 결과 이미지가 포함되어 있어, 이해가 어려운 개념도 자연스럽게 머릿속에 그려지게 된다.

huggingface, colab 등을 활용한 실습이 잘 마련되어 있어, 별도 환경 구축 없이 바로 실습이 가능하며, 특히 프롬프트 엔지니어링, 클러스터링, RAG 파이프라인 구성 같은 실전 예제가 풍부해 응용력까지 키울 수 있었다.

개인적으로는 5장에서의 BERTopic, 7장에서의 LangChain의 ReAct, 그리고 12장 '생성 모델 미세 튜닝하기'가 가장 인상 깊었다.

단점이라기보다는, 대상 독자에 대한 분명한 전제

이 책은 완전 초심자를 위한 책은 아니다. 저자도 서문에서 선수 지식에 대해 언급하듯, 파이썬과 머신러닝에 대한 최소한의 배경지식이 있어야 수월하게 읽을 수 있다.

또한 실제 서비스 운영에 필요한 인프라, 비용 최적화, 배포 등은 다루지 않기 때문에 실무 응용까지 기대하는 독자라면 별도 학습이 필요하다.

이 책의 초점은 분명했다. “LLM을 깊이 이해하고, 직접 다뤄볼 수 있도록 돕는다.” 이 목표에 정말 충실한 책이라고 생각한다.

대상 독자

LLM의 작동 원리와 주요 개념을 시각화 + 실습 중심으로 다시 정리하고 싶은 사람

블로그나 논문으로 조각조각 습득했던 내용을 한 권으로 체계적으로 정리하고 싶은 독자

챗봇, 임베딩 기반 검색, 프롬프트 최적화 등 다양한 LLM 활용법을 체계적으로 익히고 싶은 분

LangChain, RAG, LoRA 등 최근 LLM 트렌드를 실습을 통해 따라가고 싶은 학습자

이제 LLM(대규모 언어 모델)을 이용하는 것은 비단 개발자 뿐만 아니라 각 분야의 전문가나 준전문가, 해당 분야의 입문자나 준비하는 학생들의 필수 교양이 되었습니다. 이런 시대적인 흐름에서 당연히 많은 LLM 도서들이 새롭게 소개되고 있는 지금입니다. 이번에 접하게 된 핸즈온 LLM은 많고 많은 좋은 내용의 도서중에서도 단연 돋보이는 최고의 수작이였습니다. AI 기술을 현업에서 활용하고 있지만 쏟아지는 신기술과 경쟁적으로 발표하는 모델을 따라가면서 적용해 보기 급급해 기본기를 다질 여유가 없었지만, 이 도서를 통해 기본으로 돌아가 눈으로 확인하고 손으로 실습하며 핵심 개념을 차분히 정리할 수 있었습니다. 초심자부터 현업 개발자까지 AI의 기본과 흐름을 단번에 잡을 수 있는 훌륭한 길잡이가 되는, 개발에 익숙한 개발자라면 이 책 한권으로 LLM의 원리부터 활용과 미세튜닝까지 폭넓게 배우며 기술 역량을 끌어올릴 수 있는 특별한 도서입니다.

 


보이는 설명, 풍부한 예제, 무료로 모든 실습가능, 단계적 학습

이 도서가 특별하게 느껴질 수 있는 이유중 하나는 직관적인 그림, 삽화와 실습 중심 접근에 있습니다. 대략 보기에도 수백여개에 달하는 맞춤형 그림과 도표, 삽화가 그것도 컬러로! 수록되어 복잡한 개념을 한눈에 이해하도록 이끌어 줍니다. 다른 책들은 추상적으로만 다루고 지나가는 내용도 이 책에서는 풍부한 다이어그램을 곁들여 설명하여, 독자들은 머릿속에 그림을 넣고 글을 읽으며 이를 마치 스케치한 드로잉을 3D로 만들고 채색을 하는 듯한 과정을 거칩니다. 개념을 소화하는 과정입니다. 예를들어 GPT 모델의 트랜스포머 구조나 어텐션 매커니즘 같이 처음보면 엇!엌? 하는 주제도 시각적으로 풀어냅니다. 복잡한 주제를 아름답고 통찰력있게 묘사하고 표현하는 기법이 단연 돋보입니다.

 

또 도서 이름인 [핸즈온(Hands-On)], 즉 손가락으로 익히는 실습 위주의 구성이 특징입니다. 각 장마다 파이썬으로 실행 가능한 예제와 실제 데이터 실습이 포함되어 있습니다. 배운 개념을 바로 타이핑 하면서 익숙해질 수 있습니다. 코드 예제는 공식 깃허브에 공개되어 있습니다. 저자는 책에서도 기술했듯 구글 계정만 있으면 누구나 무료로 이용할 수 있는  코랩(Colab)에서도 실행이 가능하도록 모델을 선택적으로 사용하였습니다. 그 덕에 독자들은 별도의 고가 머신 없이도 손쉽게 코드를 따라하며 LLM활용법 익힘이라는 본질에 집중할 수 있습니다.

 

또한 내용이 이론과 실제의 균형을 훌륭하게 잡았습니다. LLM의 기본 개념과 역사적 맥락을 충실하게 다루고 있으면서도, 이를 바로 실무 활용사례로 연결합니다. 생성형 모델 뿐만 아니라 임베딩 기반의 분류나 검색 등 비 생성형 LLM의 활용 도 폭넓게 다루어 응용 범위도 넓습니다. 처음에는 기초 개념으로 시작하여 마지막장에서는 직접 LLM을 미세 튜닝하고 구축하는 경지까지 자연스럽게 안내해 줍니다. 이와 같은 기초 > 활용 > 응용으로 자연스럽게 이어지는 체계적인 단계 구성 덕분에 자신감도 덤으로 얻을 수 있습니다. 시각화된 설명, 풍부한 예제, 단계적 학습 구조가 고루 갖추어져 있는, 현재 출간된 LLM 서적들 중에서도 가장 실용적이고 이해하기 쉬운 입문서라고 할 수 있습니다.

 


최신기술, 다양한 활용사례, 실습을 통한 학습

2024년 초중반까지의 최신 LLM 기법들이 빠짐없이 다루어 지고 있습니다. 업계 디펙토 표준 프레임워크로 인정받고 있는 LangChain 소개, RAG(Retrieval Augmented Generation)과 같은 핫한 주제, LoRA, 어댑터를 통한 파라미터의 효율적 미세 튜닝, 양자화 기법까지, 최신 기술 동향이 반영되어 협업 트렌드에 뒤지지 않습니다.


LLM이라고 하면 텍스트 생성만 생각하기 쉽지만, 텍스트 분류, 클러스터링, 검색엔진, 챗봇, 멀티모달 등 폭넓은 응용 시나리오도 소개합니다. 예를들어 4장에서는 오픈소스 임베딩 모델을 활용하여 라벨없는 데이터로도 분류를 수행하는 새로운 방법을 보여주고, 5장에서는 HDBSCAN 군집화와 BERTopic을 활용해 LLM으로 토픽 모델링하는 방법 등 일반적이지 않은 창의적인 활용방법도 선보입니다. 다양한 방법과 창의적인 예시는 LLM의 잠재력을 다양한 각도에서 조망하는 시범을 보여주어 독자가 자신의 상황에 맞는 활용 아이디어를 생각할 수 있는 생각의 힘을 배양해 줍니다.


각 장은 코랩 노트북 실습으로 진행할 수 있습니다. 모호한 부분은 직접 코드를 돌려보면 바로 해결됩니다. 공색 깃허브에 코드와 데이터셋이 정리되어 있습니다. 학습 환경 설정방법도 간단합니다. 예제 코드는 모두 무료로 누구나 사용가능한 소형 모델 위주로 선별되어 작성되어 GPU 자원이 부족한 우리 모두가 큰 무리 없이 따라할 수 있습니다.


주요 알고리즘이나 개념이 컬러 도식이나 그림으로 되어 있습니다. 트랜스포머의 셀프어텐션 구조, RAG 파이프라인, 어텐션의 흐름 등 낯섦이 있을 수 있는 모든 구석구석에 그림이 배치되어 있습니다. 직관적으로 이해하는데 큰 도움이 됩니다. 다른 도서에서는 몇페이지의 글로 설명되고 있는 것을 이 책은 한 장의 그림으로 명쾌하게 정리되어 학습 효율이 높고 내용이 나의 뇌속으로 그대로 들어옵니다. 그림을 보고 있으면 학습의 속도도 높여줄 뿐만 아니라 “왜 이런 구조가 필요하지?” 라는 질문의 답도 스스로 자동적으로 얻을 수 있습니다.


실습 비중이 높은 내용이지만 이론적인 배경도 소흘하지 않습니다. LLM의 역사, 언어 모델링의 원리, 토근화 기법 비교 등 기초 개념도 처음부터 잡아줍니다. 특정 프레임워크를 모르더라도 기초 구성요소들을 알고 있기 때문에 전체 그림을 이해하게 되는데 큰 도움이 됩니다. 또한 각장마다 최신 논문과 참고자료에 대한 주석이 풍부합니다. 더 깊이 공부하고 싶은 독자는 논문 원문이나 추가 자료로 학습을 시행착오 없이 쉽게 확장시킬 수 있습니다.

 


일부 내용은 기본지식이 필요, 실무 팁 부족은 다소 아쉬움

다소 아쉬운 점도 있습니다. 본 도서는 초중급자가 대상이 맞지만 일부는 관련 기본 지식이 부족하면 선뜻 읽혀지지 않는 난해한 부분이 있습니다. 1장의 LLM작동원리 부분과 10장 벡터 임베딩 생성, 멀티모달 LLM에서 트랜스포머 비전 모델을 설명하는 부분은 입문자들에게는 좀 어려운 부분입니다. 책 서두에 저자는 기본적인 머신러닝과 파이썬 지식을 전제로 한다고 안내했듯 완전 입문자라면 블로그 글이나 IT매체의 기고글 등을 통한 병행 선행 학습이 필요합니다.


실제 업무에 LLM을 활용하게 되면 출시 이후도 신경써 주거나 알아야 하는 부분들이 많이 있습니다. LLM 기반 애플리케이션을 실제 서비스로 인퍼런싱하고 운영하는 부분에 대한 지식은 거의 없는 편입니다. 대용량 모델의 스케일링, 배포 전략, 모니터링, 비용 최적화 같은 철저한 실무팁은 다루지 않고 있기 때문에 이런 내용도 기대하는 독자들에게는 조금 아쉬울 수 있습니다. 초중급자를 대상으로 내용을 구성하다보니 연구와 프로토타이핑 중심으로 이루어져 있어 완성된 제품화 단계를 포함한 이후 부분의 내용은 별도의 학습이 필요합니다.


또한 멀티모델 LLM을 소개하고 있지만 이지미 생성(diffusion) 모델에 대한 소개는 거의 없습니다. 9장에서 이미지 임베딩, VQA 사례를 다루고는 있지만 해당분야에서 가장 핫한 Stable Diffusion, Midjourney의 생성형 비전 모델 원리는 다루지 않습니다. 개인적으로 멀티모달 챕터라면 반드시 들어가야 하는, 빠지면 안되는 내용이라고 생각합니다.
또한 아무리 책이 최신이라고 해도 LLM의 변화속도가 워낙 빠르기 때문에 저술 이후의 새로운 모델이나 기법은 반영되지 못했습니다. LLM 분야를 리딩하는 OpenAI 최신 모델의 세무 내용도 간단하게 다루고 있습니다. 이 부분은 부족하게 느껴지기는 하지만 빠른 업계로 인한 문제로 본 도서의 의도와 핵심 개념을 다지는 부분은 전혀 영향이 없습니다.

이런 몇가지 아쉬운 점도 있지만 이 책의 가치에 비하면 무시할 만큼 영향력이 없다고 할 수 있습니다. 핵심 개념 이해와 실점 감각을 쉽게 습득할 수 있는, 관련 분야 종합서 중에서는 최고의 내용이기 때문입니다. 어려운 부분이 있지만, 그만큼 얻을 수 있는 지식의 폭이 넓다는 이면도 있으므로, 읽다가 다소 버거움을 느끼더라도 페이지 몇장만 넘어가면 해당 코드의 실습과 함께 직관을 얻게되는 경우가 다수입니다. 혹시 1장이 어려운 분은 일단 정독에서 속독으로 전환하고 2, 3장에서 자세히 배우면 그 부분에서 충분히 1장의 배경지식을 매워줍니다. 서로 보완적인 장들로 구성되어 있어 강약을 조절해서 읽어나가면 전체 흐름을 무난하게 따라갈 수 있습니다.


또한 개발 이후의 내용이 없는 것이 어쩌면 더 좋은 선택일 수 있습니다. LLM의 동작원리와 활용기법을 알고 싶은 초중급자의 니즈에 집중함으로써 이들이 더 어려워할 수 있는 이론 부분과 배경지식을 쉽게 전달하는데 주력합니다. 운영 팁까지 다루었다면 분량이 크게 늘어나게되고 니즈에 집중하지 못하고 도서의 핵심이 흐려졌을 수도 있습니다. LLM 그 자체를 이해하고 다루는데 집중한 내용입니다.


책의 내용을 따라가다보면 자연어 처리와 LLM 분야의 핵심 개념을 체득하면서 “그래서 이렇게 동작하는구나”를 자주 깨닫게 되고, 예를 들어 6장에서 간단한 프롬프트 템플릿으로도 모델이 다양한 아이디어를 탐색하도록 유도하는 부분 등은 무척 색다르게 느껴집니다. 이러한 돈오와 색다름이 본도서 가치의 증거가 되겠습니다. 방대한 LLM 지식을 모두 다룬다는 야심찬 기획의 부산물이 아닌 충실함을 담은 핵심내용의 쉬운 전달로 탄탄한 기본기와 실전 감각을 배양해 줄 수 있습니다.


(1장 LLM 소개) LLM의 개념과 역사와 함께 언어모델의 정의 GPT의 등장, 그리고 텍스트 뿐만 아니라 임베딩을 통한 분류 등 다양한 용도로 활용될 수 있는 등 전체를 개괄합니다. 그러면서 자연스럽게 LLM을 단순 텍스트 자동 완성기가 아니라 다양한 언어 이해 도구의 플랫폼으로 바라보는 관점 전환이 필요하다는 점을 강조합니다. 곁들여 책임있는 AI 이슈와 저사양의 환경 LLM 팁도 언급합니다.

 

(2장 토큰, 임베딩) LLM의 두가지 핵심 요소인 토큰화와 임베딩을 다룹니다. BPE, WordPiece 같은 토크나이저들을 비교하고 단어 임베딩에서 문장과 문서 임베딩까지 벡터 표현으로 의미를 파악하는 원리를 설명합니다. 다국어 모델이나 코드에 특화된 모델과 같이 성격이 다른 LLM 모델이 얼마나 다르게 토큰화하는지 사례를 보여주며 토큰화의 영향력을 느끼게 해 줍니다. 음악 추천 시스템에 임베딩 활용하기를 통해 텍스트 뿐만 아니라 다른 도메인에서도 통용될 수 있다는 점을 소개합니다.

 

(3장 트랜스포머) 현대 LLM의 토대인 트랜스포머 아키텍처를 상세히 해부하며 안내합니다. 유명한 저자 블로그(The Illustrated Tranformer)의 맨 상위글처럼 최신(2024년) 트랜스포머 구조까지 다룹니다. 셀프어텐션 매커니즘, 인코더-디코더 구조, 최신 개선 사항 등을 그림과 함께 설명합니다. 어텐션의 작동 원리를 이해하고 넘어간다면 이 장을 통해 이후의 모든 LLM 모델의 기반 개념을 확실하게 잡을 수 있습니다.

 

(4장 텍스트분류) 사전 훈련된 모델을 활용해 영화 리뷰 감성 분석분류 등 분류 작업을 실습합니다. 지도학습 부분도 흥미롭지만 임베딩을 활용한 라벨 없이 분류하는 부분은 특히 더 흥미롭게 볼 수 있습니다. 오픈소스 임베딩 모델과 간단한 알고리즘만으로도 제로샷에 가까운 분류작업이 가능한 것을 보여줍니다. 생성형 모델의 프롬프트를 이용해 분류하는 법과 한계도 서로 비교하며, 추후 어떤 상황에서 어떤 방법이 좋은지 결정하는 기준을 만드는데 도움을 줍니다.

 

(5장 텍스트 클러스터링, 토픽 모델링) 임베딩 모델을 활용하여 텍스트 클러스터링과 토픽 추출을 다룹니다. 논문 초록 데이터를 이용해서 문서들을 임베딩 한 다음 HDBSCAN으로 클러스터링하고 BERTopic을 적용해 각 군집의 토픽을 자동 추출하는 실습을 진행합니다. 이를 통해 LLM을 이용한 생성이 아닌 데이터의 탐색과 구조화에 활용할 수 있는 방법을 배옵니다. 라벨링이 어려운 대량의 문서에서 주제를 빠르게 파악할 수 있는 임베딩 > 군집화 > 토픽추출로 이어지는 워크플로는 실무에서도 유용한 패턴입니다.

 

(6장 프롬프트 엔지니어링) 본격적으로 텍스트 생성 모델을 다루면서 프롬프트 작성 기법에 초점을 맞춥니다. 챗GPT를 사용할 때 원하는 최고의 답을 얻기 위한 질문 설계방법을 위한 역할 설정, 체계적인 질의 등 최적 프롬프트를 찾는 여러 테크닉을 소개합니다. 특히 Tree of Thought 기법으로 하나의 질문에 대해 모델로 하여금 여러가지 생각의 분기를 칠 수 있도록 유도하는 프롬프트 전략은 간단하지만 모델의 결과 품질을 높이는 새롭게 느껴지는 방법이였습니다. 프롬프트 엔지니어링에 관심있다면 큰 도움을 얻을 수 있는 내용입니다.

 

(7장 고급 텍스트 생성) 더 발전된 생성기술과 LLM 개발 툴킷을 다룹니다. 유명한 LangChain 라이브러리를 사용하여 LLM 기반 에플리케이션을 구성하는 방법이 핵심입니다. 양자화해 경량화된 모델을 로드하고 체인을 통해 여러 LLM 기능을 조합하며 메모리 객체로 대화 문맥을 유지하는 기법 등을 실습합니다. 또한 에이전트 개념을 소개하고 LLM이 도구를 사용하거나 복잡한 작업을 스스로 결정하게 하는 시스템 구축하는 현재 가장 많이 고려되는 최신 기법을 다룹니다. LangChain의 기본 기능을 익히고 에이전트의 가능성을 엿보면서 최신 가장 핫한 MCP를 외부 리소스로 참고하면 실무에 바로 활용 가능한 기본 스킬과 샘솟는 아이디어를 얻게 됩니다. 내용을 따라 가면서 작은 LLM 앱이라도 만들어 보는 것을 추천합니다.

 

(8장 시탬틱 검색, RAG) 의미 기반으로 검색하는 시맨틱 검색 기술과 이를 활용한 RAG를 소개합니다. 구글이나 빙(Bing)이 검색 결과 후순위를 LLM으로 재랭킹하는 사례를 통해 검색엔진에서 LLM을 활용하는 검색 최적화 개념을 배웁니다. 이어 자연어 질문에 대해 지식을 검색하고 그 결과를 텍스트로 생성하는 RAG 파이프라인을 단계별로 구축합니다. 각 기업들은 RAG, 에이전트, MCP 등의 폭발적인 도입을 진행하고 있습니다. 그중 RAG는 [내 데이터로 챗봇 만들기] 프로젝트에 기본적으로 활용되는 기법입니다. RAG 작동 원리나 임베딩쿼리, 지식임베딩저장, 생성모델조합 등 고려할 사항들을 명확하게 배울 수 있습니다. 고급 RAG 테크닉과 평가 방법까지 다루고 있으므로, 관련 프로젝트의 기본지식을 배양할 수 있습니다.

 

(9장 멀티모달 LLM) 이미지 등 다른 형태의 모달리티를 통합한 LLM을 다룹니다. 비전 트랜스포머(Vision Transformer) 구조를 소개하고 이미지와 텍스트를 동일한 벡터 공간에 임베딩하는 CLIP 등의 모델을 설명합니다.이미지와 관련된 비전+언어 통합 활용사례를 실습하면서 이미지와 텍스트를 함께 이해하는 강력한 응용을 구현할 수 있음을 보여줍니다. 이미지 생성 모델 자체는 다루지 않지만 이미지+텍스트 처리를 융합하는 개념적 토대를 배우게 됩니다.

 

(10장 텍스트 임베딩 모델) 대조학습(Contrastive Learning)을 알아보고 SBERT를 활용해 도메인 특화 문장 모델을 만들어보는, 나만의 임베딩 모델을 학습시키는 고급주제를 다루고 있습니다. 데이터가 많지 않고 특히 라벨된 데이터가 부족한 상황에서 모델 개선에 적용 가능한 비지도 학습 기법 TSDAE도 다룹니다. 도서 내부적으로 파인튜닝 입문에 해당하는 11, 12자의 준비 장으로 꼼꼼한 정독이 필요합니다.

 

(11장 분류용 표현모델 미세 튜닝) BERT와 같은 사전훈련 언어모델을 실제 분류작업에 파인튜닝 하는 방법을 다루고 있습니다. 감성 분류 태스크에 BERT를 미세 튜닝하면서 전층을 다 훈련하는 경우와 일부 레이어만 동결하고 훈련하는 경우를 비교 분석합니다. 개체명 인식(NER) 태스크도 소개되어 단위별 예측을 위해 사전훈련 모델을 활용하는 법을 보여줍니다. GPU 메모리나 데이터 부족 여부에 따라 전체를 미세튜닝할지, 일부층만 미세튜닝할 지 절충안을 비교해 주어 실무에서 현실적인 선택을 하는데 필요한 기본 지식을 배양할 수 있습니다. 또한 NER 사례를 통해 문장 분류 외에 토큰 단위 태스크에도 LLM을 응용하는 확장 사례를 보여줍니다.

 

(12장 생성모델 미세튜닝) GPT와 같은 텍스트 생성 모델을 파인튜닝 방법론을 배울 수 있습니다. LLM을 고품질로 만드는 사전훈련 > 지도학습 기반 미세튜닝 > 선호도 튜닝의 3단계를 개념적으로 설명하면서 프롬프트에 잘 응답하는 모델을 만들기 위한 지도학습 미세튜닝(SFT) 기법과 AI안정성과 사용자 선호를 반영하는 선호도 튜닝(Preference Tuning) 기법을 실습합니다. 최근 주목받고 있는 RLHF(Reinforcement Learning from Human Feedback), DPO(Direct Preference Optimization), 파라미터 휴율적 튜닝(PEFT)도 간략히 다루고 있습니다. ChatGPT가 기반모델을 가지고 어떤 과정을 거쳐 튜닝되었는지 알수 있으며, 작은 모델을 가지고 그 과정을 따라해 보면서 직접 모델 튜닝 파이프라인을 구축합니다. 이 과정을 통해 단순 LLM 사용자에서 직접 개선하는 모델을 만들어 내는 AI 개발자 수준에 도달하게 됩니다.

각 장 마지막에 요약 섹션이 있어 복습하거나 정리하기 좋습니다. 필요한 경우 예를 들어 4장과 11장처럼 서로 관련된 장을 왔다갔다하면서 참고하면 더욱 좋습니다. 관심 분야의 챕터는 반드시 실습 코드를 타이핑해 보면서 자기것으로 만드는 것을 추천합니다.

 

LLM을 깊이 이래하기 위해서는 머신러닝 지식이 있다면 좋습니다. 본 도서도 머신러닝에 대한 배경을 조금은 알고 있다고 가정했기 때문에 완전 초심자여서 진도가 너무 안나간다면 [핸즈온 머신러닝-한빛출판사] 같은 입문서를 먼저 간단히 보는것도 좋습니다. 이를 통해 모델의 학습 및 평가나 과적합 같은 개념을 만들고 이 책을 읽으면 수월합니다. 이 책은 허깅페이스의 Transformers 라이브러리를 활용한 예제가 많이 있습니다. 실무에서도 표준처럼 사용하는 기능이니 이에 대한 지식이 있으면 좋습니다. 이 책을 완독하고 나면 분명 이전보다 한단계높은 수준의 기술 역량을 갖추게 됩니다. 새로운 기술과 개념이 계속 쏟아져 나오는 LLM 학습 여정은 끝이 없는 마라톤과도 같습니다.

 

본 도서는 LLM의 원리와 활용을 한꺼번에 잡아주는 종합 입문서로서 내용적인 면이나 번역의 품질 면에서도 모두 강력히 추천할 만한 합니다. 탄탄한 이론 설명과 실습 위주의 구성, 자세한 삽화와 방대한 시각자료 덕분에 지루하지 않고 몰입하면서 배울수 있고, 읽고 나서는 체계적인 LLM 지식 지도를 머릿속에 그릴 수 있습니다.


"한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다."

- 한빛미디어의 책을 제공받아서 작성한 서평입니다 -

 

자연서 분석 기초에서 부터 Transformer 를 활용한 고급 LLM 및 RAG 까지의 각각의 개념과 동작원리를 공식을 전혀 사용하지 않고 저자가 재 해석한 표 /그래프 를 활용하여 기초부터 고급 기술까지 설명하는 책 입니다.

 

​퍼셉트론 ~ CNN/ RNN 까지의 딥러닝 기초를 한번 쯤 공부해 보신 분들이라면, 훨씬 더 깊숙한 내용들을 이해하실 수 있도록 쉽게 잘 구성되어 있었습니다. 초보자 분들이라면 원리를 대략 이해하실 수 있을 것이고, 고급 전문가 분들이라면 내가 미처 놓치고 있었던 부분이 어떤 내용인지를 확인하실 수 있습니다.

 

- Python  기본문법은 익혀 보신 분
- 딥러닝 기초 공부를 한번 쯤 해 보신 분으로 보다 깊이있는 내용을 다루려고 하시는 분
이중 하나라도 해당 되신다면 많은 도움이 되어 줄 것입니다.

 



"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬받아 작성된 서평입니다."

 

 

안녕하세요, 하루를 기록하는 하루입니다

 

여러분은 인공지능에 대해 얼마나 알고 계시나요

 

다양한 직업군들이 인공지능을 활용하고 있는데요

 

인공지능을 활용하는 분들은 챗 GPT는 알고 계실 텐데요

 

그렇다면 LLM도 알고 계시나요?

 

우리가 흔히 알고 있는 Chat GPT(챗 GPT), Gemini, Claude, Perplexity (인공지능 4대 천왕)

 

들이 모두 LLM을 기반으로 만들어졌답니다

 

그래서 LLM은 개발자들 사이에서 가장 뜨거운 키워드입니다

 

챗 GPT를 필두로 AI 기술이 우리 삶 깊숙이 들어오면서, LLM은 이제 개발자뿐만 아니라 일반인 심지어 학생들에게도 필수적인 지식이 되어가고 있습니다.

 

저 역시 학생 때와 다르게 IT 스타트업에서 LLM 관련 프로젝트를 진행하며 그 중요성을 더욱 실감하고 있는데요.

 

오늘은 넓은 LLM의 바다에서 길을 잃지 않도록 든든한 등대가 되어줄 한 권의 책

 

한빛미디어의 [핸즈온 LLM]을 소개하려 합니다

 

"LLM? 그거 그냥 챗 GPT 쓰는 거 아니야?"라고 생각하는 분들부터, "LLM 프로젝트, 어떻게 시작해야 할지 막막한데..." 하고 고민하는 분들까지, 모든 독자분들을 위해 솔직하고 자세한 리뷰를 남겨볼게요!

 

우선, "이 책, 왜 읽어야 할까요?" (LLM 왕초보도 OK!)

"LLM? 그거 너무 어려워 보여요. 저는 코딩도 잘 모르고, AI는 더더욱..." 이렇게 생각하시는 분들, 걱정 마세요! [핸즈온 LLM]은 친절한 과외 선생님처럼 LLM의 세계로 안내합니다.

 

1. LLM, 개념부터 차근차근!

이 책은 LLM이 무엇인지, 어떻게 작동하는지, 그리고 왜 그렇게 강력한지 기본적인 개념부터 아주 쉽게 설명해 줍니다.

 

'인공지능', 'BoW', 'RAG' 같은 어려운 용어들도 비유와 그림을 통해 머리에 쏙쏙 들어오도록 구성되어 있어요.

 

마치 복잡한 기계의 원리를 그림책 보듯이 이해하는 느낌이랄까요?

 

단순히 이론만 나열하는 것이 아니라, LLM이 우리 주변에서 어떻게 활용되는지 실제 사례를 들어 설명해 주니, "아하! 그래서 LLM이 중요하구나!" 하고 이해할 수 있을 거예요

 

2. '핸즈온'의 진수! 직접 만져보며 배우는 즐거움

 

책 제목이 [핸즈온 LLM]인 만큼, 이 책의 가장 큰 장점은 바로 실습 위주라는 점입니다.

 

단순히 읽고 끝나는 책이 아니라, 독자들이 직접 코드를 따라 치고 결과를 확인하며 LLM을 '경험'하게 해줍니다.

 

구글 코랩(Colab) 환경 활용: 복잡한 개발 환경 설정 없이, 웹 브라우저만 있으면 바로 실습할 수 있도록 구글 코랩을 활용합니다. 컴퓨터 사양이 좋지 않아도, 개발 환경 세팅에 시간을 낭비하지 않아도 된다는 점이 정말 큰 장점이에요!

 

단계별 설명: 각 실습 단계마다 상세한 설명과 코드, 그리고 결과 화면까지 제공되어 막힘없이 따라갈 수 있습니다. 마치 옆에서 누가 "다음은 이거, 그다음은 저거!" 하고 알려주는 것 같아요.

 

다양한 예제: 언어 모델을 이해하고, 사전 훈련된 언어 모델을 사용하고, 언어 모델 훈련 및 미세 튜닝을 통해 LLM에 관련된 전반적인 내용들을 공부할 수 있어요

 

LLM에 대한 막연한 두려움을 가지고 계셨다면, 이 책을 통해 '나도 LLM을 다룰 수 있네?'라는 자신감을 얻게 될 거예요.

 

만약 LLM을 이미 잘 아는 분이라면 이 책이 필요한 이유!

 

"나는 이미 LLM 프로젝트 경험도 있고, 웬만한 개념은 다 아는데?"라고 생각하는 숙련된 개발자분들께도 [핸즈온 LLM]은 충분히 가치 있는 책입니다.

 

1. RAG, 텍스트 임베딩 모델 만들기, 파인튜닝 등 핵심 기술의 깊이 있는 실습

LLM의 실질적인 활용을 위해서는 '검색 증강 생성(RAG)', '파인튜닝(Fine-tuning)', 'LLM 에이전트'와 같은 고급 기술들을 이해하고 구현할 수 있어야 합니다. 이 책은 이 핵심 기술들을 이론적으로만 설명하는 데 그치지 않고, 실제 코드를 통해 어떻게 구현하는지 상세하게 보여줍니다.

 

RAG 구현의 A to Z: 특히 RAG(Retrieval-Augmented Generation)는 요즘 LLM 프로젝트의 필수 요소라고 할 수 있죠. 이 책은 RAG의 개념부터 시작해, 벡터 데이터베이스 구축, 임베딩 모델 활용, 실제 검색 및 생성 과정까지 모든 단계를 직접 구현해 보도록 안내합니다. 기존 지식을 더욱 단단하게 다지고, 실제 프로젝트에 바로 적용할 수 있는 노하우를 얻을 수 있을 거예요.

 

파인튜닝 실전: 특정 도메인에 특화된 LLM을 만들고 싶을 때 필요한 파인튜닝 기법도 실습 위주로 다룹니다. 이론만으로는 부족했던 '어떻게'에 대한 갈증을 해소해 줄 겁니다.

 

LLM 에이전트 개발: LLM이 단순한 챗봇을 넘어 스스로 생각하고 행동하는 '에이전트'로 발전하는 과정까지 다룹니다. 복잡한 문제를 LLM이 해결하도록 설계하는 방법에 대한 실마리를 제공하여, 더 고도화된 LLM 애플리케이션 개발에 영감을 줄 것입니다.

 

2. 최신 트렌드와 실전 노하우 습득

LLM 분야는 워낙 빠르게 발전하고 있기 때문에, 최신 트렌드를 따라가는 것이 중요합니다. [핸즈온 LLM]은 단순히 옛날 기술을 나열하는 것이 아니라, RAG, 에이전트 등 현재 활발히 연구되고 적용되는 기술들을 중심으로 설명합니다.

 

3. 지식의 재정비 및 새로운 관점 제시

이미 LLM에 대한 지식이 풍부하더라도, 이 책을 통해 자신의 지식을 체계적으로 재정비하고 미처 생각하지 못했던 새로운 관점을 얻을 수 있습니다. 특히 다양한 실습 예제들은 새로운 아이디어를 떠올리게 하거나, 기존 프로젝트에 적용할 수 있는 새로운 접근법을 모색하는 데 도움이 될 것입니다.

 

이런 분들께 추천합니다

 

LLM이 무엇인지 궁금하지만 어디서부터 시작해야 할지 막막한 분 (LLM 왕초보, 비개발자)

 

챗 GPT는 써봤지만, LLM을 더욱 자세히 알고 싶으신 분

 

LLM 관련 프로젝트를 시작해야 하는데, 실질적인 가이드라인이 필요한 개발자 (초급~중급 개발자)

 

RAG, 파인튜닝 등 LLM 핵심 기술의 실제 구현 방법을 알고 싶은 분 (숙련된 개발자)

 

LLM 분야의 최신 트렌드를 실습과 함께 익히고 싶은 분

 

[핸즈온 LLM]은 단순히 LLM에 대한 지식을 전달하는 것을 넘어, 독자들이 직접 LLM을 '만져보고', '경험'하며 LLM 지식과 실전 역량을 만들 수 있도록 이끌어주는 훌륭한 가이드북입니다.

 

인공지능 시대 특히 핫한 LLM에 대해 자세히 알고 싶다면 이 책을 통해 LLM을 직접 느껴보시길 추천합니다!

 

저도 이 책을 통해 얻은 지식과 경험을 바탕으로 스타트업에서 업무에 더욱 활용해서 LLM을 효과적으로 접목할 수 있도록 노력할 예정입니다.

 

여러분도 [핸즈온 LLM]과 함께 LLM 전문가로 한 걸음 더 나아가세요!



 "한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

오늘은 한빛미디어에서 발간한 '핸즈온 LLM' 책 서평을 작성해보겠습니다!!


지난 도서리뷰에 이어서 동일한 LLM 분야의 책인데욥

지난 리뷰에서도 언급했듯이 저에 대해 간단히 소개하자면, 요즘 LLM이 핫하다길래 관심은 있어 어디서 주워들은 지식은 있으나 체계적으로 공부해본 적은 없는 초보라고 할 수 있는데요

이번 도서도 동일하게 LLM 초보자의 입장에서 해당 책을 리뷰해도록 하겠습니다

 

결론부터 말하자면 이 책 매우매우 강추합니다!

(입문자분들이 모두모두 꼭 봤으면 하는 거즘 LLM분야 수학의 정석 느낌의 책이랄까)

 

# 책 구성 

 

해당 책의 목차는 다음과 같은데요

 

크게 3파트로 구분됩니다! 

1부 언어 모델 이해하기
2부 사전 훈련된 언어 모델 사용하기
3부 언어 모델 훈련 및 미세 튜닝

 

1부에서는 LLM을 본격적으로 다루기 전에, 언어 AI의 역사를 처음부터 차근차근 다루고 있는데욥

 

해당 파트는 한빛미디어 사이트에서 매우 잘 요약되어 있도라구욥 책을 읽기전에 한번 훑어보는 것도 추천드립니다!

 

https://www.hanbit.co.kr/channel/view.html?cmscode=CMS5257791337

기초부터 LLM까지의 여정 - 이미지로 보는 언어 AI의 역사

[인공 지능]은 지능적인 기계, 특히 지능적인 컴퓨터 프로그램을 만드는 과학과 공학입니다. 인공 지능 분야는 컴퓨터를 활용해 인간 지능이 어떻게 작동하는지 이해하려고 연구합니다. 하지만

www.hanbit.co.kr

 

이후엔 LLM의 중요 개념들인 토큰, 임베딩, 트랜스포머 모델의 작동 원리에 대해 구체적으로 소개하는데요 
수식적은 부분은 하나도 없이 그림을 통해 핵심 개념들을 매우 쉽게 설명해줍니다! 

 

 

2부에서는 LLM을 어떻게 활용할 수 있는지 다양한 태스크들을 예시 코드와 함께 제시해주고 있는데요

 

영화리뷰 데이터 셋을 이용한 텍스트 분류, LLM의 성능을 극대화하기 위한 프롬프트 엔지니어링, LLM의 환각(hallucination) 문제를 해결하기 위한 RAG, CLIP 모델을 이용한 멀티모달 등 다양한 예제를 예시 코드를 통해 직접 파이썬 환경에서 직접 따라하면서 구현해 볼 수 있습니다! 

 

3부에서는 자신만의 LLM을 만들거나 특정 목적에 맞게 조정(파인튜닝)하고 싶은 분들을 위한 고급 주제를 다룹니다

 

텍스트 임베딩 모델을 훈련하고, BERT, TSDAE와 같은 기법을 사용하여 임베딩의 품질을 향상시키는 방법이나 

표현모델(인코더 기반) / 생성모델(디코더 기반) 각각의 모델들을 분류나 개체명 인식 / 지도 학습, 선호도 기반 학습, QLoRA 등의 기법들을 통해 파인튜닝하는 방법들을 소개합니다! 

 

# 그래서 누구에게 추천하는가? 

이 책의 장점을 간단히 말하자면

 

- LLM 분야를 톺아볼 수 있는  포괄적인 내용 (이론부터 활용까지)

- 이미지를 통한 직관적인 설명

- 실습 가능한 예제 코드 (모든 예제를 구글 코랩 무료 GPU환경에서 실습 가능)

 

요로코롬 정리할 수 있는데요

LLM에 관심이 생겼지만, 어떻게 시작해야 할지 모르는 입문자분들께 더할나위 없는 책이라고 할 수 있겠네욥! 

한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다.

 

1. 도서 선택 이유

본격적으로 언어모델에 대한 업무를 수행하며 보다 깊은 이해가 필요하기 시작했다. 단순하게 지피티나 gemini와 같은 대형언어모델의 API를 통해 서비스를 구축하는 것이 아니라 소형언어모델을 이용해 분류를 한다던가 (당장 할지 안할지는 모르겠지만) 미세 튜닝까지 염두에 두어야 하는 상황이다.

지식을 배우기 위해 역시 최적의 방법은 책과 강의지 않나 싶다. 업무를 하며 IT 지식이 궁금할 때 빠르게 생성언어모델에게 물어보며 익히고는 있지만, 책이나 강의에서 제공하는 체계적인 깊이를 따라가기엔 아직 부족하지 않나 싶다. 언어 모델에 대한 깊은 이해, 특히 튜닝과 관련해 니즈가 생길 시점에 좋은 기회로 한빛미디어에서 핸즈온 LLM 도서를 제공 받았다.

2. 목차와 주요 내용 소개

본 도서는 크게 세 챕터로 구성되어있다. 1부는 대규모 언어모델의 동작 원리에 대해서, 2부는 분류, RAG 등다양한 사용 사례에 맞게 대규모 언어 모델을 사용하는 법에 대해서, 마지막으로 3부는 대규모 언어 모델을 훈련 및 미세 튜닝하는 방법에 대해 설명한다.

2.1. 1부: 언어 모델 이해하기

1부는 언어 모델에 대한 일반적인 이해로 시작한다. 어텐션 메커니즘의 등장부터 최근 각광 받고 있는 오픈소스 언어모델까지 개론적인 이해를 할 수 있도록 돕는다. 이후에는 핵심요소인 토큰화와 임베딩을 주의 깊게 살펴보고, 이후에는 트랜스포머 구조에 대해 자세하게 살펴본다.

내가 언어모델을 처음으로 익힌 게 2년 전이었다. 오랜만에 들여다보니 헷갈리는 부분도 있고 처음보는 개념도 있어서(그 사이에 새로 나온 개념이라기보다 개인적으로는 처음 보는 개념들..) 복습 겸 학습에 도움이 되었다. 특히 이미지로 개념을 쉽게 전달하려는 노력이 돋보였다. 아무래도 텍스트나 코드만으로 정보를 전달하기에는 어려운 부분이 분명히 있다보니, 이런 이미지를 활용하려는 구성이 큰 장점으로 느껴졌다.

2.2. 2부: 사전 훈련된 언어 모델 사용하기

2부는 일반적인 사례에서 LLM을 사용하는 방법들을 다룬다. 나는 특히 6장 프롬프트 엔지니어링, 7장 고급 텍스트 생성 기술과 도구를 눈여겨 봤다.

6장 내용인 프롬프트 엔지니어링은 나름 체계가 있으면서도 명확한 답이 없는 예술 영역이지 않나 싶다. 언어모델에게 시키려는 일과 예시, 제약사항 등을 나름 잘 따라서 작성했음에도 불구하고 대충 쓴 초안보다 결과가 못할 때도 있어서 쉽지 않다. 저자가 212페이지에서 언급했듯, “프롬프트 구성은 기본적으로 반복적인 실험 과정”이다. 그럼에도 실험을 하며 최적을 찾아야하는 것이 업무이니.. 할 일은 해야지? 최근에 작업 중인 프롬프트에서 예시를 다양화하고 생각 단계도 함께 제안했는데 내용이 너무 길어진 것이 문제인지(하필 소형언어모델을 테스트하고 있다) 오히려 짧았던 버전보다 결과가 좋지 않았다. 출근하게 되면 Let's think step-by-step을 꼭 추가해야겠다.
 

7장에서는 대화요약과 에이전트 내용이 도움되었다. 현재 구축한 챗봇에서는 window 사이즈로 제공하는 정보를 제한하고 있는데, 아무래도 더 앞단의 내용은 제외되다보니, 좀더 상호작용이 될 수 있는 챗봇을 만들기 위해서는 이후에 요약 기능을 넣어야 되지 않을까 싶다(그런데 생각해보니 다른 레퍼런스들은 매 세션마다 초기화되었던 것 같아서.. 챗봇을 놓을 플랫폼에 따라 도입을 고민해볼 필요는 있겠다..) 또한 에이전트의 경우, 요즘 너무 빼놓을 수 없는 주제여서 관심을 갖고 보았다. Langchain과 검색 도구를 이용해 에이전트를 만드는 예제와 함께 설명을 해주었는데, 제안하는 ReAct 프롬프트는 한번 테스트해보면 재밌을 것 같다. 프롬프트에는 "repeat N times"라고 써있는데 호출 횟수와 비용을 아끼려면 횟수는 제한하는 게 좋지 않을까 싶다.

2.3. 3부: 언어 모델 훈련 및 미세 튜닝

3부에서는 베이스모델을 직접 응용하는 내용을 소개한다. 직접 데이터를 이용해 임베딩 모델을 튜닝하거나, 소량의 데이터로 효율적으로 미세 튜닝하는 법, 지시에 더 잘 따르게 하는 지도 학습 미세 튜닝 등을 다룬다. 최근에 다른 강의에서 PEFT, QLoRA와 같은 개념들에 대해 실습 없이 개념만 익혔었는데, 이 책에서는 트랜스포머, peft 라이브러리를 이용한 실전 코드 예제를 소개하고 있어서 유익했다. 데이터를 수집하는 작업이 워낙 공수가 필요해서 당장 업무에 쓰이지는 못하겠지만, 향후에 필요할 수 있으니 테스트하며 익혀보면 좋을 것 같다.

3. 도서의 장단점
3.1. 좋았던 점
이미 앞서 언급했지만, 트랜스포머 같은 핵심 기술들을 이미지로 설명해주는 구성이 특히 마음에 들었다. 아무래도 텍스트보다 시각적으로 보는 게 이해에 훨씬 도움이 되는데, 이 책은 그 점을 잘 챙겨준다.

그리고 특정 개념이 나올 때마다 논문, 깃허브, 공식 페이지 등의 링크를 같이 제공해줘서, 검색이나 레퍼런스 정리에 시간을 아낄 수 있었다. (다만 구글플레이 어플로 읽다보면 드래그 선택이 좀 불편하긴 하다… 이건 어플 문제라 감안하고 봐야 할 듯. 웹을 사용하면 좀 더 접근이 편하긴 하다.) 이걸 하나하나 다 읽어보기는 힘들겠지만 특별히 관심있는 영역이 있다면 저자가 첨부한 링크를 따라가서 공부해도 좋겠다.

무엇보다 책을 다 읽고 나니까, 이전보다 실무에서 언어모델을 좀 더 자신 있게 적용할 수 있겠다는 느낌이 들었다. 막연했던 개념들이 정리되고, “아 이건 이렇게 써먹을 수 있겠구나” 하는 감각이 생겼다고 봐도 좋겠다.

3.2. 아쉬웠던 점

외서이고, 언어모델을 다루는 책이다 보니 예제 문장이 외국어인 건 이해한다. 다만 이전에 봤던 책 중엔 코드 예제까지 한글로 번역해준 경우도 있어서, 비교되긴 했다. 영어가 어렵다기보다는, 읽다가 ‘아 이게 무슨 의미지?’ 하고 한번 더 생각해야 하는 그 흐름 끊김이 좀 아쉬웠다.

그리고 6.5.2 ‘출력 검증 - 문법: 제약 샘플링’ 파트에서는 structured output 관련 내용을 다루고 있는데, 이 원리에 대한 설명이나 예시가 조금 더 자세히 나왔으면 어땠을까 싶다. 프로덕션에서는 언어모델을 기존 시스템과 연결할 때 structured output이 엄청 중요하게 쓰여서 많이들 알고가면 더 좋을 것 같다. 초심자들이 그 포인트를 잘 챙기면 좋을 것 같아서, 혹시 필요할 분들을 위해 허깅페이스에서 잘 정리한 자료도 같이 첨부해둔다.

4. 총평

언어모델을 실무에 적용하고자 하거나, 언어모델에 대한 체계적이고 자세한 이해가 필요한 개발자, 데이터 사이언티스트이라면 꼭 한 번 읽어볼만한 책이었다. 단순히 모델을 사용하는 수준이 아니라 구조와 튜닝까지 다루기 때문에, 향후 적용 범위를 넓히려는 사람(바로 나)이라면 특히 더 유용할 것이다. 많은 개념이 등장하여 FOMO를 느낄 수도 있겠지만.. 차근차근 따라가면 분명히 얻어가는 것이 많을 책이다. 이미 머신러닝, AI에 대한 선수지식이 있는 사람이라면 크게 어렵지 않게 따라갈 것이다. 완벽하진 않지만 책을 한차례 보고 나니, "이제 언어모델을 더 잘 써볼 수 있겠다"라는 자신감을 얻었다는 점에서 이 책은 충분히 좋은 선택이었다.

 

"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

최근 인공지능이 산업 전반에 걸쳐 핵심 기술로 자리 잡으면서, 그중에서도 특히 "대화형 AI"가 대중과 업계의 주목을 받고 있다. GPT-3 같은 대규모 언어 모델(LLM)이 보여주는 학습 능력과 생성력은 그야말로 신기에 가까웠다. 하지만 그 기술이 어떻게 작동하는지 궁금했지만 막연한 부담감에 깊이 들여다보지 못했었다. 그런데 출판사 서평단 도서 목록에서 이책을 보며 “직접 해보며 배우라”는 메시지가 느껴졌다. AI 관련 서적은 종종 이론만 나열하거나, 지나치게 어려운 수식으로 가득해 학습 의욕을 꺾기도 하지만, 이 책은 분명 다른 접근을 할 것 같다는 기대감이 들었다.

처음에 LLM의 작동 원리부터 시작해, 토큰화나 임베딩 같은 기술적 개념을 차근차근 설명한다. 특히 “언어 AI란 무엇인가”라는 질문으로 시작하는 1장은, 마치 친근한 친구가 AI의 역사와 핵심 개념을 풀어주는 듯한 서술로 몰입을 이끈다.

2부는 한층 더 흥미로웠다. 영화 리뷰 데이터셋을 활용해 텍스트 분류를 배우거나, 프롬프트 엔지니어링을 통해 AI의 응답 결과를 조정하는 법 등, 실생활에서 LLM을 활용할 수 있는 구체적인 예제들이 가득했다. 특히, AI가 왜 특정 응답을 생성했는지를 이해하는 프롬프트 엔지니어링 과정은 마치 AI와의 대화를 ‘튜닝’하는 듯한 재미를 느꼈다.

3부에서는 한 걸음 더 나아가 직접 LLM을 훈련시키고 미세 튜닝까지 할 수 있는 방법을 소개한다. SBERT로 텍스트 임베딩을 만들고, RLHF(Reinforcement Learning from Human Feedback)를 통해 AI의 응답을 인간 피드백 기반으로 개선하는 과정은, 마치 ‘내가 만든 AI’라는 성취감을 느끼게 했다.

이 책을 읽으며, 단지 AI 지식을 얻는 것을 넘어, 기술에 대한 두려움을 줄이고 실제 프로젝트에 적용할 수 있을 것 같은 자신감도 얻게 되었다. 기회가 된다면 LLM을 활용해 텍스트 자동 분류, 챗봇 시스템 구축 같은 현실적인 프로젝트를 직접 해보고 싶어졌다.

핸즈온 LLM은 작동 원리를 이해하고, 이를 자신의 프로젝트에 적용할 수 있도록 돕는 현실적인 내용이 담겨있었다. AI에 대한 흥미와 열정이 있는 사람이라면 그 열정을 현실로 연결해 줄 좋은 기회가 되리라 본다..

"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

오라일리의 핸즈온 시리즈면 사실 고민할 필요 없이 좋은 책이다.

핸즈온 머신러닝 책으로 도움을 많이 받았는데, 생성형AI와 LLM 이 따로 출간되었다.

머신러닝과 LLM은 믿고보는 박해선님이 번역하셨다.

 

 

머신러닝 기본기를 다지고 딥러닝으로 넘어가는 과정에서 트랜스포머와 어텐션 과정이 궁금해서 이 책을 골랐다.

아직까지 LLM을 직접 구현할 일은 없지만 내부 구조가 어떻게 이루어지는지는 궁금했었다

계산과정에 대한 설명부터 도식화된 이해자료가 정말 좋았다.

그렇다고 100% 이해하진 못했다는 건.. 아직 부족하다는 얘기겠지.. 여러번 봐야겠다.

 

 

특히 이 부분. 셀프 어텐션에 대해 이렇게 친절하게 설명할 수 있을까?

Sarah fed the cat because it ~이 문장에서 it 다음 문장을 예측하려면 it이 의미하는 게 the cat 이라는 걸 판단해야 한다. 

투영 행렬을 통해 관련성 점수를 계산하는 것을 설명해주는데, 한 단계 더 들어가서 설명해줬으면 하는 아쉬움은 있다.

 

 

제품 이름과 슬로건을 통해 홍보 문구를 만드는 부분을 프롬프트 체인으로 설명한다. 

복잡한 코드 대신 간단히 결과를 확인할 수 있는 수준의 코드 레벨이다.

 

 

1부 언어 모델 이해하기

2부 사전 훈련된 언어 모델 사용하기

3부 언어 모델 훈련 및 미세 튜닝

세상에 공부할게 너무 많다. LLM의 도움을 받으면서 하나씩 독파해보자.

e

e
정가 30,400원
판매가
30,400원
총 결제 금액 30,400원
dropdown arrow
  • 소장/대여 옵션 선택
  • 소장
  • 365일
    30% 할인
  • 180일
    40% 할인
  • 90일
    50% 할인
  • 30일
    60% 할인

마이한빛 > MY 콘텐츠에서 웹뷰어로 바로 이용가능한 상품이며 배송되지 않습니다.

리뷰쓰기

닫기
* 상품명 :
핸즈온 LLM
* 제목 :
* 별점평가
* 내용 :

* 리뷰 작성시 유의사항

글이나 이미지/사진 저작권 등 다른 사람의 권리를 침해하거나 명예를 훼손하는 게시물은 이용약관 및 관련법률에 의해 제재를 받을 수 있습니다.

1. 특히 뉴스/언론사 기사를 전문 또는 부분적으로 '허락없이' 갖고 와서는 안됩니다 (출처를 밝히는 경우에도 안됨).
2. 저작권자의 허락을 받지 않은 콘텐츠의 무단 사용은 저작권자의 권리를 침해하는 행위로, 이에 대한 법적 책임을 지게 될 수 있습니다.

오탈자 등록

닫기
* 도서명 :
핸즈온 LLM
* 구분 :
* 상품 버전
종이책 PDF ePub
* 페이지 :
* 위치정보 :
* 내용 :

도서 인증

닫기
도서명*
핸즈온 LLM
구입처*
구입일*
부가기호*
부가기호 안내

* 온라인 또는 오프라인 서점에서 구입한 도서를 인증하면 마일리지 500점을 드립니다.

* 도서인증은 일 3권, 월 10권, 년 50권으로 제한되며 절판도서, eBook 등 일부 도서는 인증이 제한됩니다.

* 구입하지 않고, 허위로 도서 인증을 한 것으로 판단되면 웹사이트 이용이 제한될 수 있습니다.

닫기

해당 상품을 장바구니에 담았습니다.이미 장바구니에 추가된 상품입니다.
장바구니로 이동하시겠습니까?