『모두의 딥러닝 - 머신러닝과 딥러닝 기본』은
수학과 프로그래밍에 대한 부담 없이도 인공지능의 핵심 개념을 익힐 수 있도록 설계된 딥러닝 입문 강의입니다.
이 강의는 머신러닝의 기본 원리부터 인공신경망의 구조와 학습 방식, 그리고 실제 모델이 학습하고 예측하는 전 과정을 구현을 통해 경험할 수 있도록 안내합니다. 넘파이(Numpy)를 활용한 수식 없는 실습 중심 설명과 함께, 퍼셉트론, 오차 역전파, 활성화 함수 등의 개념이 하나씩 쌓이며 자연스럽게 이해되도록 구성되어 있습니다. MNIST 손글씨 숫자 분류 문제를 비롯해, 실제 데이터를 다루며 모델을 만드는 과정을 직접 코딩해보며 딥러닝의 흐름을 몸으로 익히게 됩니다.
개념 → 시각적 설명 → 실습의 3단계 흐름으로, 학습자가 딥러닝 모델의 작동 원리를‘이해하고 설명할 수 있는 수준까지 끌어올립니다.
딥러닝의 본질이 궁금하다면, 지금 이 강의가 그 질문에 가장 친절한 답이 되어줄 것입니다.
1 | 1. 수업 소개와 개요 | 10:05 |
2 | 2.1. 기본적인 Machine Learnig의 용어와 개념 설명 | 12:29 |
3 | 2.2. [Lab 1] TensorFlow의 설치 및 기본적인 operations | 17:30 |
4 | 3.1. Linear Regression의 Hypothesis와 cost | 13:30 |
5 | 3.2. [Lab 2] Tensorflow로 간단한 linear regression 구현하기 | 15:11 |
6 | 4.1. Linear Regression의 cost 최소화 알고리즘의 원리 | 16:12 |
7 | 4.2. [Lab 3] TensorFlow로 Linear Regression의 cost 최소화 구현하기 | 15:33 |
8 | 5.1. multi-variable linear regression | 17:45 |
9 | 5.2. [Lab 4-1] TensorFlow로 multi-variable linear regression 구현하기 | 8:02 |
10 | 5.3. [Lab 4-2] TensorFlow로 파일에서 데이타 읽어오기 | 13:23 |
11 | 6.1. Logistic Classification의 가설 함수 | 14:57 |
12 | 6.2. Logistic Regression의 cost 함수 | 14:24 |
13 | 6.3. [Lab 5] TensorFlow로 Logistic Classification 구현하기 | 15:42 |
14 | 7.1. Multinomial 개념 | 10:17 |
15 | 7.2. Cost 함수 | 15:36 |
16 | 7.3. [Lab 6-1] TensorFlow로 Softmax Classification 구현하기 | 12:41 |
17 | 7.4. [Lab 6-2] TensorFlow로 Fancy Softmax Classification 구현하기 | 16:31 |
18 | 8.1. 학습 rate, Overfitting, 그리고 일반화 (Regularization) | 14:02 |
19 | 8.2. Training/Testing 데이타 셋 | 9:21 |
20 | 8.3. [Lab 7-1] training/test dataset, learning rate, normalization | 11:02 |
21 | 8.4. [Lab 7-2] Meet MNIST Dataset | 13:09 |
22 | 9.1. 딥러닝의 기본 개념 1: 시작과 XOR 문제 | 17:42 |
23 | 9.2. 딥러닝의 기본 개념 2: Back-propagation과 2006/2007‘딥’의 출현 | 12:37 |
24 | 9.3. [Lab 8] Tensor Manipulation | 26:14 |
25 | 10.1. XOR 문제 딥러닝으로 풀기 | 15:03 |
26 | 10.2. 특별편: 10분 안에 미분 정리하기 | 9:29 |
27 | 10.3. 딥네트워크 학습 시키기 (backpropagation) | 18:28 |
28 | 10.4. [Lab 9-1] XOR을 위한 텐서플로우 딥네트워크 | 12:29 |
29 | 10.5. [Lab 9-2] Tensor Board로 딥네트워크 들여다보기 | 12:07 |
30 | 11.1. XSigmoid 보다 ReLU가 더 좋아 | 17:30 |
31 | 11.2. Weight 초기화 잘해보자 | 12:18 |
32 | 11.3. Dropout과 앙상블 | 9:56 |
33 | 11.4. 레고처럼 네트워크 모듈을 마음껏 쌓아 보자 | 5:09 |
34 | 11.5. [Lab 10] 딥러닝으로 MNIST 98%이상 해보기 | 14:35 |
35 | 12.1. ConvNet의 Conv 레이어 만들기 | 16:22 |
36 | 12.2. ConvNet Max pooling과 Full Network | 5:33 |
37 | 12.3. ConvNet의 활용 예 | 12:31 |
38 | 12.4. [Lab 11-1] TensorFlow CNN의 기본 | 16:30 |
39 | 12.5. [Lab 11-2] TensorFlow로 MNIST 99% 구현하기 | 12:37 |
40 | 12.6. [Lab 11-3] Class, tf.layers, Ensemble (MNIST 99.5%) | 10:07 |
41 | 13.1. NN의 꽃 RNN 이야기 | 19:43 |
42 | 13.2. [Lab 12-1] RNN - Basic | 12:34 |
43 | 13.3. [Lab 12-2] RNN - Hi Hello Training | 14:52 |
44 | 13.4. [Lab 12-3] Long Sequence RNN | 11:19 |
45 | 13.5. [Lab 12-4] Stacked RNN + Softmax Layer | 11:08 |
46 | 13.6. [Lab 12-5] Dynamic RNN | 4:08 |
47 | 13.7. [Lab 12-6] RNN with Time Series Data | 10:16 |
48 | 14. [보너스 1] Deep Deep Network AWS에서 GPU와 돌려보기 (powered by AWS) | 18:13 |
49 | 15. [보너스 2] AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기 (powered by AWS) | 17:58 |
50 | 16. [보너스 3]Google Cloud ML을 이용해 TensorFlow 실행하기 | 21:31 |
서지영