한빛 로고
내 콘텐츠장바구니
no Image fallback
대표이미지

모두를 위한 딥러닝 - 머신러닝과 딥러닝 기본

강사Sung Kim (김성훈)
50강(11:26:21)
초중급
기간무제한
수강료100,000
할인가0

딥러닝, 꼭 어려워야 할까?


『모두의 딥러닝 - 머신러닝과 딥러닝 기본』은 
수학과 프로그래밍에 대한 부담 없이도 인공지능의 핵심 개념을 익힐 수 있도록 설계된 딥러닝 입문 강의입니다. 

이 강의는 머신러닝의 기본 원리부터 인공신경망의 구조와 학습 방식, 그리고 실제 모델이 학습하고 예측하는 전 과정을 구현을 통해 경험할 수 있도록 안내합니다. 넘파이(Numpy)를 활용한 수식 없는 실습 중심 설명과 함께, 퍼셉트론, 오차 역전파, 활성화 함수 등의 개념이 하나씩 쌓이며 자연스럽게 이해되도록 구성되어 있습니다. MNIST 손글씨 숫자 분류 문제를 비롯해, 실제 데이터를 다루며 모델을 만드는 과정을 직접 코딩해보며 딥러닝의 흐름을 몸으로 익히게 됩니다.
개념 → 시각적 설명 → 실습의 3단계 흐름으로, 학습자가 딥러닝 모델의 작동 원리를‘이해하고 설명할 수 있는 수준까지 끌어올립니다. 

 

딥러닝의 본질이 궁금하다면, 지금 이 강의가 그 질문에 가장 친절한 답이 되어줄 것입니다.


강사

Sung Kim (김성훈)

Sung Kim (김성훈)

Hong Kong University of Science and Technology 에서 컴퓨터 공학쪽으로 연구를 하고 있습니다.

커리큘럼

재생 2.2. [Lab 1] TensorFlow의 설치 및 기본적인 operations2.2. [Lab 1] TensorFlow의 설치 및 기본적인 operations

17:30

재생 3.1. Linear Regression의 Hypothesis와 cost3.1. Linear Regression의 Hypothesis와 cost

13:30

재생 3.2. [Lab 2] Tensorflow로 간단한 linear regression 구현하기3.2. [Lab 2] Tensorflow로 간단한 linear regression 구현하기

15:11

재생 4.1. Linear Regression의 cost 최소화 알고리즘의 원리4.1. Linear Regression의 cost 최소화 알고리즘의 원리

16:12

재생 4.2. [Lab 3] TensorFlow로 Linear Regression의 cost 최소화 구현하기4.2. [Lab 3] TensorFlow로 Linear Regression의 cost 최소화 구현하기

15:33

재생 5.1. multi-variable linear regression5.1. multi-variable linear regression

17:45

재생 5.2. [Lab 4-1] TensorFlow로 multi-variable linear regression 구현하기5.2. [Lab 4-1] TensorFlow로 multi-variable linear regression 구현하기

08:02

재생 5.3. [Lab 4-2] TensorFlow로 파일에서 데이타 읽어오기5.3. [Lab 4-2] TensorFlow로 파일에서 데이타 읽어오기

13:23

재생 6.1. Logistic Classification의 가설 함수6.1. Logistic Classification의 가설 함수

14:57

재생 6.2. Logistic Regression의 cost 함수6.2. Logistic Regression의 cost 함수

14:24

재생 6.3. [Lab 5] TensorFlow로 Logistic Classification 구현하기6.3. [Lab 5] TensorFlow로 Logistic Classification 구현하기

15:42

재생 7.1. Multinomial 개념7.1. Multinomial 개념

10:17

재생 7.2. Cost 함수7.2. Cost 함수

15:36

재생 7.3. [Lab 6-1] TensorFlow로 Softmax Classification 구현하기7.3. [Lab 6-1] TensorFlow로 Softmax Classification 구현하기

12:41

재생 7.4. [Lab 6-2] TensorFlow로 Fancy Softmax Classification 구현하기7.4. [Lab 6-2] TensorFlow로 Fancy Softmax Classification 구현하기

16:31

재생 8.1. 학습 rate, Overfitting, 그리고 일반화 (Regularization)8.1. 학습 rate, Overfitting, 그리고 일반화 (Regularization)

14:02

재생 8.2. Training/Testing 데이타 셋8.2. Training/Testing 데이타 셋

09:21

재생 8.3. [Lab 7-1] training/test dataset, learning rate, normalization8.3. [Lab 7-1] training/test dataset, learning rate, normalization

11:02

재생 8.4. [Lab 7-2] Meet MNIST Dataset8.4. [Lab 7-2] Meet MNIST Dataset

13:09

재생 9.1. 딥러닝의 기본 개념 1: 시작과 XOR 문제9.1. 딥러닝의 기본 개념 1: 시작과 XOR 문제

17:42

재생 9.2. 딥러닝의 기본 개념 2: Back-propagation과 2006/2007‘딥’의 출현9.2. 딥러닝의 기본 개념 2: Back-propagation과 2006/2007‘딥’의 출현

12:37

재생 9.3. [Lab 8] Tensor Manipulation9.3. [Lab 8] Tensor Manipulation

26:14

재생 10.1. XOR 문제 딥러닝으로 풀기10.1. XOR 문제 딥러닝으로 풀기

15:03

재생 10.2. 특별편: 10분 안에 미분 정리하기10.2. 특별편: 10분 안에 미분 정리하기

09:29

재생 10.3. 딥네트워크 학습 시키기 (backpropagation)10.3. 딥네트워크 학습 시키기 (backpropagation)

18:28

재생 10.4. [Lab 9-1] XOR을 위한 텐서플로우 딥네트워크10.4. [Lab 9-1] XOR을 위한 텐서플로우 딥네트워크

12:29

재생 10.5. [Lab 9-2] Tensor Board로 딥네트워크 들여다보기10.5. [Lab 9-2] Tensor Board로 딥네트워크 들여다보기

12:07

재생 11.1. XSigmoid 보다 ReLU가 더 좋아11.1. XSigmoid 보다 ReLU가 더 좋아

17:30

재생 11.2. Weight 초기화 잘해보자11.2. Weight 초기화 잘해보자

12:18

재생 11.3. Dropout과 앙상블11.3. Dropout과 앙상블

09:56

재생 11.4. 레고처럼 네트워크 모듈을 마음껏 쌓아 보자11.4. 레고처럼 네트워크 모듈을 마음껏 쌓아 보자

05:09

재생 11.5. [Lab 10] 딥러닝으로 MNIST 98%이상 해보기11.5. [Lab 10] 딥러닝으로 MNIST 98%이상 해보기

14:35

재생 12.1. ConvNet의 Conv 레이어 만들기12.1. ConvNet의 Conv 레이어 만들기

16:22

재생 12.2. ConvNet Max pooling과 Full Network12.2. ConvNet Max pooling과 Full Network

05:33

재생 12.3. ConvNet의 활용 예12.3. ConvNet의 활용 예

12:31

재생 12.4. [Lab 11-1] TensorFlow CNN의 기본12.4. [Lab 11-1] TensorFlow CNN의 기본

16:30

재생 12.5. [Lab 11-2] TensorFlow로 MNIST 99% 구현하기12.5. [Lab 11-2] TensorFlow로 MNIST 99% 구현하기

12:37

재생 12.6. [Lab 11-3] Class, tf.layers, Ensemble (MNIST 99.5%)12.6. [Lab 11-3] Class, tf.layers, Ensemble (MNIST 99.5%)

10:07

재생 13.1. NN의 꽃 RNN 이야기13.1. NN의 꽃 RNN 이야기

19:43

재생 13.2. [Lab 12-1] RNN - Basic13.2. [Lab 12-1] RNN - Basic

12:34

재생 13.3. [Lab 12-2] RNN - Hi Hello Training13.3. [Lab 12-2] RNN - Hi Hello Training

14:52

재생 13.4. [Lab 12-3] Long Sequence RNN13.4. [Lab 12-3] Long Sequence RNN

11:19

재생 13.5. [Lab 12-4] Stacked RNN + Softmax Layer13.5. [Lab 12-4] Stacked RNN + Softmax Layer

11:08

재생 13.6. [Lab 12-5] Dynamic RNN13.6. [Lab 12-5] Dynamic RNN

04:08

재생 13.7. [Lab 12-6] RNN with Time Series Data13.7. [Lab 12-6] RNN with Time Series Data

10:16

재생 14. [보너스 1] Deep Deep Network AWS에서 GPU와 돌려보기 (powered by AWS)14. [보너스 1] Deep Deep Network AWS에서 GPU와 돌려보기 (powered by AWS)

18:13

재생 15. [보너스 2] AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기 (powered by AWS)15. [보너스 2] AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기 (powered by AWS)

17:58

재생 16. [보너스 3]Google Cloud ML을 이용해 TensorFlow 실행하기16. [보너스 3]Google Cloud ML을 이용해 TensorFlow 실행하기

21:31

수강 후기

첫 번째 수강평을 남겨주세요!
다른 수강생에게 큰 도움이 됩니다.

100% 100,000

0