메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

한빛출판네트워크

컬럼/인터뷰

야너두 파이토치 딥러닝 배울 수 있어 (feat.아크몬드) (2/2)

한빛미디어

|

2021-09-17

|

by 한빛양

806

 

shutterstock_620080079-[변환됨].jpg

 

 

 

▶ 인터뷰 1편 다시보기 '야너두 파이토치 딥러닝 배울 수 있어 (feat.아크몬드) (1/2)'

 

Q. 중상급자 대상의 내용으로 구성되어 있네요. 주로 비젼처리를 다루고 있어 결과물 보는 재미가 있을 것 같습니다. 사전 학습에 도움이 될 교재도 뒷면에 기재되어 있고요. 구현 용이도에 따라 특별히 제안하시는 챕터별 학습 순서가 있을까요? 그리고... 파이토치가 텐서플로우를 추격하는 듯한 형국인데 향후 프레임웤의 주도권 형국은 어떻게 예상하시는지요. 학습자의 선택을 위한 분야별, 객관적인 의견 부탁드립니다. ㅎㅎ

 

A. 가능하면 1장부터 순서대로 읽으시는 것이 좋습니다. 이전 장들의 지식을 알고 있다는 전제 하에 설명하는 부분이 많습니다. 재미를 우선한다면 역시 2장의 물체 인식 -> 5장의 GAN을 활용한 화상 생성(DCGAN) -> 9장 동영상 분류 순으로 내용을 훑어보시면 좋을 것 같습니다. 텐서플로우를 많이 써보지 못해서 추상적으로 답하게 되는데요, API의 레벨이 아직도 TensorFlow쪽이 높기 때문에 대규모 데이터세트를 처리할 때 텐서플로우가 많이 사용됩니다. PyTorch가 갈 길이 아직 남은 것 같습니다. 하지만 가독성의 관점에서 파이토치가 좋기 때문에, 향후 점점 더 인기를 끌 것으로 예상합니다.

 

 

 

Q. Bert 랑 Transformer 랑 어떤 차이가 있나요? 그리고 Bert나 GPT-3 같은 큰 모델은 어떻게 사용할 수가 있나요? 감사합니다. (하희목 님)

 

A. GPT-3와 같은 대규모 데이터는 아직 다뤄본 적이 없어서 도움드리기 힘들 것 같습니다.

BERT와 Transformer의 차이는 아래 링크에서 자세히 설명하고 있습니다. 꼭 참고해보세요.

 

링크▶ 트랜스포머 (Transformer)와 어텐션 (Attention)을 통해서 BERT 핵심이해

 

※Transformer는 신경망 구조의 일종입니다. 신경망은 이미지, 동영상, 오디오 등 복잡한 데이터를 분석하는 데 매우 효과적인 모델입니다. 하지만 데이터 종류에 따라 최적인 신경망 종류는 달라집니다.

 

 

Q. 전이학습과 파인튜닝을 이용하여 화상분류모델을 만들때 vgg말고 다른 모델을 사용해 보셨나요? vgg를 사용한 이유가 있을까요? (모델이 가벼워서 소개한 것 같은데요) vgg를 사용한 전이모델을 실무에 적용 가능할까요? 어떤 환경에서 어떤 데이터로 테스트 해보셨나요? 관련하여 한계점은 무엇이라고 생각하세요? (최영선 님)

 

A. 저자분 의도를 속속들이 알 수는 없기에 추측하는 게 다입니다만, 말씀하신대로 VGG모델이 간단하면서도 구성하기 편하기 때문에 다양한 딥러닝 응용에서 기반 네트워크로 활용하고 있는 것 같습니다. 결국 모델의 분류 예측 결과를 높일 수 있느냐의 문제일 것 같은데, 실무에서 적용하게 되는 학습 데이터가 어떤 것인지에 따라 달라질 것 같습니다.

 

 

Q. Transformer가 AI task의 대부분의 영역에도 들어오고 있는데, ViT에 대해서는 어떻게 생각하시나요?? ViT 대신 GAN 와 접목한 내용이 들어가 있어서 궁금하네요 (Chris Minkyu Park 님)

 

A. 사전 훈련 비용이 상대적으로 저렴하다는 점에서 좋은 것 같습니다. 대규모 데이터 세트에 대해 SoTA 수준의 성능을 달성했다는 점도 주목할만 합니다. 자세한 내용은 아래 링크를 참고하세요.

 

링크 ▶ [논문] 최근 AI의 이미지 인식에서 화제인 "Vision Transformer"에 대한 해설

 

 

Q. 시중의 파이토치 서적을 보면 코딩 방식이 여러가지입니다. 기본적으로 class를 사용해서 코딩하는데, train까지 class 안에 넣는 경우와 forward()까지만 안에 넣고 train은 밖에서 for loop으로 하는 경우가 있기도 합니다. 학습 현황을 확인하는 방법에는 list에 loss를 append해서 사용하는 방법, tensorboard를 사용하는 방법, callback을 사용하는 방법 등이 있습니다. 

아크몬드님께서 선호하시는 방법이 있다면 무엇인지, 그리고 이유는 무엇인지 궁금하네요. (Jehyun Lee 님)

 

A. 데이터 세트의 train의 경우 별도로 만드는 것을 좋아합니다. 가능하면 추론시 데이터의 전처리, 정규화, 모델에 입력하기 위한 텐서화 등을 분리하는 쪽으로 구현합니다. 테스트 데이터를 읽을 때 예상과 다르게 동작하는 것을 방지하고 디버깅을 편하게 하기 위해서입니다.

 

 

Q. 텐서플로와 케라스 중심으로 딥러닝 모델을 만들어오다가 자동 미분을 기반으로 하는 파이토치를 알게 된 후 사고방식의 흐름과 유사한 구현, 특유의 간결함 등에 매력을 느껴 파이토치의 활용 비중을 높이는 중입니다. 

다만 텐서플로도 버전2가 나오며 Define by Run 방식을 따르고 있고 특히 서빙이나 제품화 측면에서 유리하다는 생각이 드는데요. 이처럼 여전히 파이토치가 텐서플로 대비 부족한 부분이 있는지 있다면 어느 정도 부족한지 파이토치의 텐서플로 대비 현 시점 기준 장단점의 고견을 듣고 싶습니다. 

또, 제가 알기로는 텐서플로의 경우 TFQ로 양자컴퓨팅 서비스와의 결합을 시도 중인데 파이토치도 양자컴퓨팅 분야와의 시너지를 내려는 시도가 있는지도 궁금하네요. 아무쪼록 한 권의 책으로 다양한 AI 분야와 모델들을 경험할 수 있는 좋은 책을 출간해주셔서 감사드립니다. (Min Heo 님)

 

A. 텐서플로에 대한 지식이 거의 없어서 비교가 될지는 모르겠지만, 대규모 데이터 세트를 처리하는 부분은 아직까지도 TensorFlow쪽이 PyTorch보다 조금 더 낫다고 생각합니다. 인기가 나날이 늘어나는 프레임워크이니 파이토치의 앞날에 주목해야 할 것 같습니다. 좋은 책을 제시해주시고 번역의 기회를 주신 한빛미디어 관계자분께 감사드립니다.

 

 

shutterstock_112655693-[변환됨].jpg

 

 

 

 

Q. 목차를 보고 몇 가지 질문 드립니다. (권준범 님)

 

1.GAN과 self-attention을 함께 사용함으로써 어떤 이점을 얻을 수 있나요?

기존 GAN이 전치 합성곱을 반복해도 국소적인 부분의 확대만 되는 문제가 있습니다. 거대한 커널을 준비하면 비용이 크게 증가하기 때문에 학습의 문제가 생깁니다. 계산 비용을 억제하면서 포괄적인 정보를 고려하는 구조가 Self-Attention에 있으므로, 특징량을 전달하는 방식을 사용합니다.

 

2.openpose를 활용한 방식이 graph 기반으로 움직임을 추출하는 spatiotemporal model(like STGCN)에 비해서 더 풍부한 representation 학습이 가능한가요?

죄송합니다. 경험이 부족해 답변하기 어려울 것 같습니다.

 

3. 뇌영상 연구를 하며 3D CNN 모델들을 적용하고 있는데, 2D CNN을 3D로 바꾸면서 주의할 점이 무엇인지, ECO가 어떤 장점을 가진 모델인지 궁금합니다. 

죄송합니다. 경험이 부족해 답변하기 어려울 것 같습니다.

※3D를 2D의 확장으로 보는 구조로, 시간 정보가 아니라 입력된 몇 개의 프레임에서 가장 식별이 쉬운 부분을 추출하는 방식도 주목받는 것 같습니다.

 

 

Q. 굉장히 다양한 분야를 다루고 있어서 엄청 기대되는 책입니다. 혹시 챕터 하나를 더 추가한다면 어떤 내용을 넣고 싶으신지 궁금합니다. (이진원 님)

A. 물체 감지(SSD)나 시맨틱 분할 등의 샘플이 좋은 책인데요, 다른 책들에서 잘 다루지 않는 부분까지 나와 있어서 꽤 괜찮다고 생각되는 내용이 많았습니다. 챕터를 추가한다면 R-CNN, Faster R-CNN 등 화상 내 객체 검출/분류를 자세히 다뤘으면 하는 바람이 있습니다.

 

 

 

Q. 독자분들과 인터뷰를 진행해보신 소감은 어떠신가요. 굉장히 수준 높은 질문들을 던져주셔서 편집팀과 마케팅팀에서도 많이 놀랐는데요. 

A. 딥러닝 공부를 시작하는 분, 현업에서 사용중이신 분 등 다양한 분들께서 질문을 주셔서 이에 맞는 답을 찾는 과정이 새롭고 즐거웠습니다. 저자분의 의도를 다 알고 있는 것은 아니라서, 번역하다 느낀 점을 위주로 답변했습니다. 도움이 되셨으면 좋겠습니다.

 

 

Q. 앞으로 한빛미디어에서 내고 싶은 집필서/번역서가 있다면?

A. 일본에서 인프라쪽 번역서들을 재밌게 읽고 있습니다. 시스템 엔지니어에서, 내년에는 인프라 컨설턴트로 직업을 바꿀 예정이라 이에 맞는 클라우드/인프라 도서에 도전해 보고 싶다고 생각합니다.

 

 

Q. 마지막으로 분야 상관없이 최근에 재미있게 읽은 책을 한 권 추천해주세요!

코로나라 집밖에 나가기 힘든 환경이라, Audible을 통해 오디오북을 많이 듣고 있습니다. 그 중에서도 1%의 노력(1%の努力, ひろゆき)이라는 책이 흥미로웠습니다. Life Hack의 사고 방식으로 인생을 살며, 꼭 성실하지 않아도 자신이 정말 해야 할 일을 주도적으로 하며 살아가는 모습이 대단하게 느껴집니다. 물론 현실의 벽은 녹록치 않지만 적당히 어깨의 힘을 빼고 살아가고 싶다는 생각을 했습니다.

 


 

아래 사진을 클릭하시면 '만들면서 배우는 파이토치 딥러닝'에 대한 자세한 정보를 보실 수 있습니다.

 

 

 

IT4팀_만들면서 배우는 파이토치_광고.jpg

 

 

 

TAG :
댓글 입력
자료실