딥러닝을 적용한 영상인식 분야! 핵심 논문 25개를 집중공략할 커리큘럼!

다음 기수 신청은 →

딥러닝
영상인식 CAMP

 

 

영상인식 기법을 구현하기 위한
핵심이론 정리, 주요 논문 review,
TensorFlow 코딩을 통해 체계적으로 배우는 10주 강의

#deep learning
#TensorFlow coding
#paper review

기간 & 일정

2019.08.03. – 10.19.(8/17, 9/14 휴강)
매주 토요일 10:00 – 13:00
주 1회, 총 30시간

장소 & 준비물

패스트캠퍼스 강남강의장
강남역 4번 출구, 미왕빌딩
개인 노트북

담당자 & 문의

윤형진 매니저
02-517-0641
help-ds@fastcampus.co.kr

체계적인 딥러닝 학습을 위해서라면
필수 논문 등 수식을 포함한 개념 이해 + 개념을 구현하는 code에 대한 이해는 필수!
하지만 혼자서는 어려웠죠?

영상인식 구현을 위한
핵심이론정리, 주요 25개 논문review, TensorFlow code 구현까지
10주 만에 체계적으로 정리해 가세요!

빠르게 발전하고 있는 영상인식 기법, 가장 활발하게 적용되고 있는 분야에 주목하세요-

인트로1
인트로2
인트로3
인트로1
인트로2
인트로3

영상인식을 위해서는 이미지를 인식하는 기법과, 연속된 이미지 속에 담긴 pattern을 파악하는 기법이 필요합니다.
하지만, CNN과 RNN, LSTM부터 Visual Q&A, Image Captioning, VAE, GAN, DQN까지 알아야 할 내용이 너무나 많습니다.

영상인식 구현을 위한 학습,
혼자서 많은 시행착오와 시간을 뺏기면서, 학습하고 계신가요?

딥러닝 영상인식 구현이 목표라면, 탄탄한 기본실력을 쌓을 지름길을 선택하세요!
중요한 논문은 남들보다 빠르게 배우고! 논문학습에 필요한 노하우까지-

체계적인 딥러닝 학습을 위한 코스특징.

실무 문제 해결을 위한
딥러닝 영상인식 관련
총 25개 논문 Review

빠르게 업데이트가 이루어지는 수많은 딥러닝 영상인식, 복잡한 수식과 다양한 알고리즘을 모두 이해하고 실제로 적용하는 것은 쉽지 않죠. 논문이 실제로 어떻게 활용되어 어떤 성과를 내고 있는지 파악하고! 현업 영상인식 구현 과정에서 겪을 수 있는 문제를 해결할 밑거름을 만들어 보세요!

논문과 매치되는 부분을
찾아내는 TensorFlow
코드 Review

공개된 코드가 어떻게 논문과 매치되는지를 파악하는 것은 실무에서 큰 어려움입니다. 단순 Tensorflow 문법 설명이 아닌, 논문과 비교하며 코드를 세세하게 리뷰해드립니다. 이를 통해 개념적인 부분들이 어떻게 코드로 구현되는지 온전히 이해하고, 실전 응용력을 기르실 수 있습니다.

영상인식 구현을 위한
이론 개념 및 알고리즘 이해
/TensorFlow 코드 과제

딥러닝 영상인식이 어려운 이유는 학습해야 할 내용이 너무 많은 점. 영상인식에 꼭 필요한 이론 CNN과 RNN부터 시작하여, 영상인식 적용을 위한 Visual Q&A, Image Captioning 등의 알고리즘을 이해시켜드립니다. 매주 TensorFlow 코딩과제를 통해 활용방법을 제대로 익힐 수 있습니다.

공부도 하고!
학습지원금도 받고!

결제액의 10%를 학습지원금으로 드립니다.

패스트캠퍼스의 수강의지를 강화하기 위한 지원금 제도를 운영합니다
패캠이 제안하는 세가지 학습 목표를 달성하고 커리어 이상의 성취감을 얻어가길 바랍니다.

*학습지원금은 제세공과금(22%)을 제하고 드립니다.

과제/학습노트

100% 제출

과제/학습노트

100% 제출

스터디그룹

100% 참여

텐서플로와 인공지능, 머신러닝, 딥러닝 분야 전문가.
“솔라리스의 인공지능 연구실” 블로그를 운영하며
최신 논문을 꿰뚫고 계신 강사님을 소개합니다!

[딥러닝 영상인식 CAMP]는 딥러닝과 컴퓨터 비전 분야의 입문서 같은 과정입니다. 강의 초반부에는 딥러닝 기본 구조인 ANN, AutoEncoder, CNN, RNN이 무엇이고, 어떤 목적으로 등장했고, 어떻게 사용하는지를 시작으로 강의 후반부에는 이런 기본 구조들을 이용해 실제 문제를 해결한 논문과 코드를 설명하고, 문제 해결을 위한 방법론과 TensorFlow 라이브러리의 기초부터 고급까지 단계별로 차근차근 가르쳐드리겠습니다.

1

Solaris 님

[약력]
– 텐서플로우와 머신러닝/ 딥러닝 관련 내용의 블로그
Solaris의 인공지능 연구실‘ 운영
– 서울대학교 인공지능 및 컴퓨터 비전 연구실 석사
– S전자와 컴퓨터 비전 관련 프로젝트 수행

[저서]
– 텐서플로로 배우는 딥러닝

*본 강의를 수강하시면 Solaris 강사님이 집필하신 [텐서플로로 배우는 딥러닝] 책을 무료로 제공합니다.

dvr_book

커리큘럼.

*실습은 AWS 서버에 접속해서 진행됩니다. 따라서 개인 노트북 사양은 크게 중요하지 않습니다.

실습예제자료

* 강의 9주차에서 다루는 BRATS 데이터베이스를 사용하여 Fully Convolutional Network 모델을 구현한 활용 예시입니다. (출처: Brain tumor segmentation with deep neural networks 논문)
Part 1. 기본적인 딥러닝 모델의 이해
1 Preview & Introduction
- 딥러닝의 역사
- ANN(Artificial Neural Network)/ Autoencoder
- 딥러닝의 기본 구성 요소: model architecture, cost function, backpropagation, ReLu, dropout, fine-tuning
- CNN(Convolutional Neural Network)/ RNN(Recurrent Neural Network)/ LSTM(Long-Short Term Memory Network) 개요
- 다양한 컴퓨터 비전 사례
- TensorFlow 설치 및 Putty를 이용한 AWS 접속 방법
- TensorFlow의 기본적인 API
실습 - MNIST 숫자 분류를 위한 Softmax Classifier
- MNIST Reconstruction을 위한 Autoencoder
- MNIST 숫자 분류를 위한 ANN/ Stacked Autoencoders + Softmax Classifier
Paper - LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. "Deep learning." Nature 521.7553 (2015): 436-444
과제 IRIS 데이터셋에 대한 ANN Classifier 구현
2 CNN(Convolutional Neural Network)
- 영상인식에서 가장 대표적으로 쓰이는 CNN의 개념
- convolution, pooling
- 대표적인 CNN 모델들: Lenet, Alexnet, VGGnet, GoogleLenet
실습 - CIFAR-10 영상 분류를 위한 CNN
- Inception-v3 retraining을 활용한 영상 데이터셋 분류 모델 구현
Paper - Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. "Imagenet classification with deep convolutional neural networks." Advances in neural information processing systems. 2012
- Simonyan, Karen, and Andrew Zisserman. "Very deep convolutional networks for large-scale image recognition." arXiv preprint arXiv:1409.1556 (2014)
- Szegedy, Christian, et al. "Going deeper with convolutions." Proceedings of the IEEE conference on computer vision and pattern recognition. 2015
과제 CIFAR-100 데이터셋에 대한 CNN Classifier 구현
3 RNN(Recurrent Neural Network) & LSTM(Long-Short Term Memory Networks)
- 자연어 처리에서 가장 대표적으로 쓰이는 RNN/ LSTM의 개념
- Language Modeling과 Embedding의 개념
- Char-RNN 소개
실습 - Char-RNN
- RNN을 이용한 Penn Tree Bank(PTB) Language Modeling
Paper - Graves, Alex. Supervised sequence labelling with recurrent neural networks. Vol. 385. Springer Science & Business Media, 2012
과제 Custom Dataset에 대한 Char-RNN 모델 구현
Part 2. 딥러닝 모델을 구체적인 영상인식 문제에 적용
4 자연어 Q&A/ Visual Q&A
주어진 질문에 대한 적절한 답을 찾아내는 자연어 Q&A/ Visual Q&A의 개념
실습 자연어 Q&A 및 Visual Q&A 구현
Paper - Sukhbaatar, Sainbayar, Jason Weston, and Rob Fergus. "End-to-end memory networks." Advances in neural information processing systems. 2015
- Ren, Mengye, Ryan Kiros, and Richard Zemel. "Exploring models and data for image question answering." Advances in neural information processing systems. 2015
과제 한글 bAbl Dataset에 대한 NLP Q&A 모델 구현
5 Image Captioning
Image Captioning 구현
실습 Image Captioning 구현
Paper - Vinyals, Oriol, et al. "Show and tell: A neural image caption generator." Proceedings of the IEEE conference on computer vision and pattern recognition. 2015
- Karpathy, Andrej, and Li Fei-Fei. "Deep visual-semantic alignments for generating image descriptions." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015
과제 Namignizer 모델을 이용한 한글 아기이름 생성모델 구현
6 Neural Style Transfer/ Deconvolution/ DeepDream/ Tensorboard/ ResNet
- 사진에 예술가들의 그림을 덧씌우는 Neural Style Transfer의 개념
- CNN이 무엇을 학습했는지 체크하는 기법인 Deconvolution/ DeepDream의 개념
- 학습 과정을 시각화해 볼 수 있는 Tensorboard 라이브러리
- Residual Networks(ResNet)
실습 - Neural Style Transfer 구현
- Tensorboard 구현
Paper - Zeiler, Matthew D., and Rob Fergus. "Visualizing and understanding convolutional networks." arXiv preprint arXiv:1311.2901 (2013)
- Yosinski, Jason, et al. "Understanding neural networks through deep visualization." arXiv preprint arXiv:1506.06579 (2015)
과제 이전에 구현한 과제코드들에 TensorBoard 관련코드 추가 구현
7 Generative Model - VAE(Variational AutoEncoder) & GAN(Generative Adversarial Network)
- 딥러닝을 이용한 Generative Model(VAE/ GAN의 개념)
- 기본 GAN 구조를 개선한 DCGAN
실습 VAE/ GAN을 이용한 MNIST 이미지 생성
Paper - D.P. Kingma, M. Welling, “Auto-Encoding Variational Bayes” The International Conference on Learning Representations, 2014
- Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio, “Generative Adversarial Nets”, arXiv:1406.2661 (2014)
- Alec Radford, Luke Metz, Soumith Chintala, “Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks”, arXiv:1511.06434 (2015)
과제 CIFAR-10 데이터셋에 대한 GAN 구현
Part 3 영상인식을 위한 심화 주제
8 AutoPilot
- 자율주행 구현을 위한 연구의 역사
- 자율주행 데이터셋과 최신 논문들 소개
실습 - Learning a Driving Simulator 논문에서 구현된 Steering Angle Predictor 및 Driving Scene Generator 구현
Paper - Santana, Eder, and George Hotz. "Learning a driving simulator." arXiv preprint arXiv:1608.01230 (2016)
- Xu, Huazhe, et al. "End-to-end learning of driving models from large-scale video datasets." arXiv preprint arXiv:1612.01079 (2016)
- Mariusz Bojarski, Davide Del Testa, Daniel Dworakowski, Bernhard Firner, Beat Flepp, Prasoon Goyal, Lawrence D. Jackel, Mathew Monfort, Urs Muller, Jiakai Zhang, Xin Zhang, Jake Zhao, Karol Zieba, “End to End Learning for Self-Driving Cars”,,arXiv:1604.07316 (2016)
과제 BRATS 데이터셋에 대한 FCN 구현
9 Semantic Image Segmentation & Medical Image Analysis
- 이미지를 의미 있는 부분끼리 묶어서 분할하는 Semantic Image Segmentation의 개념
- Semantic Image Segmentation을 위한 FCN(Fully Convolutional Networks) 구조
- BRAT(Brain Tumor Segmentation) 데이터베이스 소개 및 데이터 전처리
- FCN 구조를 BRATS 데이터베이스에 적용하여 뇌 영상에서 암을 검출
실습 - Fully Convolutional Networks for Semantic Segmentation 논문 구현
- FCN 모델을 BRAT 데이터베이스에 적용하여 Brain Tumor Segmentation을 구현
Paper - Long, Jonathan, Evan Shelhamer, and Trevor Darrell. "Fully convolutional networks for semantic segmentation." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015
- Havaei, Mohammad, et al. "Brain tumor segmentation with deep neural networks." Medical image analysis 35 (2017): 18-31
- Yu, Fisher, and Vladlen Koltun. "Multi-scale context aggregation by dilated convolutions." arXiv preprint arXiv:1511.07122 (2015)
- Lin, Guosheng, et al. "Refinenet: Multi-path refinement networks for high-resolution semantic segmentation." Proceedings of the IEEE conference on computer vision and pattern recognition (2017)
과제 Custom Dataset에 대한 YOLO 모델 구현
10 Deep Reinforcement Learning(DQN) & Object Detection
- 주변 환경과 상호 작용하며 학습하는 Reinforcement Learning의 개념
- Q-Learning, DQN의 개념
- Object Detection을 위한 모델: RCNN, Fast RCNN, Faster RCNN, YOLO, YOLO v2, YOLO v3, SSD
실습 - DQN을 이용한 게임플레이 에이전트 구현
- Faster RCNN을 이용한 Object Detector 구현
Paper - Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis Antonoglou, Daan Wierstra, Martin Riedmiller, “Playing Atari with Deep Reinforcement Learning”, arXiv:1312.560 (2013)
- Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Andrei A. Rusu, Joel Veness, Marc G. Bellemare, Alex Graves, Martin Riedmiller, Andreas K. Fidjeland, Georg Ostrovski, Stig Petersen, Charles Beattie, Amir Sadik, Ioannis Antonoglou, Helen King, Dharshan Kumaran, Daan Wierstra, Shane Legg & Demis Hassabis, “Human-level control through deep reinforcement learning”, Nature volume 518, pages 529–533 (2015)
- Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, arXiv:1506.01497 (2016)
- Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi,,“You Only Look Once:Unified, Real-Time Object Detection”,,arXiv:1506.02640 (2016)
- Redmon, Joseph, and Ali Farhadi. "YOLO9000: better, faster, stronger." arXiv preprint (2017)
- Redmon, Joseph, and Ali Farhadi. "Yolov3: An incremental improvement." arXiv preprint arXiv:1804.02767 (2018)
- Liu, Wei, et al. "Ssd: Single shot multibox detector." European conference on computer vision. Springer, Cham (2016)

수강대상.

data_camp_basicmath_2

영상인식/ 컴퓨터 비전을 체계적으로 학습하고 싶은
연구원/개발자/대학원생

data_camp_basicmath_3

딥러닝 관련 주요 논문을 깊이 있게 이해하고 싶은
연구원/개발자/대학원생

※ 아래의 3가지 사전 지식이 없으시다면, 코스 수강에 어려움을 겪을 수 있습니다. 꼭 확인하세요!

✔ 기본적인 딥러닝 모델인 ANN, CNN, RNN, LSTM에 대해 학습해 본 경험이 있다.
✔ TensorFlow를 이용해 직접 머신러닝 모델을 만들고 학습과 추론을 진행해 본 경험이 있다.
✔ 프로그래밍 언어(Python, C, Java 등)로 300줄 이상의 코드를 작성해 본 경험이 있다.

* [강의 자료 Github 미리보기]를 통해, 강의 난이도를 확인해 주세요!

혹시, 사전지식이 부족하신가요?
[TensorFlow로 시작하는 딥러닝 입문 CAMP]를 추천합니다.

이론 및 개념 정리가 아닌, 결과물 구현이 목표이신가요?
[인식 모델 구현 프로젝트 CAMP]를 추천합니다.

수강생 후기.

★★★★★
7기 수강생 이OO

많이 알려진 기술들과 그 기술들 간의 차이, 사용된 방법 등을 서로 비교하면서 상세히 알려주어 이해에 도움이 되었고 다양한 방법을 공부할 수 있어서 좋았습니다.

★★★★★
8기 수강생 강OO

10주간 수업을 들으면서 내용적으로 어려운 부분도 있고 잘 이해가 가지 않는 부분도 있었지만 수업 중에 내주신 과제를 직접해보고 강사님이 올려주신 코드를 분석해보면서 다시 공부를 하니 처음에는 이해가 가지 않던 부분도 이해가 되고 많은 도움이 되었습니다. 무엇보다 중요한 논문들을 한번쯤은 보고 싶었는데도 시간이 없다는 핑계로 미루기만 하였는데 이 수업을 통해 강사님이 중요한 부분을 짚어주며 직접 구현한 코드를 제공하여 주셔서 다음에도 혼자서 논문을 공부하는 요령과 방법을 배울 수 있어서 좋았습니다.

★★★★★
8기 수강생 이OO

최근 주목받고 있는 분야에 대한 트렌드와 내용에 대해 이해하고 코드 내용까지 배울 수 있어 유익한 시간이었습니다. 머신러닝, 딥러닝에 대한 기본적인 이해를 바탕으로 심화 내용으로 진입하는데 있어 좋은 출발점이 될 것으로 생각됩니다.

★★★★★
7기 수강생 이OO

수업자료에 많은 내용을 포함해서 설명하기 위한 노력이 느껴집니다.

★★★★★
8기 수강생 임OO

방대한 내용을 단기간에 익힐 수 있는 유익하고 흥미로운 강의였고, 논문 설명고 코드 리뷰가 아주 좋았습니다.

★★★★★
8기 수강생 김OO

딥러닝의 기초부터 현재 어디까지 발전했고 어떠한 형태로 발전했는지에 대해 빠삭한 이론 설명으로 이해하기 쉬웠습니다.

★★★★★
7기 수강생 황OO

다양한 연구 사례를 경험할 수 있어서 좋았어요.

★★★★★
7기 수강생 윤OO

논문설명과 코드리뷰가 아주 좋았습니다.

★★★★★
8기 수강생 박OO

각 모델들의 구조를 그림을 통해서 설명해주는 방법이 도움이 많이 되었습니다

★★★★★
7기 수강생 박OO

영상인식 관련 딥러닝의 다양한 기법이 대체적으로 잘 이해될 수 있었습니다.

FAQ.

영상인식 기법이 적용된 결과물 구현에 관심이 있습니다. 이 코스가 적합할까요?

본 코스는 영상인식을 위한 많은 이론들을 체계적으로 정리하고, 주요한 논문을 review 하는 것을 특징으로 합니다. ‘결과물 구현’에 관심 있으시다면 [인식 모델 구현 프로젝트 CAMP] 수강을 추천 드립니다.

딥러닝과 TensorFlow 학습을 막 시작하였습니다. 코스 수강이 가능할까요?

본 코스에서는 최신 이론과 논문을 다루고 있습니다. 따라서 CNN, RNN, LSTM 등 기본적인 딥러닝 모델에 대한 이해와 TensorFlow 코드를 읽고 의미를 파악하실 수 있다는 전제로 진행됩니다. 수강 전 수강 선수 지식과 사전 지식 체크 리스트를 반드시 확인해 주시기 바랍니다. 사전 지식이 부족할 경우 [TensorFlow로 시작하는 딥러닝 입문 CAMP] 수강을 추천 드립니다.

실습을 위해서는 컴퓨터 사양이 어떻게 되어야 하나요?

코스 기간 중 실습에 활용하실 수 있도록 AWS instance가 제공됩니다. 따라서 개인 랩탑 사양은 크게 중요하지 않습니다.

{ FASTCAMPUS COMMUNITY MEMBERSHIP }

패스트캠퍼스 오프라인 강의를 수강하셨다면!
별도의 가입절차없이 패스트캠퍼스 커뮤니티 멤버쉽 회원이 됩니다.
커뮤니티 멤버쉽은 수강 후 1년 동안 유지되며,
오직 멤버들만을 위한 비공개 스터디클럽, 네트워킹행사, 세미나 등 비정기적 행사에 모실 예정입니다.

수강료안내.

정가: 180만 원

# 할인가는 매주 목요일 자정에 변경됩니다.
# 할인가 적용 및 수강 확정은 결제일을 기준으로 합니다.
# 카드 12개월 무이자 할부 가능합니다.

강의장안내.

학습 지원 프로젝트

공부도 하고! 학습지원금도 받고!

*학습지원금(제세공과금 22% 차감 후 지급)은 강의마다 개인마다 상이할 수 있습니다.

학습 목표 1. 과제 및 학습노트 제출

-과제 형태: 과제 제출 + 학습노트 작성.
-과제 제공 방식: 1 ~ 9회차 강의 내용에 대한 연습 문제 형식의 과제 제공. (과제풀이는 차주 수업에서 진행됩니다)
-과제 제출 일정: 코스 진행 3일 후(화요일), 24:00까지 폼스택으로 과제 제출. (과제 접수 여부는 폼스택 접수시간으로 판단됩니다)
-수강중 학습 콘텐츠 일정 (학습노트 제출 1회/과제 제출 9회)
1회차: 8월 6일(화)까지 과제 제출
2회차: 8월 13일(화)까지 과제 제출
3회차: 8월 27일(화)까지 과제 제출
4회차: 9월 3일(화)까지 과제 제출
5회차: 9월 10일(화)까지 과제 제출
6회차: 9월 24일(화)까지 과제 제출
7회차: 10월 1일(화)까지 과제 제출
8회차: 10월 8일(화)까지 과제 제출
9회차: 10월 15일(화)까지 과제 제출
10회차: 10월 22일(화)까지 학습노트 작성 후 제출

학습지원금을 받으려면?

미션을 모두 완료하면 신청페이지를 통해 신청 가능합니다.
다만, 강의 종료 후 30일 이내에 신청페이지를 통해서 신청해주셔야 합니다.
아래의 환급신청 링크로 신분증 사본 / 환급받을 통장사본을 제출 (반드시 본인 명의로만 가능)해 주세요.
결제한 수강료의 10% (환급 금액의 22% 제세공과금으로 차감) 를 드리며, 학습지원금은 개인마다 상이할 수 있습니다.

환불규정

* 학습지원금은 기수강생 할인만 중복 적용이 가능합니다. (기타 다른 이벤트와 중복 적용이 불가합니다.)
* 과제물이 허위로 작성되거나 표절일 경우 환급이 거절될 수 있습니다.
* 환불은 환불규정(https://www.fastcampus.co.kr/refund/)에 따라 진행됩니다. 규정에 의거하여 환불금액이 없을 수 있습니다.