내 결심을 더 단단하게 만드는
패스트캠퍼스 학습지원 프로젝트

딥러닝

영상인식 CAMP

영상인식 기법을 구현하기 위해 필요한 많은 이론들을 정리, 주요한 논문을 review, 과제로 진행되는 TensorFlow 코딩을 통해 체계적으로 배우는 10주 강의

#deep learning#TensorFlow coding
#paper review

기간 & 일정

2019.05.11. – 07.20.(6/8 휴강)
매주 토요일 10:00 – 13:00
주 1회, 총 30시간

장소 & 준비물

패스트캠퍼스 강남강의장
강남역 4번 출구, 미왕빌딩
개인 노트북

담당자 & 문의

윤형진 매니저
02-517-0641
help-ds@fastcampus.co.kr

이미 딥러닝을 통해 컴퓨터의 영상인식능력은
새로운 시대를 맞이했습니다.

출처:  Xu, Huazhe, et al. “End-to-end learning of driving models from large-scale video datasets.” arXiv preprint arXiv:1612.01079 (2016)

출처:  Havaei, Mohammad, et al. “Brain tumor segmentation with deep neural networks.” Medical image analysis 35 (2017): 18-31

사물이나 사람을 인식하여 운전하는 자율주행, 범죄 용의자나 차량 추적을 돕는 CCTV 분석,
다양한 패턴을 비교하여 암을 진단하는 의료 영상 인식까지 이 모든 것이 딥러닝 영상인식으로 가능합니다.

딥러닝을 적용한 영상인식에 대해
제대로 배울 수 있는

국내 유일 10주 커리큘럼.

#코스특징

실무 문제 해결을 위한 총 25개 관련 논문 Review

빠르게 업데이트가 이루어지는 수많은 딥러닝 영상인식 관련 논문에서, 복잡한 수식과 다양한 알고리즘을 모두 이해하고 실제로 적용하는 것은 쉽지 않습니다. 본 강의에서는 이러한 어려움을 해결하기 위해, 다양한 분야에 적용된 딥러닝 영상인식 관련 논문 Review를 진행합니다. 어떻게 활용되어 실제 어떤 성과를 내고 있는지 파악하면, 수강생 여러분 스스로 영상인식에 딥러닝을 적용하기 위한 청사진을 그릴 수 있을 것이며, 현업에서도 영상인식 구현 과정에서 겪을 수 있는 문제를 해결하기 위한 밑거름이 될 것입니다.

논문과 매치되는 부분을 세세히 짚어주는 TensorFlow 코드 Review

영상인식 관련 논문을 이론적으로 이해하더라도, 정말 어려운 부분은 따로 있습니다. 바로, 공개된 코드가 어떻게 논문과 매치되는지를 파악하는 것이죠. 본 캠프에서는 단순한 Tensorflow 문법 설명에 그치는 것이 아니라, 논문과 비교하며 코드를 세세하게 리뷰해드립니다. 이를 통해 개념적인 부분들이 어떻게 코드로 구현되는지 온전히 이해하고, 실전 응용력을 기르실 수 있습니다.

영상인식 구현을 위한 이론 개념 및 알고리즘 이해/ TensorFlow 코드 과제 

딥러닝 영상인식이 어려운 이유는 학습해야 할 내용이 너무 많기 때문입니다. 그래서 본 강의에서는 영상인식에 꼭 필요한 딥러닝 핵심 이론인 CNN과 RNN부터 시작하여, 영상인식 적용을 위한 Visual Q&A, Image Captioning 등의 알고리즘을 이해할 수 있도록 차근차근 도와드립니다. 모든 강의는 매주 과제가 있으며, 배운 이론을 TensorFlow 코딩을 통해 직접 구현해볼 수 있기 때문에 활용방법을 제대로 익힐 수 있습니다. 이를 기반으로, 강의 후에는 자신이 원하는 영상인식에 딥러닝을 적용할 수 있습니다.

어떤 실습으로 각 주차가 진행되는지 궁금하신가요? 지금 커리큘럼을 확인하세요!

공부도 하고!
학습지원금도 받고!

결제액의 10%를 학습지원금으로 드립니다.

패스트캠퍼스의 수강의지를 강화하기 위한 지원금 제도를 운영합니다
패캠이 제안하는 세가지 학습 목표를 달성하고 커리어 이상의 성취감을 얻어가길 바랍니다.

*학습지원금은 제세공과금(22%)을 제하고 드립니다.

과제/학습노트

100% 제출

과제/학습노트

100% 제출

스터디그룹

100% 참여

#수강생후기

★★★★★
7기 수강생 강OO

많이 알려진 기술들과 그 기술들 간의 차이, 사용된 방법 등을 서로 비교하면서 상세히 알려주어 이해에 도움이 되었고 다양한 방법을 공부할 수 있어서 좋았습니다.

★★★★★
7기 수강생 이OO

각 모델들의 구조를 그림을 통해서 설명해주는 방법이 도움이 많이 되었습니다.

★★★★★
7기 수강생 이OO

수업자료에 많은 내용을 포함해서 설명하기 위한 노력이 느껴집니다.

★★★★★
7기 수강생 임OO

강의자료에는 트렌디한 많은 딥러닝 내용들이 들어가 있는 점이 좋았습니다.

★★★★★
7기 수강생 황OO

다양한 연구 사례를 경험할 수 있어서 좋았어요.

★★★★★
7기 수강생 윤OO

논문설명과 코드리뷰가 아주 좋았습니다.

★★★★★
7기 수강생 박OO

영상인식 관련 딥러닝의 다양한 기법이 대체적으로 잘 이해될 수 있었습니다.

#수강대상

본 강의는 선수 지식이 필요한 강의입니다. 수강 전, 꼭 확인하세요!

data_camp_basicmath_2

영상인식/ 컴퓨터 비전의 개념을 체계적으로 학습하고 싶은
연구원/개발자/대학원생

data_camp_basicmath_3

딥러닝 관련 주요 논문을 깊이 있게 이해하고 싶은
연구원/개발자/대학원생

* [강의 자료 Github 미리보기]를 통해, 강의 난이도를 확인해 주세요!

혹시, 사전지식이 부족하신가요?
[TensorFlow로 시작하는 딥러닝 입문 CAMP]를 추천합니다.

이론 및 개념 정리가 아닌, 결과물 구현이 목표이신가요?
[인식 모델 구현 프로젝트 CAMP]를 추천합니다.

#강사소개

1

Solaris 님

[약력]
– 텐서플로우와 머신러닝/ 딥러닝 관련 내용의 블로그
Solaris의 인공지능 연구실‘ 운영
– 서울대학교 인공지능 및 컴퓨터 비전 연구실 석사
– S전자와 컴퓨터 비전 관련 프로젝트 수행

[저서]
– 텐서플로로 배우는 딥러닝

dvr_book

*본 강의를 수강하시면 Solaris 강사님이 집필하신 [텐서플로로 배우는 딥러닝] 책을 무료로 제공합니다.

#커리큘럼

실습은 AWS 서버에 접속해서 진행됩니다. 따라서 개인 노트북 사양은 크게 중요하지 않습니다.

이론 설명

논문 REVIEW

코드 과제

코드 리뷰

Part 1. 기본적인 딥러닝 모델의 이해
1 Preview & Introduction
- 딥러닝의 역사
- ANN(Artificial Neural Network)/ Autoencoder
- 딥러닝의 기본 구성 요소: model architecture, cost function, backpropagation, ReLu, dropout, fine-tuning
- CNN(Convolutional Neural Network)/ RNN(Recurrent Neural Network)/ LSTM(Long-Short Term Memory Network) 개요
- 다양한 컴퓨터 비전 사례
- TensorFlow 설치 및 Putty를 이용한 AWS 접속 방법
- TensorFlow의 기본적인 API
실습 - MNIST 숫자 분류를 위한 Softmax Classifier
- MNIST Reconstruction을 위한 Autoencoder
- MNIST 숫자 분류를 위한 ANN/ Stacked Autoencoders + Softmax Classifier
Paper - LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. "Deep learning." Nature 521.7553 (2015): 436-444
과제 IRIS 데이터셋에 대한 ANN Classifier 구현
2 CNN(Convolutional Neural Network)
- 영상인식에서 가장 대표적으로 쓰이는 CNN의 개념
- convolution, pooling
- 대표적인 CNN 모델들: Lenet, Alexnet, VGGnet, GoogleLenet
실습 - CIFAR-10 영상 분류를 위한 CNN
- Inception-v3 retraining을 활용한 영상 데이터셋 분류 모델 구현
Paper - Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. "Imagenet classification with deep convolutional neural networks." Advances in neural information processing systems. 2012
- Simonyan, Karen, and Andrew Zisserman. "Very deep convolutional networks for large-scale image recognition." arXiv preprint arXiv:1409.1556 (2014)
- Szegedy, Christian, et al. "Going deeper with convolutions." Proceedings of the IEEE conference on computer vision and pattern recognition. 2015
과제 CIFAR-100 데이터셋에 대한 CNN Classifier 구현
3 RNN(Recurrent Neural Network) & LSTM(Long-Short Term Memory Networks)
- 자연어 처리에서 가장 대표적으로 쓰이는 RNN/ LSTM의 개념
- Language Modeling과 Embedding의 개념
- Char-RNN 소개
실습 - Char-RNN
- RNN을 이용한 Penn Tree Bank(PTB) Language Modeling
Paper - Graves, Alex. Supervised sequence labelling with recurrent neural networks. Vol. 385. Springer Science & Business Media, 2012
과제 Custom Dataset에 대한 Char-RNN 모델 구현
Part 2. 딥러닝 모델을 구체적인 영상인식 문제에 적용
4 자연어 Q&A/ Visual Q&A
주어진 질문에 대한 적절한 답을 찾아내는 자연어 Q&A/ Visual Q&A의 개념
실습 자연어 Q&A 및 Visual Q&A 구현
Paper - Sukhbaatar, Sainbayar, Jason Weston, and Rob Fergus. "End-to-end memory networks." Advances in neural information processing systems. 2015
- Ren, Mengye, Ryan Kiros, and Richard Zemel. "Exploring models and data for image question answering." Advances in neural information processing systems. 2015
과제 한글 bAbl Dataset에 대한 NLP Q&A 모델 구현
5 Image Captioning
Image Captioning 구현
실습 Image Captioning 구현
Paper - Vinyals, Oriol, et al. "Show and tell: A neural image caption generator." Proceedings of the IEEE conference on computer vision and pattern recognition. 2015
- Karpathy, Andrej, and Li Fei-Fei. "Deep visual-semantic alignments for generating image descriptions." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015
과제 Namignizer 모델을 이용한 한글 아기이름 생성모델 구현
6 Neural Style Transfer/ Deconvolution/ DeepDream/ Tensorboard/ ResNet
- 사진에 예술가들의 그림을 덧씌우는 Neural Style Transfer의 개념
- CNN이 무엇을 학습했는지 체크하는 기법인 Deconvolution/ DeepDream의 개념
- 학습 과정을 시각화해 볼 수 있는 Tensorboard 라이브러리
- Residual Networks(ResNet)
실습 - Neural Style Transfer 구현
- Tensorboard 구현
Paper - Zeiler, Matthew D., and Rob Fergus. "Visualizing and understanding convolutional networks." arXiv preprint arXiv:1311.2901 (2013)
- Yosinski, Jason, et al. "Understanding neural networks through deep visualization." arXiv preprint arXiv:1506.06579 (2015)
과제 이전에 구현한 과제코드들에 TensorBoard 관련코드 추가 구현
7 Generative Model - VAE(Variational AutoEncoder) & GAN(Generative Adversarial Network)
- 딥러닝을 이용한 Generative Model(VAE/ GAN의 개념)
- 기본 GAN 구조를 개선한 DCGAN
실습 VAE/ GAN을 이용한 MNIST 이미지 생성
Paper - D.P. Kingma, M. Welling, “Auto-Encoding Variational Bayes” The International Conference on Learning Representations, 2014
- Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio, “Generative Adversarial Nets”, arXiv:1406.2661 (2014)
- Alec Radford, Luke Metz, Soumith Chintala, “Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks”, arXiv:1511.06434 (2015)
과제 CIFAR-10 데이터셋에 대한 GAN 구현
Part 3 영상인식을 위한 심화 주제
8 AutoPilot
- 자율주행 구현을 위한 연구의 역사
- 자율주행 데이터셋과 최신 논문들 소개
실습 - Learning a Driving Simulator 논문에서 구현된 Steering Angle Predictor 및 Driving Scene Generator 구현
Paper - Santana, Eder, and George Hotz. "Learning a driving simulator." arXiv preprint arXiv:1608.01230 (2016)
- Xu, Huazhe, et al. "End-to-end learning of driving models from large-scale video datasets." arXiv preprint arXiv:1612.01079 (2016)
- Mariusz Bojarski, Davide Del Testa, Daniel Dworakowski, Bernhard Firner, Beat Flepp, Prasoon Goyal, Lawrence D. Jackel, Mathew Monfort, Urs Muller, Jiakai Zhang, Xin Zhang, Jake Zhao, Karol Zieba, “End to End Learning for Self-Driving Cars”,,arXiv:1604.07316 (2016)
과제 BRATS 데이터셋에 대한 FCN 구현
9 Semantic Image Segmentation & Medical Image Analysis
- 이미지를 의미 있는 부분끼리 묶어서 분할하는 Semantic Image Segmentation의 개념
- Semantic Image Segmentation을 위한 FCN(Fully Convolutional Networks) 구조
- BRAT(Brain Tumor Segmentation) 데이터베이스 소개 및 데이터 전처리
- FCN 구조를 BRATS 데이터베이스에 적용하여 뇌 영상에서 암을 검출
실습 - Fully Convolutional Networks for Semantic Segmentation 논문 구현
- FCN 모델을 BRAT 데이터베이스에 적용하여 Brain Tumor Segmentation을 구현
Paper - Long, Jonathan, Evan Shelhamer, and Trevor Darrell. "Fully convolutional networks for semantic segmentation." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015
- Havaei, Mohammad, et al. "Brain tumor segmentation with deep neural networks." Medical image analysis 35 (2017): 18-31
- Yu, Fisher, and Vladlen Koltun. "Multi-scale context aggregation by dilated convolutions." arXiv preprint arXiv:1511.07122 (2015)
- Lin, Guosheng, et al. "Refinenet: Multi-path refinement networks for high-resolution semantic segmentation." Proceedings of the IEEE conference on computer vision and pattern recognition (2017)
과제 Custom Dataset에 대한 YOLO 모델 구현
10 Deep Reinforcement Learning(DQN) & Object Detection
- 주변 환경과 상호 작용하며 학습하는 Reinforcement Learning의 개념
- Q-Learning, DQN의 개념
- Object Detection을 위한 모델: RCNN, Fast RCNN, Faster RCNN, YOLO, YOLO v2, YOLO v3, SSD
실습 - DQN을 이용한 게임플레이 에이전트 구현
- Faster RCNN을 이용한 Object Detector 구현
Paper - Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis Antonoglou, Daan Wierstra, Martin Riedmiller, “Playing Atari with Deep Reinforcement Learning”, arXiv:1312.560 (2013)
- Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Andrei A. Rusu, Joel Veness, Marc G. Bellemare, Alex Graves, Martin Riedmiller, Andreas K. Fidjeland, Georg Ostrovski, Stig Petersen, Charles Beattie, Amir Sadik, Ioannis Antonoglou, Helen King, Dharshan Kumaran, Daan Wierstra, Shane Legg & Demis Hassabis, “Human-level control through deep reinforcement learning”, Nature volume 518, pages 529–533 (2015)
- Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, arXiv:1506.01497 (2016)
- Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi,,“You Only Look Once:Unified, Real-Time Object Detection”,,arXiv:1506.02640 (2016)
- Redmon, Joseph, and Ali Farhadi. "YOLO9000: better, faster, stronger." arXiv preprint (2017)
- Redmon, Joseph, and Ali Farhadi. "Yolov3: An incremental improvement." arXiv preprint arXiv:1804.02767 (2018)
- Liu, Wei, et al. "Ssd: Single shot multibox detector." European conference on computer vision. Springer, Cham (2016)

강의에 대한 전반적인 소개를 한 눈에 보고 싶다면? 교육 과정 소개서를 확인해주세요!
* 본 소개서는 회사 제출용으로도 사용 가능합니다.

실습예제자료

* 강의 9주차에서 다루는 BRATS 데이터베이스를 사용하여 Fully Convolutional Network 모델을 구현한 활용 예시입니다. (출처: Brain tumor segmentation with deep neural networks 논문)

#FAQ

영상인식 기법이 적용된 결과물 구현에 관심이 있습니다. 이 코스가 적합할까요?

본 코스는 영상인식을 위한 많은 이론들을 체계적으로 정리하고, 주요한 논문을 review 하는 것을 특징으로 합니다. ‘결과물 구현’에 관심 있으시다면 [인식 모델 구현 프로젝트 CAMP] 수강을 추천 드립니다.

딥러닝과 TensorFlow 학습을 막 시작하였습니다. 코스 수강이 가능할까요?

본 코스에서는 최신 이론과 논문을 다루고 있습니다. 따라서 CNN, RNN, LSTM 등 기본적인 딥러닝 모델에 대한 이해와 TensorFlow 코드를 읽고 의미를 파악하실 수 있다는 전제로 진행됩니다. 수강 전 수강 선수 지식과 사전 지식 체크 리스트를 반드시 확인해 주시기 바랍니다. 사전 지식이 부족할 경우 [TensorFlow로 시작하는 딥러닝 입문 CAMP] 수강을 추천 드립니다.

실습을 위해서는 컴퓨터 사양이 어떻게 되어야 하나요?

코스 기간 중 실습에 활용하실 수 있도록 AWS instance가 제공됩니다. 따라서 개인 랩탑 사양은 크게 중요하지 않습니다.

{ FASTCAMPUS COMMUNITY MEMBERSHIP }

패스트캠퍼스 오프라인 강의를 수강하셨다면!
별도의 가입절차없이 패스트캠퍼스 커뮤니티 멤버쉽 회원이 됩니다.
커뮤니티 멤버쉽은 수강 후 1년 동안 유지되며,
오직 멤버들만을 위한 비공개 스터디클럽, 네트워킹행사, 세미나 등 비정기적 행사에 모실 예정입니다.

#수강료안내

정가 180만 원

# 할인가는 매주 목요일 자정에 변경됩니다.
# 할인가 적용 및 수강 확정은 결제일을 기준으로 합니다.
# 카드 12개월 무이자 할부 가능합니다.

#강의장안내

학습 지원 프로젝트

공부도 하고! 학습지원금도 받고!

*학습지원금(제세공과금 22% 차감 후 지급)은 강의마다 개인마다 상이할 수 있습니다.

학습 목표 1. 과제 및 학습노트 제출

-과제 형태: 과제 제출 + 학습노트 작성.
-과제 제공 방식: 1 ~ 9회차 강의 내용에 대한 연습 문제 형식의 과제 제공. (과제풀이는 차주 수업에서 진행됩니다)
-과제 제출 일정: 코스 진행 3일 후(화요일), 24:00까지 폼스택으로 과제 제출. (과제 접수 여부는 폼스택 접수시간으로 판단됩니다)
-수강중 학습 콘텐츠 일정 (학습노트 제출 1회/과제 제출 9회)
1회차: 5월 14일(화)까지 과제 제출
2회차: 5월 21일(화)까지 과제 제출
3회차: 5월 28일(화)까지 과제 제출
4회차: 6월 4일(화)까지 과제 제출
5회차: 6월 18일(화)까지 과제 제출
6회차: 6월 25일(화)까지 과제 제출
7회차: 7월 2일(화)까지 과제 제출
8회차: 7월 9일(화)까지 과제 제출
9회차: 7월 16일(화)까지 과제 제출
10회차: 7월 23일(화)까지 학습노트 작성 후 제출

학습지원금을 받으려면?

미션을 모두 완료하면 신청페이지를 통해 신청 가능합니다.
다만, 강의 종료 후 30일 이내에 신청페이지를 통해서 신청해주셔야 합니다.
아래의 환급신청 링크로 신분증 사본 / 환급받을 통장사본을 제출 (반드시 본인 명의로만 가능)해 주세요.
결제한 수강료의 10% (환급 금액의 22% 제세공과금으로 차감) 를 드리며, 학습지원금은 개인마다 상이할 수 있습니다.

환불규정

* 학습지원금은 기수강생 할인만 중복 적용이 가능합니다. (기타 다른 이벤트와 중복 적용이 불가합니다.)
* 과제물이 허위로 작성되거나 표절일 경우 환급이 거절될 수 있습니다.
* 환불은 환불규정(https://www.fastcampus.co.kr/refund/)에 따라 진행됩니다. 규정에 의거하여 환불금액이 없을 수 있습니다.