자연어처리를 위한

딥러닝 CAMP

자연어처리에 필요한 딥러닝의 주요 모델,
PyTorch 활용법,자연어처리의 기본개념을
익힐 수 있는 일석삼조의 강의

#자연어처리 기초 
#딥러닝 기법 
#PyTorch 활용법

기간 & 일정

2019.07.13. – 09.07.
(8/3, 8/10 휴강)
매주 토요일 14:00 – 17:00
주 1회 3시간, 총 21시간

장소 & 준비물

패스트캠퍼스 강남강의장
강남역 4번 출구, 미왕빌딩
개인 노트북

담당자 & 문의

이샘 매니저
02-518-4822
help-ds@fastcampus.co.kr

‘자연어처리X딥러닝’ 시작의 첫 걸음!
강의 듣고! 책도 받아 가자!

강사님 저서 <김기현의 자연어처리 딥러닝 캠프>가 출간되었습니다!
수강을 확정하신 분들께는 개강 첫날, 책 무료 제공이 있을 예정입니다.

캡처

강의 목표.

PyTorch를 활용하여, 실제 필드에서
가장 활용도가 높은 기술인
Text Classification
직접 구현할 수 있습니다.

잠깐, 자연어처리Text Classification의 개념.
정확히 알고 계시나요?

인공지능 분야의 하위 분야로 주로 분류되는 분야로 사람이 사용하는 언어를 기계가 인식할 수 있는 형태로 입력 형식을 바꿔주거나 또는 바뀐 형식을 다시 인간이 이해 할 수 있는 언어로 표현하는 기술을 개발하는 분야입니다.

Text Classificaion은 실무에서 가장 활용도가 높은 기술입니다. 본 강의에서는 RNN과 CNN을 활용하여 Text Categorization, Sentiment Analysis(감성분석)을 구현할 수 있도록 합니다. 구현 실습은 이어지는 이미지를 참고하세요!

[현업에서 활용되는 Text Classification]

1-1-1024x1024

#Sentiment Analysis(감성분석)

감정 분석은 분류기의 가장 일반적인 사용 사례 중 하나입니다. 이러한 분석은 사용자나 고객의 의견, 트윗, 리뷰 등에서긍정 표현과 부정 표현을 감지하는 데 사용됩니다.

2-1-1024x1024

# Language Detection(언어탐지)

모델(분류기)에 들어오는 들어오는 텍스트를 언어 목록(예:스페인어, 영어, 프랑스어 등)과 비교하여 분석하여 특정 텍스트가 어떤 언어인지를 분류합니다. 예를 들어, ‘Machine learning’ 라고 언어가 들어오면 ‘영어다’, ‘안녕하세요’ 라고 언어가 들어오면 ‘한국어다’라고 인지하는 것을 말합니다.

nlp33-1024x1024

#Topic Classification(주제분류)

텍스트 분류는 주로 항목별로 텍스트를 구성하는 데 사용됩니다. 트윗, 문서, 뉴스, 리뷰, 등에 어떤 주제로 이야기 하는지 알 수 있습니다.

강의 특징.

자연어처리에 필요한 딥러닝의 주요 모델부터
PYTORCH 활용법, 자연어처리의 기본 개념까지

한 번에 세 가지를 모두 익힐 수 있는, 1석 3조의 강의!

nlp

자연어 처리의 핵심 개념과 최근 연구 동향에 대해 입문자의 눈높이에 맞춰 설명해드립니다.
NLP의 초석이라고 할 수 있는 Word Ebbedding과 단어 중의성 해소를 익히고, 다양한 응용을 통해 인사이트를 얻으세요!

자연어 처리에 최적화된 PyTorch 환경 설정 방법을 익히고, 활용법을 배워 딥러닝 모델을 만들 수 있습니다.
또한 본 강의를 통해, PyTorch 프레임워크를 활용할 수 있고 선형회귀, 로지스틱 분류 문제를 스스로 풀 수 있게 됩니다.

Text Classification은 실제 필드에서 가장 활용도가 높은 기술입니다. RNN과 CNN을 활용하여 감성분석/언어탐지/주제분류 등을 직접 실습해 보세요! 이론으로 이해하고, 실습을 통해 구현해보며 강의 내용을 100% 당신의 것으로 익혀 가세요!

공부도 하고!
학습지원금도 받고!

결제액의 10%를 학습지원금으로 드립니다.

패스트캠퍼스의 수강의지를 강화하기 위한 지원금 제도를 운영합니다
패캠이 제안하는 학습 목표를 달성하고 커리어 이상의 성취감을 얻어가길 바랍니다.

*학습지원금은 제세공과금(22%)을 제하고 드립니다.

학습노트

100% 제출

출석

100% 참석

스터디그룹

100% 참여

추천 대상.

icon_man3_2_happy

현업에서 감성분석, 문서분류 등을
하고 싶은 분석가 및 개발자

icon_man4_2_happy

딥러닝을 활용하여 자연어처리를
구현해보고 싶은 분

icon_woman4_2_happy

PyTorch 활용법과 NLP의 기본개념,
두 마리 토끼를 모두 잡고 싶은 분석 초급자

자연어 처리 심화 과정은 없나요?

기본적인 NLP가 아닌 보다 심화된 NLP와 딥러닝 기반의 NLG에 대해 궁금하시다면?

아래 버튼에 연결된 [ PyTorch를 활용한 자연어처리 심화 CAMP ]를 수강하세요!
바로가기 CLICK!!

커리큘럼.

7주 동안, 자연어처리의 이론과 실습을 동시에 익힐 수 있는 강의.
입문자의 눈높이에 맞춘 커리큘럼으로 시작하세요!

Part I. PyTorch를 활용하여 딥러닝을 입문해봅시다.

1주차 : 파이토치를 활용한 딥러닝의 토대를 다집니다. 딥러닝을 활용한 머신러닝 기초에 대하여 학습하여 봅시다.

– 파이토치 텐서 기본 연산 : 파이토치를 사용하기 위한 기본 연산 함수들을 배우고 실습합니다.
– 손실함수 : 최적화를 위한 손실함수의 개념을 배웁니다.
– 그래디언트 기반 최적화 : 최적화를 위한 도구인 Gradient Descent에 대해서 이야기합니다.
– 선형회귀 : 가장 기초적인 regression 방법인 선형 회귀에 대해서 실습합니다.
– 비선형 활성 함수(Sigmoid, TanH) : 비선형성을 추가하기 위한 활성함수(activtion function)에 대해 다룹니다.
– 로지스틱 회귀 : 가장 기초적인 classification 방법인 로지스틱 회귀에 대해 실습합니다.
– 딥뉴럴네트워크 : Layer를 쌓아 딥러닝을 하는 방법을 소개 합니다.

 

2주차 : 본격적으로 딥러닝에 대하여 이야기해봅시다.

– Back-propagation : 딥러닝을 훈련하기 위한 역전파 알고리즘에 대해 소개합니다.
– 그래디언트 소실(Gradient Vanishing) 문제 : 역전파 알고리즘의 장애물인 그래디언트 소실 문제에 대해 이야기합니다.
– Stochastic Gradient Descent (SGD) : SGD를 활용한 최적화 방법을 소개합니다
– Learning Rate와 Adam : Learning rate에 대해 이야기하고, Adam을 소개합니다.
– Softmax : 분류 문제 적용을 위한 softmax 함수를 소개 합니다.
– MNIST 실습: Auto-encoder, Classification : 이제까지 이야기한 내용을 토대로 실습을 통해 복습합니다.

▷ 딥러닝을 이해하기 위한 기초 확률론에 대하여 배워봅시다.
– 확률(Probability)과 확률 분포(Distribution) : 랜덤변수와 기타 확률 이론에 대해 이야기 합니다.
– 샘플링과 기대값(Sampling and Expectation) : 샘플링에 대해 다루고, 기대값을 통한 적분을 이해합니다.
– 정보이론 (Information Theory) : 정보 이론에 대해 이야기하고, 엔트로피 등의 개념을 이해합니다.

 

3주차 : 확률 위에서 동작하는 뉴럴넷의 개념에 배우고 딥러닝을 제대로 이해해봅시다.

– Maximum Likelihood Estimation (MLE) : 최대가능도추정 방법을 통해 학습하는 방법을 다룹니다.
– 뉴럴네트워크를 통한 확률 분포 근사 : 결국 뉴럴네트워크는 확률 분포 함수임을 이야기 합니다.
– 오버피팅과 Regularizaton(Dropout) : 오버피팅을 이야기하고, Dropout으로 성능을 개선하는 방법을 다룹니다.

Part II. 자연어처리에 대하여 배워봅시다.

3주차 : 자연어처리 소개와 함께 한국어의 특성으로 인한 자연어처리에 대하여 다뤄봅니다.

– 왜 자연어처리는 어려울까? : 전반적인 자연어처리의 어려움에 대해 다룹니다.
– 한국어 자연어처리는 왜 더 어려울까? : 한국어의 특성으로 인한 자연어처리의 어려움에 대해 다룹니다.
– 딥러닝을 활용하 자연어처리의 역사 : 그동안의 자연어처리 연구에 대해 소개합니다.

 

4주차 : 가장 쉬우면서도 어려운 문제인 단어의 의미(유사성과 중의성) 에 대해 이야기합니다.

– 동의어(Synonyms), 상위어(Hypernyms)와 하위어(Hyponyms) : 단어의 의미가 갖는 의미를 다시한번 되짚어 봅니다.
– 시소러스(Thesaurus) 활용하기 ▷ 워드넷(WordNet) : 사전을 통해 단어의 의미를 파악하는 방법에 대해 다룹니다.
– 특징(Feature) 벡터와 유사도(Similarity) : 희소성 해소를 위해 특징벡터를 만들고 유사도를 계산하는 방법을 다룹니다.
– 단어 중의성 해소(Word Sense Disambiguation) : 단어 의미의 모호성을 해소하는 방법에 대해 다룹니다.
– Selectional Preference : Selectional Preference에 대해 소개하고, 이를 통해 중의성 해소를 접근합니다.

Part III. 단어 임베딩 벡터에 대해 배워봅시다.

5주차 : 딥러닝을 다른 각도에서 바라보고, 차원축소 과정을 이해하여 봅시다.

– 차원의 저주와 차원 축소의 필요성 : 높은 차원의 데이터를 다룰때 어려움을 이해합니다.
– 주성분분석 (PCA) : 선형 차원 축소 방법에 대해 이야기 합니다.
– Manifold 가설 : 높은 차원에서의 데이터 분포에 대해 이해합니다.
– 오토인코더 다시보기 : 이를 통해 오토인코더의 개념을 다시 돌아봅니다.

▷자연어처리의 가장 큰 장벽인 희소성 해소를 위한 방법을 이야기합니다.
– Word2Vec : 가장 대표적인 단어 임베딩 방법인 Word2Vec을 소개합니다.
– GloVe : Word2Vec의 한계에 대해 이해하고, GloVe를 이야기 합니다.
– 실습을 위한 분절 실습 : 자연어처리를 위한 분절 방법에 대해 소개 합니다.
– 오픈 라이브러리를 활용한 임베딩 실습 : 공개된 라이브러리를 통해 단어 임베딩을 실습 합니다.

Part IV. 자연어처리 분야에서 가장 활용도가 높은 텍스트 분류(Classficaion)에 대해 배워봅시다.

6주차 : 자연어처리의 필수! 시퀀셜 데이터를 다루기 위한 RNN 구조를 소개하고 이해하여 봅시다.

– Recurrent Neural Network (RNN) : 순환신경망을 통해 시퀀셜 데이터를 학습하는 방법을 이해합니다.
– RNN에서의 그래디언트 전달 : 그래디언트가 역전파를 통해 전달되는 개념을 이해 합니다.
– LSTM과 GRU 소개 : RNN의 한계에 대해 이야기하고, LSTM 등을 소개 합니다.
– 그래디언트 클리핑(clipping) : RNN 훈련 기법인 clipping에 대해 소개 합니다.

▷ 자연어처리의 단골손님, 자연어처리에서 가장 수요가 높은 텍스트 분류에 대해 이야기합니다.
– Naïve Bayes : 가장 기초적인 접근 방식을 소개하고, 한계에 대해 이야기 합니다.
– RNN을 활용한 텍스트 분류 : RNN을 통해 텍스트를 분류하는 실습을 합니다.

 

7주차 : CNN을 활용한 텍스트데이터를 다루는 방법에 대하여 학습합니다. 딥러닝의 성능을 향상하는 방법을 다뤄봅니다.

– Convolutional Neural Network (CNN) : CNN을 소개하고, 동작 원리에 대해서 이해 합니다.
– Batch Normalization을 활용한 Regularization : 또 다른 regularization 방법을 통해 딥러닝의 성능을 향상하는 방법을 다룹니다.
– CNN을 활용한 텍스트 분류 : CNN을 통해 텍스트를 분류하는 실습을 합니다.
– 요약 및 정리 : 7주간의 내용을 돌아보고 요약/정리 합니다.

7주 후, 당신은.

수강 후기.

nlpbasic_김형규님

수업에서 자연어 처리와 텍스트 분석, 딥러닝에 관한 모든 내용을 새롭게 배워간다는 생각보다는, 기본적인 이론은 미리 공부하고 고민해 본 후에 수업에서는 본인이 학습한 이론에 대해서 강사님께 확인한다는 마음가짐으로 수강하시는게 좋을 것 같습니다. 이렇게 말씀드리는 이유는 수업에서 다루는 내용이 쉽지 않기도 하지만, 수업에서 가져가야 할 내용은 일반적으로 인터넷으로 배울수 있는 내용보다는 강사님의 실전 경험이라고 생각되기 때문입니다. 미리 준비한 만큼 더 많은 것을 얻어 갈 수 있다고 생각됩니다.

nlpbasic_여민구님_정

본 코스를 수강한 후 딥러닝과 NLP에 대한 막연함이 해소된 것 같습니다. 스스로 PyTorch 코드를 짤 수 있게 되었고 현업에서 어떻게 활용해야 할지에 대한 가이드라인이 생겼기 때문입니다. 현재는 본 코스에서 학습한 내용을 커뮤니티나 SNS, 상품 후기 등 브랜드와 관련된 소비자의 의견을 취합해 주제와 감성으로 분류하는 일에 활용하고 있습니다. 앞으로는 NLP를 적용하여 소비자의 의견을 파악하는 것에서 더 나아가, 소비자를 세분화하고 각각의 소비자에게 적합한 상품과 광고를 추천해주는 것까지 그 활용 범위를 확대시켜 나가고 싶습니다.

강사 소개.

현재 MakinaRocks에서 NLP 딥러닝 연구/개발을 맡고 있습니다. 딥러닝 이전 밑바닥부터 다져온 NLP에 대한 핵심 경험들과 필요성에 대해 이야기하고, 자연어처리에 필요한 딥러닝의 주요 모델부터 PYTORCH 활용법, 자연어처리의 기본 개념까지 이해하기 쉽게 가르쳐 드리겠습니다.

김기현-200x200

김기현 강사님

[약력]
– 現 마키나락스 수석연구원 (이상탐지 및 생성 모델 학습 연구/개발)
– 前 SK플래닛 머신인텔리전스랩 (신경망 기계번역 연구/개발 및 상용화 , SK플래닛 SUPEX 수상)
– 前 티켓몬스터 데이터랩 (추천시스템 및 자연어처리 시스템 개발 및 상용화)
– 前 한국전자통신연구원(ETRI) 자동 통역 연구실
(자동 통역(음성인식 및 언어모델) 연구/개발 및 상용화)
(특허기술상(특허청) 충무공상 : 자동통역시스템 발명)
– Qualcomm R&D Korea 인턴 및 표창
– Stony Brook University 컴퓨터공학과 학사/석사
– 한국정보올림피아드(KOI) 19회 동상, 20회 장려상
– 머신러닝 관련 다수 특허 등록

[강의 경험]
– 패스트캠퍼스 PyTorch를 활용한 자연어처리 심화 CAMP 강의
– 패스트캠퍼스 자연어처리를 위한 딥러닝 CAMP
– KT 및 KTDS 자연어처리 강의
– SK그룹 기계번역 강의
– 유튜브 모두의 딥러닝 시즌2 PyTorch 강의 참여

2019-04-12_15_07_02_IMG_3235

김광우 조교님

[약력]
– 현 GS SHOP AI센터 빅데이터 플랫폼, 검색 추천 및 분석환경 개발 운영
– SK C&C Data Platform팀 SK Hynix 실시간 분석 환경 구축 프로젝트
– Ticket monster DataLab 빅데이터 및 추천 시스템 운영 및 개발

내 수준에 맞는 텍스트 분석 강의!
잘 모르겠다면?

아래의 관련 강의 정보 및
수강생 선수 지식을 확인해보세요!

학습 경험이 있는 머신러닝 알고리즘을 기반으로 단어/명사 추출, 품사 판별, 키워드 추출, 연관어 분석 등 텍스트 분석으로 확장하는 강의

강의 자세히 보기

RNN과 CNN을 활용하여 Sentiment Analysis, Language Detection, Topic Classification 등의 문서 분류를 구현하는 강의

강의 자세히 보기

주어진 텍스트 데이터로부터 문장을 생성하는 NLG(Natural Language Generation)를 기반으로 상품화가 가능한 수준의 자연어 처리 역량을 기르는 강의

강의 자세히 보기

머신러닝 알고리즘의 응용을 통해 데이터 특성에 맞는 알고리즘 개발. 즉, 자연어 처리를 위한 toolkit을 직접 개발할 수 있는 역량을 기르는 강의

강의 자세히 보기

{ FASTCAMPUS COMMUNITY MEMBERSHIP }

패스트캠퍼스 오프라인 강의를 수강하셨다면!
별도의 가입절차없이 패스트캠퍼스 커뮤니티 멤버쉽 회원이 됩니다.
커뮤니티 멤버쉽은 수강 후 1년 동안 유지되며,
오직 멤버들만을 위한 비공개 스터디클럽, 네트워킹행사, 세미나 등 비정기적 행사에 모실 예정입니다.


잠깐! 자기계발지원금 받아가세요!
7월 한달간, 출석을 인증하고 후기를 작성하신 분 200분께, 50만원~100만원 상당의 수강쿠폰을 드립니다.

· 쿠폰은 10/1에 지급되며, 10월 한달 간 사용 가능합니다.
· 출석인증: 매주 수업 시 출석여부를 확인할 수 있는 강의장 문앞 강의명 안내표 인증사진을 #패스트캠퍼스 #공부하고100만원받고 #자기계발 태그를 붙여 인스타그램 개인 계정에 게시해야합니다.
· 후기작성: 종강 후 수강한 강의의 상세 후기를 네이버 블로그에 작성하고 공개해주셔야 합니다.

매주 목요일마다 할인 마감!

수강료 안내

강의 정보, 한 번 더 확인!

기 간 : 2019. 7. 13. ~ 2019. 9. 7. (총 7주|8/3,8/10 휴강)
일 정 : 토요일 14:00 – 17:00 (주 1회 3시간)
준비물 : 개인 노트북 권장
장 소 : 패스트캠퍼스 강의장


일반등록가 130만 원

개강임박! 곧 마감합니다. 서두르세요! 

✓ 결제 완료자 기준으로 수강명단이 우선 확정됩니다

다음 모집은 언제죠?

출시알림을 신청해주세요

최저가로 강의를 수강할 수 있게, 강의 홍보 시작 시 가장 먼저 메일을 보내드립니다.

강의장 안내

학습 지원 프로젝트

공부도 하고! 학습지원금도 받고!

*학습지원금(제세공과금 22% 차감 후 지급)은 강의마다 개인마다 상이할 수 있습니다.

학습 목표 1. 학습노트 제출

-학습노트 형태: 매주 학습노트 제출.
-학습노트 제공 방식: 1회차 수업시간 전에 구두로 설명 및 메일을 통해 공지할 예정입니다.
-학습노트 제출 일정: 매주 목요일 자정 24:00까지 <b<[학습노트][데이터사이언스]_자연어처리를 위한 딥러닝 5기_N주차_성함으로 메일 제목을 설정하여 이메일로 과제 제출.(제출 시간을 엄수하지 못한 노트는 추후 환급에 불이익이 있습니다.)
-주차별 제출 기한:
2주차 : 7월 25일(목) 자정
3주차 : 8월 15일(목) 자정
4주차 : 8월 22일(목) 자정
5주차 : 8월 29일(목) 자정
6주차 : 9월 5일(목) 자정
7주차 : 9월 12일(목) 자정

학습지원금을 받으려면?

미션을 모두 완료하면 신청페이지를 통해 신청 가능합니다.
다만, 강의 종료 후 30일 이내에 신청페이지를 통해서 신청해주셔야 합니다.
아래의 환급신청 링크로 신분증 사본 / 환급받을 통장사본을 제출 (반드시 본인 명의로만 가능)해 주세요.
결제한 수강료의 10% (환급 금액의 22% 제세공과금으로 차감) 를 드리며, 학습지원금은 개인마다 상이할 수 있습니다.

환불규정

* 학습지원금은 기수강생 및 얼리버드 할인과 중복 적용이 가능합니다. (기타 다른 이벤트와 중복 적용이 불가합니다.)
* 과제물이 허위로 작성되거나 표절일 경우 환급이 거절될 수 있습니다.
* 환불은 환불규정(https://www.fastcampus.co.kr/refund/)에 따라 진행됩니다. 규정에 의거하여 환불금액이 없을 수 있습니다.

기본기를 탄탄하게! 7주동안 자연어처리의 이론과 실습 반복!

할인마감까지 D-