머신러닝을 위한
베이지안과 통계적
추정 CAMP.

머신러닝 알고리즘에 담긴 통계적 원리를 이해하기 위한
확률/통계 이론부터 알고리즘 접목, R실습까지!

기 간 일 정 장 소 준비물 문 의
2019년 1월 19일 ~ 3월 16일
(주 1회, 총 8회) | 휴강:2/2(설연휴)
토요일 오전 10시 ~ 오후 1시
(회 당 3시간, 총 24시간)
패스트캠퍼스 강남 본원 개인 노트북 이샘 매니저 02-501-9396
help-ds@fastcampus.co.kr

 데이터 사이언티스트가 되고 싶지만 확률/통계에 발목 잡히셨다면!

도메인과 프로그래밍에 대한 지식은 있지만 막상 확률/통계에 대한 지식이 부족하여 답답함을 느끼셨나요? 데이터 사이언티스트로 입지룰 굳히기 위해 확률/통계를 탄탄히 다지고 싶은 당신을 위한 과정입니다.

 머신러닝/딥러닝에 활용되는 확률/통계를 제대로 학습하고 싶다면!

확률변수, 최소제곱추정법, Monte Carlo Simulation 등 머신러닝과 딥러닝을 공부하면서 계속 마주치는 용어들. 한 번 쯤 정리하고 싶었지만 대학교/대학원 진학은 부담스럽고, 적절한 인강도 못 찾지 못해 막막하시다면, 이 강의를 주목하세요!

기계적인 분석이 아닌 머신러닝 알고리즘의 원리부터 제대로 이해하고 활용하고 싶다면,

“확률/통계는 ‘선택’이 아닌 ‘필수’입니다!”

Why?

머신러닝의 뿌리는 바로 ‘통계’입니다.

머신러닝이란, 특정 Task를 달성하기 위해서 기계를 학습시키고, 반복적인 학습을 통해서 Task 수행 성능을 높이는 것을 의미합니다. 즉, 주어진 Task를 해결하기 위한 적절한 모형을 설정하고, 자료들을 이용하여 정확한 모형을 추정해나가는 과정이라 말할 수 있습니다. 이런 머신러닝 알고리즘이라고 이야기하는 것들은 통계학적 관점에서 ‘모형’을 일컫는 말입니다. 대다수의 머신러닝 알고리즘은 기존의 통계모형을 응용하고 활용한 것입니다.


확률/통계를 알면 머신러닝에서 발생하는 문제를 설명할 수 있고, 해결 접근법을 찾을 수 있습니다.

머신러닝에서 이야기하는 데이터를 fitting하는 과정은 통계적 관점에서 바라보면 모형을 추정하는 것입니다. 통계/확률적 이론은 데이터를 모형에 학습 시킴에 있어 막히는 부분에 대한 해결방법이나 분석결과물을 설명 가능하게 해줍니다. 많은 분석가/개발자 분들이 현업에서 일을 하며 막상  ‘통계/수학적 지식’을 확고히 하지 못해 후회하는 이유이죠. 더 좋은 분석 결과물을 내기 위해서는, 통계학적 이론의 견고함이 중요합니다.

그래서 준비했습니다.

머신러닝 알고리즘에 녹아있는
베이지안/통계적 추정에 대한
내용을 압축적으로 배울 수 있는 8주 강의.

[강의 요약 자료]

강의특징.

1. 확률/통계와 머신러닝,
두 마리 토끼를 동시에!

icon5

대학원 진학은 부담스럽고, 독학으로 통계학을 공부하자니 너무 막막하셨죠? 본 강의에서는 단순히 통계학을 이론적으로만 다루는 것이 아니라, 머신러닝을 위한 확률/통계 이론을 압축적으로 짚어드립니다. 통계학과 딥러닝/머신러닝을 함께 연구하시는 강사님과 함께 국내 유일의 커리큘럼을 경험하세요!

2. 베이즈 통계학 뿐만 아니라
R로 코딩 실습까지!

icon3 (1)

단순히 교과서적인 통계 이론만을 전달드리는 강의가 아닙니다. 실습을 통해 R에 내장된 패키지를 활용하거나 모델을 직접 만들어보며, 선형회귀부터 베이즈 통계학까지 모두 익혀가실 수 있습니다.

3. 단기간에 압축적으로
배울 수 있는 체계적인 수업방식

icon4 (1)

확률, 통계이론과 R을 활용한 실습뿐만 아니라 수강생들의 실력향상을 돕기 위한 Weekly 과제가 제공됩니다. 과제를 통해 수업시간에 배운 내용을 심층적으로 이해할 수 있으며, 자신의 데이터를 바라보는 인사이트를 찾을 수 있습니다. 강사님께서는 수강생들이 제출하는 과제에 매주 1:1 피드백을 드립니다.

[확률/통계이론 – R 실습 – 과제 제공 – 1:1 피드백]
체계적으로 진행되는 강의 시스템을 경험하세요!

매주 진행되는 과제를 통해 강사님만의 노하우가 담긴 피드백을 받으실 수 있습니다.

(Weekly Quiz 예시)

*본 자료는 실제 수강생분들이 제출하신 과제의 일부입니다.

새로운 기술을 담은 논문을 이해하고,
트렌드에 앞서가는 데이터 사이언티스트
되길 원하신다면, 탄탄한 확률/통계 기본기부터 갖추세요!

추천대상.

icon_man4_3_oh

머신러닝 알고리즘의 모델에
어떤 통계적 원리가 들어가
있는지 궁금하신 분

icon_woman1_2_happy-150x150

어떤 알고리즘으로 문제를 풀어가는게
좋을지에 대한 궁금증이 있는 분석 초급자

icon_man4_3_oh

머신러닝, 데이터 마이닝의
심화를 위한 기초를
탄탄히 다지고 싶은 개발자

수강생 체크 리스트

① 선형 회귀분석, 기대값, 공분산, 중심극한정리, 이항분포, 정규분포 중 알고있는 개념이 3개 이상이다.
② R, 파이썬 등으로 코드를 돌려본 경험, 분석을 진행하여 본 경험이 있다.
③ 선형대수 기초에 대하여 공부한 경험이 있으며, 벡터공간과 선형변환이 무엇인지 알고 있다.
④ 고등학교 이과 수준의 미적분에 대한 내용을 알고 있다.

 

* 위 질문에 2개 이상 yes라고 대답하실 수 있어야, 본 강의를 수강하시는데 무리가 없습니다. 나에게 알맞은 강의인지 잘 모르시겠다면,
담당 매니저와의 상담 후(문의: 02-518-4822) 수강 신청 하시기 바랍니다.

커리큘럼.

*모든 실습은 R을 활용하여 진행됩니다.

Part 1. 확률과 확률분포에 대한 전반적인 소개

1회차. 통계적 모형이란 무엇이고, 머신러닝과는 어떤 관계가 있을까?▼

확률과 확률분포: 통계적 모형과 머신러닝 기법들의 관계에 대해 알아보고 확률의 뜻과 성질, 확률변수, 확률분포 등에 대해 공부합니다.

[이론]
통계학과 머신러닝과의 관계
확률의 뜻과 성질
확률변수와 확률분포

[실습]
확률분포의 시각화
탐색적 자료분석

2회차. 머신러닝/통계적 모형에서는 어떤 분포들이 자주, 그리고 왜 사용될까?▼

머신러닝을 위한 확률분포: 이항분포, 정규분포 등 실제 머신러닝에서 자주 쓰이는 분포들에 대해서 알아봅니다. 대수의 법칙과 같은 정리들에 대해 공부하고, 이를 이용한 몬테 카를로 시뮬레이션을 진행해 봅니다.

[이론]
– 머신러닝과 확률분포
– 여러 가지 확률분포
– 대수의 법칙 (Law of Large Numbers)과 몬테 카를로 시뮬레이션

[실습]
– R과 확률분포
– 몬테 카를로 시뮬레이션 (Monte Carlo simulation)

Part 2. 통계적 추정

3회차. 머신러닝/통계적 모형을 추정할 때 어떤 통계적 이론들이 필요할까?▼

머신러닝과 통계적 추정 (1): 통계적 추정이 무엇인지와 머신러닝의 관계에 대해 알아봅니다. 실습에서는 통계적 추정을 이용해 선형회귀모형을 적합해봅니다.

[이론]
– 머신러닝과 통계적 추정
– 회귀모형과 분류모형
– 대표적인 손실함수와 머신러닝 기법들과의 관계
– 최소제곱 추정법 (Least Squares Estimation)

[실습]
– R과 통계적 추정
– 선형회귀모형 (Linear Regression)

4회차. 실제 사용되는 머신러닝/통계적 모형들을 어떻게 추정할 수 있을까?▼

통계적 추정(2): 머신러닝과 통계적 추정 (2): 최대가능도 추정법을 이용한 대표적 분류모형에 대해 알아보고 이를 계산하기 위한 방법들에 대해서도 공부합니다. 또한, 대표적인 비지도학습인 군집분석에 대해 간단히 알아봅니다. 실습에서는 스팸메일을 분류하는 모형을 적합해봅니다.

[이론]
– 일반화 선형모형 (Generalized Linear Model)
– 최대가능도 추정법 (Maximum Likelihood Estimation)
– 비지도학습과 군집분석

[실습]
– R을 이용한 최대가능도 추정
– 로지스틱 회귀분석 (Logistic regression)
– Naïve Bayes classification

5회차. 머신러닝 중 발생하는 문제점들은 어떤 것들이 있고, 이들을 어떻게 해결할 수 있을까?▼

통계적 모형의 선택: 통계적 모형을 평가하는 기준에 대해 알아봅니다. 과적합(Overfitting) 문제와 같이 통계적 모형의 적합 중 발생하는 문제들과 이를 해결하기 위한 방법들에 대해서도 공부합니다.

[이론]
– 통계적 모형의 비교
– 과적합 문제, 차원의 저주, 모형의 복잡성
– Variance-Bias Decomposition
– 차원축소, 변수선택, Regularization

[실습]
– 변수선택
– Ridge and LASSO regression

Part3. 베이지안 추정

6회차. 낯익은 그 이름, 베이즈 통계학이란 과연 무엇일까?▼

베이즈 통계학: 베이즈 통계학이란 무엇인지와 기존의 통계학과는 어떤 차이가 있는지에 대해 알아봅니다. 베이즈 모형과 이를 추정하는 방법들에 대해서도 간략히 공부합니다.

[이론]
– 사전분포, 사후분포, 베이즈 정리
– 베이즈 통계학
– 베이즈 모형 (Bayesian model) (1)
– 베이지안 추정과 머신러닝

[실습]
– 베이지안 추정과 최대가능도추정의 비교
– R을 이용한 베이지안 추정

7회차. 베이지안 추정을 이용한 머신러닝/통계적 모형들은 어떤 것들이 있을까?▼

베이즈 모형: 베이즈 모형들과 베이지안 추정의 예시에 대해 공부합니다. 베이지안 추정을 근사적으로 실시하기 위한 몬테 카를로 근사와 표본추출 알고리즘을 공부합니다.

[이론]
– 베이즈 모형 (2)
– 몬테 카를로 근사 (Monte Carlo approximation)
– 표본추출 알고리즘

[실습]
– Bayesian Linear Regression

8회차. 베이지안 머신러닝에서 사용된다는 MCMC와 Variational Inference와 같은 방법들은 무엇이고, 왜 사용되는 것일까?▼

MCMC와 Variational Inference: 직접적으로 사후분포를 계산하기 힘든 일반적인 베이즈 모형을 추정하기 위해 제안된 방법들에 대해 공부합니다.

[이론]
– MCMC (Markov Chain Monte Carlo) 알고리즘
– 변분 추론 (Variational Inference)

[실습]
– R을 이용한 MCMC
– Bayesian Linear Regression
– 가우스 혼합 모형 (Gaussian Mixture Model)

l  단순히 ‘예제’라고 표현한 것은 추후 Data를 준비하여 진행할 실습을 의미합니다.
l  진도 등을 고려하여 실제 강의 중 커리큘럼에 변동이 생길 수 있습니다.

강사소개.

강사
이경원

“학사과정에서 수학과 통계학을 전공했고, 현재는 서울대학교 베이지안 통계학 연구실에서 공부하고 있습니다. 머신러닝의 기본적인 뿌리는 수학과 통계학입니다. 많은 머신러닝 기법들은 통계학적 관점에서 모형을 추정하는 문제로 생각할 수 있고, 그 성질을 파악하는 데에는 일정 수준 이상의 통계적 지식이 요구됩니다. 머신러닝에 관심이 있고 그 원리와 이론적 배경이 궁금하신 분들에게 필요한 통계학을 알려드리겠습니다.

[약력]

– 서울대학교 통계학과 석박사 통합과정 중, 베이지안 통계학 전공
– 서울대학교 수리과학부 학사

[Teaching Experience]

– 2017 서울대학교 통계학 과목 조교
– 2017 서울대학교 통계학실험 과목 조교
– 2018 서울대학교 수리통계 과목 조교

머신러닝, 결국은 통계입니다!

머신러닝을 위한 베이지안과 통계적 추정 CAMP

일    정 2019.1.19.~ 2019.3.16. | 휴강:2/2(설연휴)
매주 토요일 10:00 ~ 13:00 | 총 8주
준비물 개인 노트북 사용 추천
(본인 PC에 맞는 개발 환경 설정 및 원활한 개별 실습을 위하여)
장    소 패스트캠퍼스 강남 본원
문    의 이샘 매니저 : 02-501-9396
궁금하신 사항이 있으면 언제든 연락주세요 🙂

정가 140만원

※출시알림을 신청하시면 다음 기수 강의정보를 가장 먼저 받아보실 수 있습니다..
※할인가는 매주 목요일 자정에 변경됩니다.
※ 카드 12개월 무이자 할부 가능!

출시알림

강의장 안내