파이썬을 활용한 머신러닝 CAMP

데이터 분석을 제대로 시작하고 싶다면, 파이썬이 답이다!
파이썬으로 시작하는 머신러닝 입문 9주 코스

  • #머신러닝입문
  • #실무활용
  • #핵심알고리즘
기간
2020. 07. 11 - 2020. 9. 12 총 9주 (8월 15일 휴강)
일정
매주 토요일, 10:00 ~ 13:00 주 1회, 총 27시간
장소
패스트캠퍼스 강남강의장 강남역 4번출구, 미왕빌딩
문의
02-568-9886 help-ds@fastcampus.co.kr

본 강의는 모집이 마감되었습니다.
다음 기수 출시알림을 신청해주시면, 특별 할인혜택과 함께 가장 먼저 소식을 알려드리겠습니다

머신러닝의 알고리즘을 정확히 이해하고
실무에 제대로 활용하고 싶다면?

파이썬으로 머신러닝 학습을 시작하는 것이 좋습니다.

하지만! 독학으로 공부하기에는 파이썬을 통한 머신러닝 학습이 쉽지않죠?

더 이상 어렵게 느끼지 않도록,
기초를 단단하게 다져 드립니다.

강의특징.
01
사례를 활용해 재미있게 배우는 머신러닝

어렵게만 보였던 머신러닝, 지루하기까지 했나요? ‘타이타닉 탑승객의 분류’, ‘농구선수의 슛 성공/실패 분류’, ‘목소리 신호 데이터로 성별 분류’와 같이 흥미로운 Kaggle 예제를 통해 머신러닝을 보다 재미있게 이해해봅니다.

02
이해하기 쉽도록 지속적으로 반복되는 학습과 피드백

개념과 수식 이해, 실습 등이 유기적으로 이뤄져야 머신러닝 알고리즘을 제대로 이해할 수 있습니다. 설명과 실습, 수업 후 제공되는 강의 요약본으로 반복 학습이 가능하며, 이를 온전히 가져갈 수 있도록 퀴즈 및 피드백을 제공합니다.

03
필요한 만큼의 수식 설명으로 수학에 대한 부담감 해소

머신러닝 공부의 가장 큰 장벽 수학! 하지만 모든 수식에 대해 알아야 할 필요는 없습니다. 알고리즘 이해를 위한 최소한의 수학적 내용만을 압축해서 전달하여, 수학에 대한 부담감이 대폭 줄어듭니다.


수강대상.

머신러닝 알고리즘을 이해하고 실무에 적용하고 싶은 개발자

자신의 연구에 데이터 분석을 활용하고 싶은 연구원, 대학원생

머신러닝 알고리즘을 배우고 싶지만 파이썬 기초밖에 모르시는 분


실제 수업 자료 예시.

수강생의 실습 결과물
실제 수업 자료를 확인하세요!

ㅤ강의자료 예시


ㅤ학습노트 예시


ㅤ실습 결과물 예시

[남/여의 목소리 데이터를 활용한 의사결정 나무 모델링]

환경 설정은 쉽게 설치할 수 있도록 별도 강의가 제공됩니다.

커리큘럼
1주차
머신러닝 개요 및 파이썬 기초 (Introduction)
데이터 분석을 위하여 이용되는 머신러닝 기법들의 종류들을 살펴보고, 데이터 분석 과정에 대하여 알아봅니다.

-머신러닝의 활용사례와 이슈
- 실습을 위한 파이썬 환경 구성
- Anaconda 를 이용한 실습 환경 설정
- Github 을 이용한 실습 코드 및 데이터 공유
- Python, Numpy, Pandas, Bokeh 소개
2주차
선형 회귀 모델
(lineaer regression)
회귀 모델 중 기본이 되는 선형 회귀 모델을 통하여 머신러닝 알고리즘의 주요 개념인 손실 함수, 패러매터, 하이퍼 패러매터의 개념을 알아봅니다. 이 과정에서 미분을 기반으로 모델을 학습하는 방법에 대해서도 살펴봅니다.

- Least Squares 와 Maximum Likelihood Estimation 를 이용한 선형 회귀 모델 풀이
- 미분을 이용한 최적화 탐색
- 다중 선형 회귀 모델 (Multiple linear regression)
- 다항 회귀 모델 (Polynomial regression)
- 모델 적합도와 검정

3주차
로지스틱 회귀를 이용한 분류 (logistic regression)
분류 모델 중 기본이 되는 로지스틱 회귀 모델의 작동 원리를 살펴봅니다. 또한 모델의 과적합을 방지하거나 고차원 데이터에서 유용한 변수를 데이터 기반으로 추출하기 위한 제약 (regularization) 방법에 대해서 살펴봅니다. 로지스틱 회귀 모델의 작동 원리에 대한 이해는 다양한 선형 분류 모델 및 인공신경망, 딥러닝과 같은 복잡한 모델의 이해를 위한 첫걸음입니다.

- 로지스틱 회귀의 소프트맥스 회귀로의 확장
- 과적합과 L2/L1 regularization
- Logit 에 대한 선형 회귀 모델로의 해석
- 문서 분류 예시를 통한 모델 계수의 의미 해석
4주차 - 1
변수 엔지니어링와 데이터 전처리
벡터 공간에서 정의되는 머신러닝 기법들을 이용하기 위해서는 벡터가 아닌 데이터를 벡터로 표현하거나, 이미 벡터로 표현된 데이터를 특징이 더 잘 드러나는 새로운 벡터로 변형해야 합니다. 이 과정에서 불필요한 변수를 제거하거나 유용한 변수를 만들기도 합니다. 또한 모델의 안정적인 학습을 위한 데이터 전처리 과정을 알아봅니다.

- 데이터의 벡터 표현 및 정규화 (normalization)
- 변수 추출법인 Singular Vector Decomposition
- 고차원 벡터의 차원 축소를 통한 시각화 (t-SNE, UMAP)
4주차 - 2
모델의 성능 검증 및 데이터 분리
모델의 성능을 표현하기 위한 척도들을 살펴봅니다. 또한 모델의 과적합 방지 및 일반화 성능 측정을 위한 학습/테스트 용 데이터 분리 방법을 알아봅니다.

-판별 성능 척도 (precision, recall, F1, accuracy, confusion matrix)
- 회귀 성능 척도 (MSE, MAP)
- 교차 검증 (cross validation)
- 하이퍼 패러매터 탐색 방법
5주차
인공신경망을 이용한 비선형 분류 및 회귀 (feed forward neural network)
선형 분류나 회귀 모델로 예측이 되지 않는 데이터를 분류하기 위하여 이용되는 인공신경망은 모델 내부에서 데이터가 선형 분류가 될 수 있도록 그 표현법 (representation) 을 변형하는 알고리즘입니다. 인공신경망의 원리를 알아봅니다. 이 원리는 이후 딥러닝 모델의 원리를 이해하기 위한 기초가 됩니다.

- Linear inseparable 문제 (XOR)
- 인공신경망의 구성 요소 (hidden layer, activation function)
- 인공신경망의 기하학적 해석 (representation learning)
- optimizers (SGD, Adam)
6주차
지지 벡터 머신 (Support Vector Machine)
SVM 은 딥러닝 모델 이전에 kernel trick 을 이용하여 높은 성능을 보여주던 분류 모델입니다. SVM 은 선형, 비선형 경우 모두 높은 분류 성능을 보여줍니다. 이 모델의 원리에 대하여 알아봅니다. 또한 회귀 모델에 이용하기 위한 Support Vector Regression (SVR) 모델에 대해서도 알아봅니다.

- Linear kernel SVM
- Radial Basis Function (RBF) kernel SVM
- Support Vector Regression
7주차 -1
의사결정 나무 (Decision Tree)
의사결정 나무는 분류와 회귀에 모두 이용 가능한 기법으로, 입력 데이터의 형태가 반드시 벡터가 아닌 경우에도 잘 작동하며 모델의 작동 원리를 규칙으로 해석할 수 있다는 장점이 있습니다. 하지만 한 번에 하나의 변수만을 이용하는 특징 때문에 고차원의 스파스 형태의 데이터에서는 잘 작동하지 않기도 합니다. 의사결정 나무의 원리를 알아보고, 어떤 경우에 유용한지 살펴봅니다.

- 의사결정 나무를 이용한 분류와 회귀
7주차 -2
앙상블 기법
앙상블 기법은 모델의 과적합 문제를 해결할 뿐 아니라 복잡한 판별 경계면을 학습하는데도 유용합니다. 의사결정 나무를 이용하는 앙상블 기법인 랜덤 포레스트 (Random Forest) 와 부스팅 기법 중 하나인 XGBoost 에 대하여 알아봅니다.

- Bagging / Boosting
- Random Forest 와 Extreme Forest
-XGBoost
- Isolation Forest 를 이용한 이상치 (outlier) 탐색
8주차
최인접이웃 기반 모델 (k-Nearest Neighbor models)
최인접이웃을 이용한 분류/회귀 모델은 가장 직관적이면서도 데이터의 복잡한 패턴을 학습할 수 있는 능력이 있습니다. 이 모델은 학습과정이 필요하지 않기 때문에 새로운 데이터를 지속적으로 업데이트 할 수 있다는 장점도 있습니다. 그러나 최인접이웃의 검색 시간이 데이터의 개수에 비례하는 단점이 있습니다. 이를 해결하며 효율적으로 최인접 이웃을 검색하는 방법에 대해서도 살펴봅니다.

- k-NN 기반 분류/회귀 모델
- Ball Tree 를 이용한 빠른 최인접이웃 검색
9주차
군집화 (Clustering)
군집화 기법은 비슷한 종류의 데이터를 하나의 집합으로 묶음으로써 데이터 내 패턴을 추출하는데 이용될 수 있습니다. 대표적인 군집화 방법들에 대하여 알아보고, 차원 축소 방법인 UMAP 을 이용하여 군집화 결과를 시각화 하는 방법에 대해서도 살펴봅니다.

- k-means
- hierarchical clustering
- DBSCAN
- UMAP 을 이용한 군집화 학습 결과의 시각화

잠깐! 수강 신청전 Check list.

1. jupyter notebook으로 코드를 돌려본 경험이 있다.
2. 파이썬 스크립트를 보고 의미를 파악할 수 있다.
3. 파이썬 라이브러리를 활용해 본 경험이 있다.

🙋‍♂️Check List 중 2가지 이상 해당 된다면 본 강의를 수강하셔도 좋습니다.
그렇지 않다면 반드시 담당 매니저와 상담 후 신청해 주세요.


수강후기

수강생들의 생생한 후기를 들어보세요!

4기 수강생 오승열님

머신러닝을 활용하여 문제를 해결하고 싶은데 시작하기가 겁이 나신다면 고민하지 마시고 수강하세요. 절대 후회하지 않으실 겁니다.

오승렬님 인터뷰 보기 →
9기 수강생 장정원님

수학, 코딩에 대해서는 잘 모르지만 머신러닝에 관심이 많은 저같은 비전공자나 입문자들에게 정말 도움이 되는 강의입니다.

장정원님 인터뷰 보기 →
B사 데이터 분석가 Y님

수식도 잘 설명해 주시고 모델링에 필요한 코드까지 꼼꼼히 챙겨주십니다

대학원생 P님

어렵다고만 생각했던 머신러닝, 차근차근히 기초부터 배울 수 있어서 좋았습니다.

A사 모바일웹 개발자 K님

기초적인 개념만 알아도 실무 적용가능한 방법을 배울 수 있습니다.

대학원생 J님

강사님의 머신러닝 관련지식과 연구 경험이 풍부하셔서 많은 도움이 됩니다.

H사 해외영업팀 N님

실제 사용법을 확실히 이해하게 됐어요, 혼자 공부할 때에 비해 훨씬 쉽게!

T사 개발자 L님

머신러닝 입문 강의로는 아주 잘 짜여진 커리큘럼이라고 생각합니다.


강사님 소개
김현중 강사님

약력

- 서울대학교 산업공학과 데이터마이닝 연구실 박사과정
- 한국어 텍스트 분석을 위한 soynlp 라이브러리 개발
- PYCON KOREA 2017 ‘노가다 없는 텍스트 분석을 위한 한국어 NLP’ 발표
- (2016~현재) 패스트캠퍼스에서 파이썬, 머신러닝 관련 강의 다수 진행

강의장 안내
유의사항 및 환불규정.

수강료.

국내 9개 카드사 12개월 무이자 할부 지원!

  • 삼성카드
  • 신한카드
  • 롯데카드
  • 현대카드
  • 하나카드
  • BC카드
  • KB국민은행
  • 씨티카드
  • NH농협카드