Course Outline

소개

이 섹션에서는 '머신러닝'을 언제 사용해야 하는지, 고려해야 할 사항은 무엇인지, 장단점을 포함하여 모든 것이 무엇을 의미하는지에 대한 일반적인 소개를 제공합니다. 데이터 유형(구조화/비구조화/정적/스트리밍), 데이터 유효성/볼륨, 데이터 기반 대 사용자 중심 분석, 통계 모델 대 기계 학습 모델/비지도 학습의 과제, 편향-분산 균형, 반복/평가, 교차 검증 접근 방식 , 감독/비지도/강화.

주요 주제

1. 나이브 베이즈 이해

  • 베이즈 방법의 기본 개념
  • 확률
  • 공동 확률
  • 베이즈 정리에 의한 조건부 확률
  • 나이브 베이즈 알고리즘
  • 나이브 베이즈 분류
  • 라플라스 추정자
  • 나이브 베이즈를 사용하여 숫자 특징 사용

2. 의사결정나무 이해하기

  • 나누고 정복하기
  • C5.0 의사결정나무 알고리즘
  • 최고 분할 선택
  • 의사결정나무 가지치기

3. 신경망 이해

  • 생물학적 신경망에서 인공 신경망으로
  • 활성화 함수
  • 네트워크 토폴로지
  • 층의 수
  • 정보 흐름 방향
  • 각 층의 노드 수
  • 역전파를 사용하여 신경망 학습
  • Deep Learning

4. 서포트 벡터 머신 이해

  • 초평면으로 분류
  • 최대 마진 찾기
  • 선형적으로 분할 가능한 데이터의 경우
  • 비선형적으로 분할 가능한 데이터의 경우
  • 비선형 공간을 위한 커널 사용

5. 클러스터링 이해

  • 머신러닝 작업으로 클러스터링
  • 클러스터링을 위한 k-평균 알고리즘
  • 거리를 사용하여 클러스터 할당 및 업데이트
  • 적절한 클러스터 수 선택

6. 분류를 위한 성능 측정

  • 분류 예측 데이터 처리
  • 혼동 행렬에 대한 자세히 알아보기
  • 혼동 행렬을 사용하여 성능 측정
  • 정확도 너머 – 다른 성능 지표
  • 카파 통계량
  • 민감도와 특이도
  • 정밀도와 재현율
  • F-측정
  • 성능 교환 시각화
  • ROC 곡선
  • 미래 성능 추정
  • 홀드아웃 방법
  • 교차 검증
  • Bootstrap 샘플링

7. 더 나은 성능을 위해 스톡 모델 조정

  • 자동 매개변수 조정을 위한 caret 사용
  • 간단한 튜닝된 모델 생성
  • 튜닝 프로세스 사용자 정의
  • 메타러닝을 사용하여 모델 성능 개선
  • 앙상블 이해
  • 배깅
  • 부스팅
  • 랜덤 포레스트
  • 랜덤 포레스트 학습
  • 랜덤 포레스트 성능 평가

사소한 주제

8. 최근접이웃을 이용한 분류 이해

  • kNN 알고리즘
  • 거리 계산
  • 적절한 k 선택
  • kNN을 사용하기 위한 데이터 준비
  • kNN 알고리즘이 게으른 이유

9. 분류 규칙 이해

  • 분리하고 정복하기
  • 원룰 알고리즘
  • RIPPER 알고리즘
  • 의사결정나무에서 규칙

10. 회귀 이해

  • 단순 선형 회귀
  • 최소자승법 추정
  • 상관관계
  • 다중 선형 회귀

11. 회귀 트리 및 모델 트리 이해

  • 트리에 회귀 추가

12. 연관 규칙 이해

  • 연관 규칙 학습을 위한 Apriori 알고리즘
  • 규칙의 관심 측정 – 지지와 신뢰도
  • Apriori 원칙을 사용하여 규칙 집합 구성

엑스트라

  • Spark/PySpark/MLlib 및 다익스트라 알고리즘
 21 Hours

Number of participants


Price per participant

회원 평가 (5)

Upcoming Courses

Related Categories