Machine learning - 전체 강좌

발행: (2026년 1월 4일 오후 06:36 GMT+9)
6 min read
원문: Dev.to

Source: Dev.to

머신러닝 — 블로그 시리즈 목차

PART 0: Before ML (Mindset & Big Picture)

  • 머신러닝이란? (버즈워드 없이)
  • ML vs AI vs DL vs 통계학
  • 왜 실제 환경에서 ML 모델이 실패하는가
  • ML 라이프사이클: 데이터 → 모델 → 배포 → 성능 저하
  • 절대 머신러닝을 사용하면 안 되는 경우

PART 1: Mathematical Foundations (Intuition First)

  • (초반에 무거운 증명은 배제 — 기하학 + 시각화)
  • Linear Algebra for ML
    • 벡터: 점, 방향, 그리고 피처
    • 내적 = 유사도 (코사인이 작동하는 이유)
    • 행렬 곱셈을 변환으로 보기
    • 고유벡터 = “안정적인 방향”
    • 고차원 공간이 이상한 이유
  • Probability & Statistics
    • 확률 변수 = 불확실성 컨테이너
    • 기대값 = 장기 행동
    • 분산, 편향, 노이즈 (실제 의미)
    • 수식 없이 베이즈 정리
    • 최대우도 vs MAP
  • Optimization Basics
    • 손실 함수: 후회를 측정
    • 기하학적으로 바라본 경사하강법
    • 지역 최소점, 안장점, 평탄 영역
    • 학습률 = 물리학에서의 스텝 크기
    • 볼록 vs 비볼록 문제

PART 2: Classical Machine Learning (Core)

  • 지도 학습
  • 스크래치부터 구현하는 선형 회귀
  • 과적합 vs 과소적합 (편향‑분산 트레이드오프)
  • 정규화: L1, L2, Elastic Net
  • 확률 모델인 로지스틱 회귀
  • 의사결정 트리: 혼돈을 질서로 나누기
  • 랜덤 포레스트: 군중의 지혜
  • 직관적인 Gradient Boosting
  • 간단히 설명하는 XGBoost
  • Model Evaluation
    • Train/Validation/Test 분할에 대한 오해
    • 정확도는 거짓 (정밀도, 재현율, F1)
    • ROC vs PR 곡선
    • 올바른 교차 검증
    • 데이터 누수 끔찍한 사례

PART 3: Unsupervised Learning

  • 클러스터링: 구조 발견
  • K‑Means의 기하학적 직관
  • 계층적 클러스터링
  • DBSCAN과 밀도 기반 사고법
  • 차원 축소 vs 피처 선택
  • PCA = 분산 최대화
  • PCA가 편향을 증폭시킬 때 (공정성 관점)

PART 4: Feature Engineering (Underrated Superpower)

  • 모델보다 피처가 더 중요한 이유
  • 범주형 변수 인코딩
  • 스케일링 및 정규화에 대한 오해
  • 피처 상호작용
  • 시간 기반 피처
  • 피처 누수 패턴
  • 도메인 기반 피처 설계

PART 5: Neural Networks (Deep Learning)

Basics

  • 퍼셉트론: 뉴런 신화
  • 선형 모델이 실패하는 이유
  • 활성화 함수의 기하학적 해석
  • 시각적으로 설명하는 역전파
  • 소실 및 폭발하는 그래디언트
  • Architectures
    • 완전 연결 네트워크
    • CNN: 지역 연결 직관
    • 풀링: 정보 압축
    • RNN과 시퀀스 메모리
    • LSTM & GRU 해부
    • 고수준에서 바라본 Transformers

PART 6: Training Deep Models

  • 초기화가 생각보다 중요함
  • 배치 vs 미니‑배치 vs 확률적 GD
  • 옵티마이저: SGD, Adam, RMSProp
  • 딥러닝 정규화
    • 드롭아웃 = 앙상블 기법
    • BatchNorm 시각화
  • 조기 종료 직관

PART 7: Model Interpretability & Fairness

  • 블랙‑박스 vs 유리‑박스 모델
  • 피처 중요도에 대한 오해
  • SHAP와 LIME 직관적으로 이해하기
  • ML에서 공정성: 의미가 뭘까?
  • 데이터 편향 vs 모델 편향
  • Fair PCA와 표현 학습
  • 트레이드‑오프: 정확도 vs 공정성

PART 8: ML Systems & Production

  • 학습 파이프라인 vs 추론 파이프라인
  • 오프라인 학습 vs 온라인 학습
  • 모델 버전 관리
  • 데이터 드리프트 vs 개념 드리프트
  • 프로덕션에서 ML 모니터링
  • 재학습 전략
  • ML 기술 부채

PART 9: Applied Machine Learning

  • 추천 시스템을 위한 ML
  • 검색 엔진에서의 ML
  • 사기 탐지를 위한 ML
  • 의료 분야 ML (위험 및 윤리)
  • 금융 분야 ML
  • 스포츠 분석 ML
  • NLP 작업을 위한 ML
  • 컴퓨터 비전을 위한 ML

PART 10: Research Thinking in ML

  • ML 연구 논문 읽는 법
  • 실증 논문 vs 이론 논문
  • 재현성 문제
  • … (계속)

Source:

PART 10: 연구 실무

  • ML에서의 이슈
  • 아무도 존중하지 않는 베이스라인
  • 절제 연구 설명
  • 좋은 ML 논문 쓰기
  • 일반적인 연구 실수

PART 11: 고급 및 최신 주제

  • 자체 지도 학습
  • 대조 학습
  • 표현 학습
  • 메타 학습
  • 온라인 학습
  • 인과 ML
  • 강화 학습 직관
  • LLM 및 기반 모델
  • ML 정렬 및 안전

PART 12: ML 경력 및 학습 경로

  • 물에 빠지지 않고 ML 배우기
  • 수학 vs 직관 — 무엇을 우선시할까?
  • ML 인터뷰 vs 실제 ML
  • 영향력 있는 ML 프로젝트 구축
  • 엔지니어에서 ML 연구자로
  • 연구 문제 선택 방법
Back to Blog

관련 글

더 보기 »