AI 모델의 학습 역학 재고: 실험을 통한 초기 이론
신경망 훈련 중 표현 불안정성 관찰 신경망 훈련 행동을 실험하면서, 나는 반복되는 패턴을 발견했다.
신경망 훈련 중 표현 불안정성 관찰 신경망 훈련 행동을 실험하면서, 나는 반복되는 패턴을 발견했다.
Gradient Descent, Momentum, RMSProp, 그리고 Adam은 모두 같은 최소값을 목표로 합니다. 이들은 목적지를 바꾸는 것이 아니라 경로만 바꿉니다. 각 방법은 메커니즘을 추가하여…
Vanishing Gradient Problem이란 무엇인가? 신경망에서 gradient는 오류를 줄이기 위해 각 weight를 얼마나 변경해야 하는지를 네트워크에 알려준다. 만약 gradient가…
Logistic Regression이란 무엇인가? Logistic Regression은 예/아니오 결과를 예측하는 간단한 machine learning 알고리즘이다. 작은 차 가게를 운영한다고 상상해 보라...
🍵 절대 초보자를 위한 선형 회귀, 코드 예제와 실제 차 매장 시나리오 포함, 머신러닝 용어인 cost function, gradient descent, regularization 등을 다룹니다.
실제 차 가게 시나리오로 설명해 절대 잊지 못할 머신러닝은 위협적으로 느껴질 수 있습니다 — gradients, cost functions, regularization, over‑fitting… i...
마크다운 !Nishanthan K https://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2F...
현대 세계의 많은 측면이 인공지능에 의해 구동됩니다. 인공지능(AI)은 이제 우리 삶의 수많은 측면을 움직이며 인간을 가속화합니다.
Softmax 회귀는 단순히 다중 클래스에 확장된 Logistic Regression입니다. 각 클래스마다 하나의 선형 점수를 계산하고 이를 Softmax로 정규화함으로써 우리는 …
Linear Regression는 간단해 보이지만, 현대 머신러닝의 핵심 아이디어인 손실 함수, 최적화, 그래디언트, 스케일링, 그리고 해석을 소개합니다.