๐Ÿต Linear Regression ์ ˆ๋Œ€ ์ดˆ๋ณด์ž๋ฅผ ์œ„ํ•œ ์ฐจ์™€ ํ•จ๊ป˜ โ€” ์ œ๋กœ ์ง€์‹ ๋น„์œ 

๋ฐœํ–‰: (2025๋…„ 12์›” 21์ผ ์˜ค์ „ 12:22 GMT+9)
11 min read
์›๋ฌธ: Dev.to

Source: Dev.to

๋จธ์‹ ๋Ÿฌ๋‹์€ ์œ„ํ˜‘์ ์œผ๋กœ ๋А๊ปด์งˆ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค โ€” ๊ธฐ์šธ๊ธฐ, ๋น„์šฉ ํ•จ์ˆ˜, ์ •๊ทœํ™”, ๊ณผ์ ํ•ฉโ€ฆ ๋งˆ์น˜ ์™ธ๊ตญ์–ด์ฒ˜๋Ÿผ ๋“ค๋ฆฌ์ฃ .
๊ทธ๋Ÿฌ๋‹ˆ ์šฉ์–ด๋Š” ์ž ์‹œ ์žŠ์–ด๋ฒ„๋ฆฌ์„ธ์š”.

๋‹น์‹ ์ด ์ฐจ ๊ฐ€๊ฒŒ๋ฅผ ์šด์˜ํ•œ๋‹ค๊ณ  ์ƒ์ƒํ•ด ๋ณด์„ธ์š”. ๋งค์ผ ๋‹ค์Œ์„ ๊ธฐ๋กํ•ฉ๋‹ˆ๋‹ค:

  • ์˜จ๋„
  • ํŒ๋งค๋œ ์ฐจ ์ž” ์ˆ˜

๋‹น์‹ ์˜ ๋ชฉํ‘œ๋Š”? ๐Ÿ‘‰ ๋‚ด์ผ์˜ ์ฐจ ํŒ๋งค๋Ÿ‰์„ ์˜ˆ์ธกํ•˜๋Š” ๊ฒƒ.

์ด ํ•˜๋‚˜์˜ ๋ชฉํ‘œ๋งŒ์œผ๋กœ๋„ ๋‹ค์Œ ๋ชจ๋“  ๊ฐœ๋…์„ ๋ฐฐ์šธ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค:

  • ์„ ํ˜• ํšŒ๊ท€
  • ๋น„์šฉ ํ•จ์ˆ˜
  • ๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ•
  • ๊ณผ์ ํ•ฉ
  • ์ •๊ทœํ™”
  • ์ •๊ทœํ™”๋œ ๋น„์šฉ ํ•จ์ˆ˜

์‹œ์ž‘ํ•ด ๋ด…์‹œ๋‹ค.

โญ ์‹œ๋‚˜๋ฆฌ์˜คโ€ฏ1: ์„ ํ˜• ํšŒ๊ท€๋ž€ ๋ฌด์—‡์ธ๊ฐ€?

์˜จ๋„์— ๋”ฐ๋ฅธ ์ฐจ ํŒ๋งค ์˜ˆ์ธก

๋‹น์‹ ์€ ๋‹ค์Œ์„ ๊ด€์ฐฐํ•ฉ๋‹ˆ๋‹ค:

์˜จ๋„ (ยฐC)ํŒ๋งค๋œ ์ฐจ ์ž” ์ˆ˜
10100
1580
2540

ํŒจํ„ด์ด ์žˆ์Šต๋‹ˆ๋‹ค: ์˜จ๋„๊ฐ€ ๋‚ฎ์„์ˆ˜๋ก ์ฐจ๋ฅผ ๋” ๋งŽ์ด ํŒ๋งคํ•ฉ๋‹ˆ๋‹ค.
์„ ํ˜• ํšŒ๊ท€๋Š” ์ด ๊ด€๊ณ„๋ฅผ ๊ฐ€์žฅ ์ž˜ ๋‚˜ํƒ€๋‚ด๋Š” ์ง์„ ์„ ๊ทธ๋ฆฌ๋ ค๊ณ  ํ•ฉ๋‹ˆ๋‹ค:

[ \hat{y}=mx+c ]

  • (x) = ์˜จ๋„
  • (\hat{y}) = ์˜ˆ์ธก๋œ ์ฐจ ํŒ๋งค๋Ÿ‰
  • (m) = ๊ธฐ์šธ๊ธฐ (์˜จ๋„๊ฐ€ 1๋„ ์ƒ์Šนํ•  ๋•Œ ์ฐจ ํŒ๋งค๋Ÿ‰์ด ์–ผ๋งˆ๋‚˜ ๊ฐ์†Œํ•˜๋Š”์ง€)
  • (c) = ๊ธฐ๋ณธ ์ฐจ ์ˆ˜์š”

๊ทธ๊ฒŒ ์ „๋ถ€์ž…๋‹ˆ๋‹ค โ€” ๋‚ด์ผ์˜ ์ฐจ ํŒ๋งค๋Ÿ‰์„ ์˜ˆ์ธกํ•˜๋Š” ๊ฐ„๋‹จํ•œ ์ง์„ .

โญ Scenarioโ€ฏ2: Cost Function

Measuring โ€œHow Wrongโ€ Your Predictions Are

Todayโ€™s temperature: 20โ€ฏยฐC
Your model predicted: 60 cups
Actual: 50 cups

Error = 10 cups

The cost function gives a score for your overall wrongness:

Cost function illustration

Why square?
Because being wrong by 30 cups is far worse than being wrong by 3 cups, and the model should learn that.

The lower the cost โ†’ the better the model.

โญ ์‹œ๋‚˜๋ฆฌ์˜คโ€ฏ3: Gradient Descent

๋‹จ๊ณ„๋ณ„ ๊ฐœ์„ ์˜ ์˜ˆ์ˆ 

์ƒˆ๋กœ์šด ์ฐจ ๋ ˆ์‹œํ”ผ๋ฅผ ์‹คํ—˜ํ•œ๋‹ค๊ณ  ์ƒ์ƒํ•ด ๋ณด์„ธ์š”:

  • ์„คํƒ•์„ ๋” ๋„ฃ์œผ๋ฉด โ†’ ๋„ˆ๋ฌด ๋‹ฌ๋‹ค
  • ์„คํƒ•์„ ๋œ ๋„ฃ์œผ๋ฉด โ†’ ๋„ˆ๋ฌด ๋ฐ๋ฐํ•˜๋‹ค
  • ์™„๋ฒฝํ•ด์งˆ ๋•Œ๊นŒ์ง€ ์ฒœ์ฒœํžˆ ์กฐ์ ˆํ•œ๋‹ค

์ด๊ฒƒ์ด ๋ฐ”๋กœ Gradient Descent ์ž…๋‹ˆ๋‹ค.

๋ชจ๋ธ์€ ๋‹ค์Œ์„ ๋‹จ๊ณ„๋ณ„๋กœ ์กฐ์ •ํ•ฉ๋‹ˆ๋‹ค:

  • ๊ธฐ์šธ๊ธฐ ((m))
  • ์ ˆํŽธ ((c))

๋น„์šฉ ํ•จ์ˆ˜๋Š” ์–ธ๋•์ด๋ผ๊ณ  ์ƒ๊ฐํ•˜์„ธ์š”. ์—ฌ๋Ÿฌ๋ถ„์€ ๊ทธ ์œ„ ์–ด๋”˜๊ฐ€์— ์„œ ์žˆ์Šต๋‹ˆ๋‹ค. ๋ชฉํ‘œ๋Š” ๊ฐ€์žฅ ๋‚ฎ์€ ์ง€์ ์œผ๋กœ ๋‚ด๋ ค๊ฐ€๋Š” ๊ฒƒ์ž…๋‹ˆ๋‹ค. ๊ทธ ๊ฐ€์žฅ ๋‚ฎ์€ ์ง€์ ์ด ๋ฐ”๋กœ ์ตœ์  ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.

โญ ์‹œ๋‚˜๋ฆฌ์˜คโ€ฏ4: ๊ณผ์ ํ•ฉ

๋ชจ๋ธ์ด ๋„ˆ๋ฌด ์—ด์‹ฌํžˆ ์‹œ๋„ํ•˜๊ณ  โ€œ๋…ธ์ด์ฆˆโ€๋ฅผ ํ•™์Šตํ•  ๋•Œ

๋งค์ผ ๋„ˆ๋ฌด ๋งŽ์€ ์„ธ๋ถ€ ์‚ฌํ•ญ์„ ๊ธฐ๋กํ•œ๋‹ค๊ณ  ๊ฐ€์ •ํ•ด ๋ณด์„ธ์š”:

  • ์˜จ๋„
  • ์Šต๋„
  • ๋น„
  • ๋ฐ”๋žŒ
  • ์ถ•์ œ
  • ํฌ๋ฆฌ์ผ“ ๊ฒฝ๊ธฐ ์ ์ˆ˜
  • ๊ตํ†ต
  • ์ด์›ƒ์ง‘ ๊ฐœ ์ง–๋Š” ์†Œ๋ฆฌ
  • ๊ณ ๊ฐ๋“ค์˜ ์…”์ธ  ์ƒ‰์ƒ
  • ํ•˜๋Š˜์ด ์–ผ๋งˆ๋‚˜ ํ๋ฆฐ์ง€

๋ชจ๋ธ์€ ๋ชจ๋“  ๊ฒƒ์„ ์‚ฌ์šฉํ•˜๋ ค๊ณ  ํ•˜๋ฉฐ, ์ค‘์š”ํ•˜์ง€ ์•Š์€ ๊ฒƒ๋“ค๊นŒ์ง€๋„ ํฌํ•จํ•ฉ๋‹ˆ๋‹ค.

์ด๋Š” ๊ณผ์ ํ•ฉ์„ ์ดˆ๋ž˜ํ•ฉ๋‹ˆ๋‹ค:

  • ๋ชจ๋ธ์ด ํ›ˆ๋ จ ๋ฐ์ดํ„ฐ์—์„œ ํ›Œ๋ฅญํ•˜๊ฒŒ ์ž‘๋™ํ•ฉ๋‹ˆ๋‹ค
  • ๊ทธ๋Ÿฌ๋‚˜ ์ƒˆ๋กœ์šด ๋ฐ์ดํ„ฐ์—์„œ๋Š” ๋”์ฐํ•˜๊ฒŒ ์ž‘๋™ํ•ฉ๋‹ˆ๋‹ค

์ผ๋ฐ˜์ ์ธ ํŒจํ„ด์„ ์ดํ•ดํ•˜๋Š” ๋Œ€์‹  ๊ธฐ์–ตํ•ด ๋ฒ„๋ฆฝ๋‹ˆ๋‹ค.

โญ ์‹œ๋‚˜๋ฆฌ์˜คโ€ฏ5: ๊ณผ์ ํ•ฉ์„ ์–ด๋–ป๊ฒŒ ํ•ด๊ฒฐํ• ๊นŒ?

  • โœ” ์“ธ๋ชจ ์—†๋Š” ํŠน์ง• ์ œ๊ฑฐ โ€“ โ€œdog barkingโ€ ๋“ฑ๊ณผ ๊ฐ™์€ ์žก์Œ์„ ๋ฌด์‹œํ•ฉ๋‹ˆ๋‹ค.
  • โœ” ๋” ๋งŽ์€ ๋ฐ์ดํ„ฐ ์ˆ˜์ง‘ โ€“ ์˜ˆ์‹œ๊ฐ€ ๋งŽ์•„์งˆ์ˆ˜๋ก ํŒจํ„ด์ด ๋ช…ํ™•ํ•ด์ง‘๋‹ˆ๋‹ค.
  • โœ” ์ •๊ทœํ™” ์ ์šฉ โ€“ ๊ฐ€์žฅ ๊ฐ•๋ ฅํ•œ ํ•ด๊ฒฐ์ฑ…์ž…๋‹ˆ๋‹ค.

โญ Scenarioโ€ฏ6: ์ •๊ทœํ™”๋ž€ ๋ฌด์—‡์ธ๊ฐ€?

๋ชจ๋ธ์ด ๊ณผ๋„ํ•˜๊ฒŒ ์ƒ๊ฐํ•˜๋Š” ๊ฒƒ์„ ๋ง‰๊ธฐ ์œ„ํ•œ ํŒจ๋„ํ‹ฐ ์ถ”๊ฐ€

๋‹น์‹ ์˜ ์ฐจ ๊ฐ€๊ฒŒ์—์„œ ์ฐจ๋ฅผ ๋งŒ๋“œ๋Š” ์‚ฌ๋žŒ์ด ์žฌ๋ฃŒ๋ฅผ ๋„ˆ๋ฌด ๋งŽ์ด ์‚ฌ์šฉํ•˜๋ฉด ์ฐจ๊ฐ€ ๋‹ค์Œ๊ณผ ๊ฐ™์ด ๋ฉ๋‹ˆ๋‹ค:

  • ํ˜ผ๋ž€์Šค๋Ÿฌ์šด
  • ๊ฐ•ํ•œ
  • ๋น„์‹ผ
  • ์˜ˆ์ธก ๋ถˆ๊ฐ€๋Šฅํ•œ

๊ทธ๋ž˜์„œ ๋‹น์‹ ์€ ๊ทธ์—๊ฒŒ ์ด๋ ‡๊ฒŒ ๋งํ•ฉ๋‹ˆ๋‹ค:

โ€œ์žฌ๋ฃŒ๋ฅผ ์ ๊ฒŒ ์จ. ๋„ˆ๋ฌด ๋งŽ์ด ์“ฐ๋ฉด ๋ณด๋„ˆ์Šค๋ฅผ ์‚ญ๊ฐํ•  ๊ฑฐ์•ผ.โ€

๊ทธ ํŒจ๋„ํ‹ฐ๋Š” ๊ทธ๊ฐ€ ๋‹จ์ˆœํ•˜๊ณ  ์ผ๊ด€๋œ ์ฐจ๋ฅผ ๋งŒ๋“ค๋„๋ก ๊ฐ•์ œํ•ฉ๋‹ˆ๋‹ค.

์ •๊ทœํ™”๋„ ๋จธ์‹ ๋Ÿฌ๋‹ ๋ชจ๋ธ์— ๋˜‘๊ฐ™์ด ์ ์šฉ๋ฉ๋‹ˆ๋‹ค. ์ •๊ทœํ™”๋Š” ์ด๋ ‡๊ฒŒ ๋งํ•ฉ๋‹ˆ๋‹ค:

โ€œ๋ชจ๋ธ์ด ๋„ˆ๋ฌด ๋ณต์žกํ•ด์ง€๋ฉด ๋น„์šฉ์„ ๋Š˜๋ฆด๊ฒŒ.โ€

์ด๋ ‡๊ฒŒ ํ•˜๋ฉด ๋ชจ๋ธ์€ ์ค‘์š”ํ•œ ํŠน์ง•๋งŒ ๋‚จ๊ธฐ๋„๋ก ๊ฐ•์ œ๋ฉ๋‹ˆ๋‹ค.

โญ ์‹œ๋‚˜๋ฆฌ์˜คโ€ฏ7: ์ •๊ทœํ™”๋œ ์„ ํ˜• ํšŒ๊ท€

(์ƒ์„ธ ์„ค๋ช… ํฌํ•จ)

์ •๊ทœํ™”๋Š” ์ผ๋ฐ˜์ ์ธ ๋น„์šฉ ํ•จ์ˆ˜์— ๋‹ค์Œ๊ณผ ๊ฐ™์ด ๋ณ€ํ˜•์„ ๊ฐ€ํ•ฉ๋‹ˆ๋‹ค:

Regularized cost function illustration

์—ฌ๊ธฐ์„œ:

  • (\theta) = ๋ชจ๋ธ ํŒŒ๋ผ๋ฏธํ„ฐ (๊ฐ ํŠน์ง•์˜ ๊ฐ€์ค‘์น˜)
  • (\lambda) = ์ •๊ทœํ™” ๊ฐ•๋„ (๊ฐ’์ด ํด์ˆ˜๋ก ๋” ๊ฐ•ํ•œ ํŽ˜๋„ํ‹ฐ)

๐ŸŸฆ ์ด ํŽ˜๋„ํ‹ฐ๋Š” ๋ฌด์—‡์„ ํ•˜๋‚˜์š”?

10๊ฐœ์˜ ํŠน์ง•์„ ์ถ”์ ํ•œ๋‹ค๊ณ  ๊ฐ€์ •ํ•ด ๋ณด์„ธ์š”:

  1. ์˜จ๋„
  2. ์Šต๋„
  3. ๋ฐ”๋žŒ
  4. ๋น„
  5. ์ถ•์ œ
  6. ์š”์ผ
  7. ๋„๋กœ ๊ตํ†ต๋Ÿ‰
  8. ํฌ๋ฆฌ์ผ“ ๊ฒฝ๊ธฐ ์ ์ˆ˜
  9. ์ง€์—ญ ์†Œ์Œ ์ˆ˜์ค€
  10. ๊ฐœ ์ง–๋Š” ์†Œ๋ฆฌ ๋นˆ๋„

๋ชจ๋ธ์€ ๋ชจ๋‘๋ฅผ ์„ค๋ช…ํ•˜๋ ค๊ณ  ํ•ฉ๋‹ˆ๋‹ค. ์ผ๋ถ€ ๊ฐ€์ค‘์น˜๋Š” ํฌ๊ฒŒ ๋ฉ๋‹ˆ๋‹ค:

ํŠน์ง•๊ฐ€์ค‘์น˜
์˜จ๋„1.2
์ถ•์ œ2.8
๊ตํ†ต๋Ÿ‰3.1
๊ฐœ ์ง–๋Š” ์†Œ๋ฆฌ1.5
์†Œ์Œ ์ˆ˜์ค€2.4

ํฐ ๊ฐ€์ค‘์น˜ = ๋ชจ๋ธ์ด ํ•ด๋‹น ํŠน์ง•์„ ๋งค์šฐ ์ค‘์š”ํ•˜๊ฒŒ ์—ฌ๊ธฐ์ง€๋งŒ, ์‹ค์ œ๋กœ๋Š” ๋ฌด์ž‘์œ„ ์žก์Œ์ผ ์ˆ˜๋„ ์žˆ์Šต๋‹ˆ๋‹ค.

์ •๊ทœํ™”๋Š” ์ด๋Ÿฌํ•œ ๊ฐ€์ค‘์น˜๋ฅผ ์ค„์ด๋Š” ํŽ˜๋„ํ‹ฐ๋ฅผ ์ถ”๊ฐ€ํ•ฉ๋‹ˆ๋‹ค:

  • ์˜จ๋„ โ†’ ์ค‘์š”๋„ ์œ ์ง€
  • ์ถ•์ œ โ†’ ์•ฝ๊ฐ„ ๊ฐ์†Œ
  • ๊ฐœ ์ง–๋Š” ์†Œ๋ฆฌ โ†’ 0์— ๊ฐ€๊น๊ฒŒ ์ถ•์†Œ
  • ์†Œ์Œ โ†’ 0์— ๊ฐ€๊น๊ฒŒ ์ถ•์†Œ

์ด๋ ‡๊ฒŒ ํ•˜๋ฉด ๋ชจ๋ธ์ด ๋” ๊ฐ„๋‹จํ•˜๊ณ , ์ผ๋ฐ˜ํ™”๊ฐ€ ์ž˜ ๋˜๋ฉฐ, ์ •ํ™•๋„๋„ ํ–ฅ์ƒ๋ฉ๋‹ˆ๋‹ค.

โญ ์‹œ๋‚˜๋ฆฌ์˜คโ€ฏ8: ์ •๊ทœํ™”๊ฐ€ ๊ณผ์ ํ•ฉ์„ ํ•ด๊ฒฐํ•˜๋Š” ๋ฐฉ๋ฒ•

(๊นŠ์€ ์‹ค์ œ ์‹œ๋‚˜๋ฆฌ์˜ค)

์ •๊ทœํ™” ์ „: ๊ณผ๋„ํ•˜๊ฒŒ ์ƒ๊ฐํ•˜๋Š” ๋ชจ๋ธ

๋ชจ๋ธ์ด ๋ชจ๋“  ๋ฌด์ž‘์œ„ ์„ธ๋ถ€ ์‚ฌํ•ญ์„ ๋ˆˆ์— ๋„๊ฒŒ ์ธ์‹ํ•ฉ๋‹ˆ๋‹ค:

์–ด๋А ๋‚  ๋น„๊ฐ€ ์™”๊ณ  ์ธ๋„๊ฐ€ ๊ฒฝ๊ธฐ๋ฅผ ์ด๊ฒผ์œผ๋ฉฐ ์ถ•์ œ๊ฐ€ ์—ด๋ฆฌ๊ณ  ๋‚ ์”จ๊ฐ€ ์ถ”์› ๊ณ  ๊ตํ†ต๋Ÿ‰์ด ์ ์—ˆ์–ด์š”โ€ฆ ๊ทธ๋‚  ์ฐจ ํŒ๋งค๋Ÿ‰์ด ๋†’์•˜์Šต๋‹ˆ๋‹ค.

๊ทธ๋ž˜์„œ ๋ชจ๋ธ์€ ๋‹ค์Œ๊ณผ ๊ฐ™์ด ์ƒ๊ฐํ•ฉ๋‹ˆ๋‹ค:

  • โ€œ๋น„๊ฐ€ ์ฐจ ํŒ๋งค๋Ÿ‰์„ 6โ€ฏ% ์ฆ๊ฐ€์‹œํ‚จ๋‹คโ€
  • โ€œํฌ๋ฆฌ์ผ“ ๊ฒฝ๊ธฐ ๊ฒฐ๊ณผ๊ฐ€ ํŒ๋งค๋Ÿ‰์„ 8โ€ฏ% ์ฆ๊ฐ€์‹œํ‚จ๋‹คโ€
  • โ€œ๊ฐœ ์ง–๋Š” ์†Œ๋ฆฌ๊ฐ€ ํŒ๋งค๋Ÿ‰์„ 2โ€ฏ% ๊ฐ์†Œ์‹œํ‚จ๋‹คโ€
  • โ€œ๊ตํ†ต๋Ÿ‰์ด ํŒ๋งค๋Ÿ‰์„ 4โ€ฏ% ์ฆ๊ฐ€์‹œํ‚จ๋‹คโ€
  • โ€ฆ๋“ฑ๋“ฑ.

์ด๋Š” ์šฐ์—ฐ์„ ์™ธ์šฐ๋Š” ์ „ํ˜•์ ์ธ ๊ณผ์ ํ•ฉ์ž…๋‹ˆ๋‹ค.

์ •๊ทœํ™” ํ›„:

ํŒจ๋„ํ‹ฐ๊ฐ€ ๋ชจ๋ธ์ด ์‹ค์ œ๋กœ ์˜ˆ์ธก์— ๋„์›€์ด ๋˜๋Š” ํŠน์ง•(์˜ˆ: ์˜จ๋„)๋งŒ์„ ๋‚จ๊ธฐ๊ณ , ์žก์Œ์ด ์„ž์ธ ํŠน์ง•(๊ฐœ ์ง–์Œ, ํฌ๋ฆฌ์ผ“ ์ ์ˆ˜ ๋“ฑ)์€ 0์— ๊ฐ€๊น๊ฒŒ ๋งŒ๋“ค๋„๋ก ๊ฐ•์ œํ•ฉ๋‹ˆ๋‹ค. ์ด๋ ‡๊ฒŒ ๋งŒ๋“  ๋ชจ๋ธ์€ ์ƒˆ๋กœ์šด ๋‚ ์—๋„ ์ž˜ ์ผ๋ฐ˜ํ™”๋˜์–ด ๋ณด๋‹ค ์‹ ๋ขฐํ•  ์ˆ˜ ์žˆ๋Š” ํŒ๋งค ์˜ˆ์ธก์„ ์ œ๊ณตํ•ฉ๋‹ˆ๋‹ค.

์ •๊ทœํ™”: ์„ฑ์ˆ™ํ•œ ๋ชจ๋ธ

์ •๊ทœํ™”๋Š” ์“ธ๋ชจ์—†๋Š” ๊ฐ€์ค‘์น˜๋ฅผ ์ถ•์†Œํ•ฉ๋‹ˆ๋‹ค:

  • ๊ฐœ ์ง–์Œ โ†’ 0
  • ํฌ๋ฆฌ์ผ“ ๊ฒฝ๊ธฐ โ†’ 0
  • ์†Œ์Œ โ†’ 0
  • ๊ตํ†ต โ†’ ์•„์ฃผ ์ž‘๊ฒŒ
  • ์ถ•์ œ โ†’ ๋ณดํ†ต
  • ์˜จ๋„ โ†’ ๊ฐ•ํ•˜๊ฒŒ ์œ ์ง€
  • ๋น„ โ†’ ๋ณดํ†ต

๋ชจ๋ธ์ด ํ•™์Šตํ•ฉ๋‹ˆ๋‹ค:

โ€œ๋งค์ถœ์€ ์ฃผ๋กœ ์˜จ๋„ + ๋น„ + ์ถ•์ œ์ผ์— ์˜์กดํ•ฉ๋‹ˆ๋‹ค. ๊ทธ ์™ธ ๋ชจ๋“  ๊ฒƒ์€ ์žก์Œ์ž…๋‹ˆ๋‹ค.โ€

์ •๊ทœํ™”๊ฐ€ ๋„์›€์ด ๋˜๋Š” ์ด์œ 

  • ๋ฌด์ž‘์œ„ ์„ธ๋ถ€ ์‚ฌํ•ญ์— ๋Œ€ํ•œ ์˜์กด๋„ ๊ฐ์†Œ
  • ๊ฐ„๋‹จํ•œ ๊ทœ์น™ ์žฅ๋ ค
  • ๋ฏธ๋ž˜ ๋‚ ์งœ์— ๋Œ€ํ•œ ์ผ๋ฐ˜ํ™” ํ–ฅ์ƒ

์ด๊ฒƒ์ด ์ •๊ทœํ™”๊ฐ€ ์‹ค์ œ ๋จธ์‹ ๋Ÿฌ๋‹์—์„œ ํ•„์ˆ˜์ ์ธ ์ด์œ ์ž…๋‹ˆ๋‹ค.

๐ŸŽฏ ์ตœ์ข… ์š”์•ฝ (์ดˆ๋ณด์ž์—๊ฒŒ ์™„๋ฒฝ)

ConceptMeaningTeaโ€‘Stall Analogy
Linear Regression์ตœ์ ์˜ ์ง์„  ํ”ผํŒ…์˜จ๋„๋กœ๋ถ€ํ„ฐ ์ฐจ ํŒ๋งค๋Ÿ‰ ์˜ˆ์ธก
Cost Function์˜ค๋ฅ˜ ์ •๋„๋ฅผ ์ธก์ •์˜ˆ์ธก์ด ์‹ค์ œ ์ฐจ ํŒ๋งค๋Ÿ‰๊ณผ ์–ผ๋งˆ๋‚˜ ์ฐจ์ด ๋‚˜๋Š”์ง€
Gradient Descent์ตœ์ ํ™” ๊ธฐ๋ฒ•์ฐจ ๋ ˆ์‹œํ”ผ๋ฅผ ์™„๋ฒฝํ•ด์งˆ ๋•Œ๊นŒ์ง€ ์กฐ์ •
Overfitting๋ชจ๋ธ์ด ์žก์Œ์„ ๊ธฐ์–ตํ•จ๊ฐœ ์ง–์Œ๊ณผ ํฌ๋ฆฌ์ผ“ ๊ฒฝ๊ธฐ ์ถ”์ 
Regularization๋ณต์žก๋„์— ๋Œ€ํ•œ ํŽ˜๋„ํ‹ฐ์ฐจ ์ œ์กฐ์ž๊ฐ€ ์žฌ๋ฃŒ๋ฅผ ์ ๊ฒŒ ์‚ฌ์šฉํ•˜๋„๋ก ๊ฐ•์ œ
Regularized Cost์ผ๋ฐ˜ ๋น„์šฉ + ํŽ˜๋„ํ‹ฐ์˜ˆ์ธก์„ โ€œ๊ณผ๋„ํ•˜๊ฒŒ ์ƒ๊ฐโ€ํ•˜๋Š” ๊ฒƒ์„ ๋ฐฉ์ง€
Back to Blog

๊ด€๋ จ ๊ธ€

๋” ๋ณด๊ธฐ ยป

Logistic Regression, ์ฐจ๋กœ ๋งŒ๋“ค์–ด์„œ: ML Basics ๋œจ๊ฒ๊ฒŒ ์ œ๊ณต

Logistic Regression์ด๋ž€ ๋ฌด์—‡์ธ๊ฐ€? Logistic Regression์€ ์˜ˆ/์•„๋‹ˆ์˜ค ๊ฒฐ๊ณผ๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ๊ฐ„๋‹จํ•œ machine learning ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด๋‹ค. ์ž‘์€ ์ฐจ ๊ฐ€๊ฒŒ๋ฅผ ์šด์˜ํ•œ๋‹ค๊ณ  ์ƒ์ƒํ•ด ๋ณด๋ผ...

ML๋กœ ์ฐจ ํŒ๋งค ์˜ˆ์ธก: Linear Regression, Gradient Descent & Regularization (์ดˆ๋ณด์ž ์นœํ™”์  + ์ฝ”๋“œ)

๐Ÿต ์ ˆ๋Œ€ ์ดˆ๋ณด์ž๋ฅผ ์œ„ํ•œ ์„ ํ˜• ํšŒ๊ท€, ์ฝ”๋“œ ์˜ˆ์ œ์™€ ์‹ค์ œ ์ฐจ ๋งค์žฅ ์‹œ๋‚˜๋ฆฌ์˜ค ํฌํ•จ, ๋จธ์‹ ๋Ÿฌ๋‹ ์šฉ์–ด์ธ cost function, gradient descent, regularization ๋“ฑ์„ ๋‹ค๋ฃน๋‹ˆ๋‹ค.

๋จธ์‹ ๋Ÿฌ๋‹ ์–ด๋“œ๋ฒคํŠธ ์บ˜๋ฆฐ๋” 11์ผ์ฐจ: Excel์—์„œ Linear Regression

Linear Regression๋Š” ๊ฐ„๋‹จํ•ด ๋ณด์ด์ง€๋งŒ, ํ˜„๋Œ€ ๋จธ์‹ ๋Ÿฌ๋‹์˜ ํ•ต์‹ฌ ์•„์ด๋””์–ด์ธ ์†์‹ค ํ•จ์ˆ˜, ์ตœ์ ํ™”, ๊ทธ๋ž˜๋””์–ธํŠธ, ์Šค์ผ€์ผ๋ง, ๊ทธ๋ฆฌ๊ณ  ํ•ด์„์„ ์†Œ๊ฐœํ•ฉ๋‹ˆ๋‹ค.