[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 03. Linear Regression์ cost ์ต์ํ ์๊ณ ๋ฆฌ์ฆ์ ์๋ฆฌ ์ค๋ช
๋ชฉ์ฐจ
- Minimize Cost function
- Gradient descent algorithm
- Convex function
Minimize Cost function
์ง๋๋ฒ ํฌ์คํธ์์ Hypothesis์ Cost function์ ์์๋ณด์๊ณ , ์ฐ๋ฆฌ๋ Cost function์ ์ต์ํ์ํค๋ W์ b๋ฅผ ๊ตฌํ๋ ๊ฒ์ ๊ณผ์ ๋ก ์ผ์๋ค.
์ค๋ช ์ ์ํด์, Hypothesis๋ฅผ ์์ ๊ฐ์ด ๊ฐ๋จํ๊ฒ ๋ง๋ค์๋ค. (b = 0)
๋ํ ๋ฐ์ดํฐ๊ฐ ์๋ ํ์ ๊ฐ์ด ์ฃผ์ด์ง๋ค๊ณ ๊ฐ์ ํด๋ณด์.
X | Y |
1 | 1 |
2 | 2 |
3 | 3 |
์ฐ๋ฆฌ๋ cost๋ฅผ ์ต์ํ ์ํค๋ ์ง์ ์ ์ฐพ์์ผ ํ๋ค.(=์ต์ํ์ํค๋ W๋ฅผ ์ฐพ์์ผ ํจ)
- W = 1, cost(W) = 0
- W = 0, cost(W) = 4.67
- W = 2, cost(W) = 4.67
W์ ๋ฐ๋ฅธ cost(W)๋ฅผ ๊ณ์ฐํด๋ณด๋ฉด ์์ ๊ฐ๋ค. ์ด๋ฅผ ๊ทธ๋ํ๋ก ๊ทธ๋ ค๋ณด๋ฉด
์์ ๊ฐ์ ๋ชจ์์ ๊ทธ๋ํ๊ฐ ๋์จ๋ค. ์ฐ๋ฆฌ์ ๋ชฉํ๋ ์์ ๋งํ๋ฏ์ด Cost๊ฐ ์ต์๊ฐ ๋๋ ๋ถ๋ถ์ ์ฐพ์๋ด๋ ๊ฒ์ด๋ค.
์ด๊ฒ์ ๊ธฐ๊ณ์ ์ผ๋ก ์ฐพ๋ ์๊ณ ๋ฆฌ์ฆ์ Gradient descent algorithm์ด๋ผ ํ๋ค.
Gradient descent algorithm
Gradient๋ ๊ฒฝ์ฌ, descent๋ ๋ด๋ ค๊ฐ๋ ๊ฒ. ์ฆ, ๊ฒฝ์ฌ๋ฅผ ๋ฐ๋ผ ๋ด๋ ค๊ฐ๋ ์๊ณ ๋ฆฌ์ฆ์ด๋ผ๊ณ ๋ณด๋ฉด ๋๋ค.
๋ํ, ๋จธ์ ๋ฌ๋์์ ๊ต์ฅํ ๋ง์ด cost๋ฅผ ์ต์ํ ์ํค๋๋ฐ ์ฌ์ฉ๋๋ ์๊ณ ๋ฆฌ์ฆ์ด๋ค.
W์ ๊ฐ์ด ํ๋๊ฐ ์๋๋ผ W1, W2,... ์ฌ๋ฌ ๊ฐ ์๋ Cost function๋ ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฉ ํ ์ ์๋ค.
๊ทธ๋ ๋ค๋ฉด ์ด ์๊ณ ๋ฆฌ์ฆ์ ์ด๋ป๊ฒ ๋์ํ๋ ๊ฒ์ผ๊น?
์์ ๊ทธ๋ํ๋ฅผ ๋ค์ฌ๋ค๋ณด์. ๋์ ์๋ฆฌ๋ฅผ ์ดํด๋ณด๋ฉด.
1. ๊ทธ๋ํ์ ์๋ฌด ์ ์์๋ ์์ํ ์ ์๋ค.
2. ๊ทธ๋ฆฌ๊ณ ๊ทธ ์ ์์ W๋ฅผ ์ฝ๊ฐ ๋ฐ๊พธ์ด์ Cost๋ฅผ ์ค์ฌ๋๊ฐ๋ค. (๊ฒฝ์ฌ๋๊ฐ ๋ด๋ ค๊ฐ๋ ์ชฝ์ผ๋ก ํฅํ๊ฒ ๋๋ค)
3. ์ด๋ฅผ ๋ฐ๋ณตํด๋๊ฐ์ Cost๊ฐ ์ต์๊ฐ ๋๋ ์ง์ ์ ์ฐพ๋๋ค.
์ฌ๊ธฐ์ ๊ฒฝ์ฌ๋(๊ธฐ์ธ๊ธฐ)๋ ๋ฏธ๋ถ์ ํตํด์ ๊ตฌํ ์ ์๋ค.
๋ฏธ๋ถ์ ์ฝ๊ฒ ์ ์ฉํ๊ธฐ ์ํด์ 1/m -> 1/2m์ผ๋ก ๋ฐ๊พธ์๋ค.
(์ฌ์ค, 1/m์ด๋ 1/2m์ด๋ minimize์์๋ ๊ฐ์ ์๋ฏธ๋ฅผ ์ง๋๋ค.)
Cost function๋ฅผ Wx๋ก ๋ฏธ๋ถํ๋ฉด ๋ฏธ๋ถ ๊ณต์์ด ์ ์ฉ๋์ด ์ต์ข ์ ์ผ๋ก ๋งจ ์๋์ ๊ฐ์ ์์ด ๋์ค๊ฒ ๋๋ค.
(์ฌ๊ธฐ์ ์ํ๊ฐ์ learning rate๋ผ๊ณ ํ๋ค)
์์ ์์ ๊ธฐ๊ณ์ ์ผ๋ก ์ฌ๋ฌ ๋ฒ ์ ์ฉ์ํค๋ฉด Cost function์ ์ต์ํ ์ํค๋ W๋ฅผ ๊ตฌํด ๋ผ ์ ์๋ค.
Convex function
์์ ๊ฐ์ด Cost function์ 3์ฐจ์ ๊ทธ๋ํ๋ก ๋ํ๋ด์์ ๋,
Gradient descent algorithm์ ์ ์ฉํ์ฌ ์๋ฌด ์ ์์๋ ์์ํด ๊ธฐ์ธ๊ธฐ๋ฅผ ๋ฐ๋ผ ๋ด๋ ค๊ฐ ๋ณด๋ฉด ์ต์ํ๋๋ ์ง์ ์ด ์ฌ๋ฌ ๊ตฐ๋ฐ ์๊ธธ ์ ์๋ค.
์ด๋ฐ ๊ฒฝ์ฐ ์๊ณ ๋ฆฌ์ฆ์ด ์ ๋๋ก ๋์ํ์ง ์๋๋ค.
๋คํํ๋ ์ฐ๋ฆฌ์ Hypothesis์ Cost function์ ๊ฐ์ง๊ณ ๊ทธ๋ฆผ์ ๊ทธ๋ฆฌ๊ฒ ๋๋ฉด ์์ ๊ฐ์ ๊ทธ๋ํ๊ฐ ๋์ค๊ฒ ๋๋๋ฐ ์ด๋ฌํ ๊ฒ์ Convex function์ด๋ผ ํ๋ค.
์ด๋์ ์ ์์ํ๋ ๊ฐ์ ๋์ฐฉํ๋ ์ ์ด ์ฐ๋ฆฌ๊ฐ ์ํ๋ ์ง์ ์ด ๋๋ค. ์ฆ, Gradient descent algorithm๊ฐ ํญ์ ๋ต์ ์ฐพ๋ ๊ฒ์ ๋ณด์ฅํด์ค๋ค.
์ฐ๋ฆฌ๋ Linear Regression์ ์ ์ฉํ๊ธฐ ์ ์, Cost function์ ์ค๊ณํ ๋ ๋ฐ๋์ Convex function์ด ๋๋์ง ํ์ธํด์ผํ๋ค.
์ฐธ๊ณ ์๋ฃ
https://www.youtube.com/watch?v=kPxpJY6fRkY
Sung Kim- ML lec 03.Linear Regression์ cost ์ต์ํ ์๊ณ ๋ฆฌ์ฆ์ ์๋ฆฌ ์ค๋ช
'Development > Machine Learning' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
๋๊ธ
์ด ๊ธ ๊ณต์ ํ๊ธฐ
-
๊ตฌ๋
ํ๊ธฐ
๊ตฌ๋ ํ๊ธฐ
-
์นด์นด์คํก
์นด์นด์คํก
-
๋ผ์ธ
๋ผ์ธ
-
ํธ์ํฐ
ํธ์ํฐ
-
Facebook
Facebook
-
์นด์นด์ค์คํ ๋ฆฌ
์นด์นด์ค์คํ ๋ฆฌ
-
๋ฐด๋
๋ฐด๋
-
๋ค์ด๋ฒ ๋ธ๋ก๊ทธ
๋ค์ด๋ฒ ๋ธ๋ก๊ทธ
-
Pocket
Pocket
-
Evernote
Evernote
๋ค๋ฅธ ๊ธ
-
[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 03. Linear Regression ์ cost ์ต์ํ์ TensorFlow ๊ตฌํ
[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 03. Linear Regression ์ cost ์ต์ํ์ TensorFlow ๊ตฌํ
2019.08.08 -
[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 02. TensorFlow๋ก Linear regression ๊ตฌํ
[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 02. TensorFlow๋ก Linear regression ๊ตฌํ
2019.07.04 -
[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 02. Linear Regression์ Hypothesis์ Cost
[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 02. Linear Regression์ Hypothesis์ Cost
2019.07.04 -
[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 01. TensorFlow์ ๊ธฐ๋ณธ์ ์ธ operations
[๋จธ์ ๋ฌ๋ ์ ๋ฌธ] 01. TensorFlow์ ๊ธฐ๋ณธ์ ์ธ operations
2019.07.01