ํ์ฑํจ์1 [๋ฅ๋ฌ๋] Activation Function ํ์ฑํจ์ ํ๋ฒ์ ์ดํดํ๊ธฐ(Sigmoid, Softmax, Relu) [๋ฅ๋ฌ๋] Activation Function ํ์ฑํํจ์ ๋ฅ๋ฌ๋์ ์ฅ์ ์ ์ ํํจ์๋ฅผ ๊น๊ฒ ์์ ์ ์๋ ๊ฒ์ด ์ฅ์ ์ด๋ค. ํ์ง๋ง ์ ํํจ์๋ฅผ ๊น๊ฒ ์์๋ดค์ ์ ํํจ์๊ฐ ๋์ด ๋ณต์กํ ๋ชจ๋ธ๋ง์ ํ๊ธฐ๊ฐ ์ด๋ ต๋ค. ์ด ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด์ ๋ชจ๋ธ ๋ ์ด์ด๋ฅผ ์์ ๋ ์ ํ ํจ์ ์ฌ์ด์ฌ์ด์ ์ ํํจ์๊ฐ ์๋ ๊ฒ์ ๋ฒ๊ฐ์ ๋ฃ์ด์ค์ผ๋ก์จ ๋ณต์กํ ๋ฌธ์ ๋ฅผ ํ ์ ์๋ค. ์ด ๋น์ ํ ํจ์๋ฅผ ํ์ฑ ํจ์(activation funtion)๋ผ๊ณ ํ๊ณ , relu, sigmoid, softmax ๋ฑ์ด ์๋ค. ์ ์ค๋ช ๋๋ก activation์ ๋ฃ์ด์ ๋ชจ๋ธ๋ง์ ํด๋ณด๋ฉด model = Sequential([ tf.keras.layers.Flatten(input_shape = (28,28)), tf.kearas.layers.Dense(512) tf.kea.. 2022. 2. 18. ์ด์ 1 ๋ค์ ๋ฐ์ํ