군침이 싹 도는 코딩

learning rate 를 optimizer 에서 셋팅하는 코드 본문

Python/Deep Learning

learning rate 를 optimizer 에서 셋팅하는 코드

mugoori 2022. 12. 28. 15:44
def build_model():
  model = Sequential()
  model.add(  Dense(64 , 'relu', input_shape= (9,) )  )
  model.add( Dense(64, 'relu') )
  model.add( Dense(1, 'linear'))
  model.compile(optimizer= tf.keras.optimizers.Adam(learning_rate=0.001), loss= 'mse', metrics=['mse', 'mae'])
  return model

# 모델링을 함수로 만들때에 러닝 레이트를 지정해줄수 있다

러닝 레이트란 그레디언트 디센트하는 보폭을 의미한다

이것을 조절해줄수 있는 코드는 컴파일 할때 옵티마이저 파라미터에 넣는것이다

해당 코드의 6번째줄에 위치해 있다

따로 임포트해서 Adam(learning_rate=) 를 써서 지정해도 된다

러닝레이트의 디폴트값은 0.001이다