군침이 싹 도는 코딩
learning rate 를 optimizer 에서 셋팅하는 코드 본문
def build_model():
model = Sequential()
model.add( Dense(64 , 'relu', input_shape= (9,) ) )
model.add( Dense(64, 'relu') )
model.add( Dense(1, 'linear'))
model.compile(optimizer= tf.keras.optimizers.Adam(learning_rate=0.001), loss= 'mse', metrics=['mse', 'mae'])
return model
# 모델링을 함수로 만들때에 러닝 레이트를 지정해줄수 있다
러닝 레이트란 그레디언트 디센트하는 보폭을 의미한다
이것을 조절해줄수 있는 코드는 컴파일 할때 옵티마이저 파라미터에 넣는것이다
해당 코드의 6번째줄에 위치해 있다
따로 임포트해서 Adam(learning_rate=) 를 써서 지정해도 된다
러닝레이트의 디폴트값은 0.001이다
'Python > Deep Learning' 카테고리의 다른 글
EarlyStopping 라이브러리 사용법 (0) | 2022.12.28 |
---|---|
validation 데이터의 의미와 코드에서 사용법 (0) | 2022.12.28 |
fit 함수의 결과를 차트로 보여주는 법 (history) (0) | 2022.12.28 |
번외) 새로운 데이터를 통해 가격 예측 (0) | 2022.12.28 |
텐서플로우 리그레션 문제 모델링 하는 방법 (0) | 2022.12.28 |