Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- string
- matplotlib
- append()
- Machine Learning
- pandas
- Dictionary
- numpy
- analizer
- dendrogram
- 반복문
- DataAccess
- Python
- del
- count()
- sklearn
- 최댓값
- hierarchical_clustering
- 최솟값
- list
- 분류 결과표
- insert()
- wcss
- elbow method
- len()
- 덴드로그램
- nan
- IN
- data
- function
- DataFrame
Archives
- Today
- Total
개발공부
Learning Rate를 옵티마이저에서 셋팅하는 코드 본문
Learnig Rate란
Gradient Descent 를 이용하여 오차를 줄이는 학습을 진행할 때의 보폭과 같다.
셋팅하는 법
tf.keras.optimizers의 여러 옵티마이저 기법들의 파라미터에 있는 learning_rate를 설정하면 된다.

예시
learning_rate = 0.001 로 설정
def build_model() :
model = Sequential()
model.add(Dense(units = 64, activation = 'relu', input_shape = (8, )))
model.add(Dense(units = 64, activation = 'relu'))
model.add(Dense(units = 1, activation = 'linear'))
# 옵티마이저의 learning rate 를 설정하는 방법
# metrics 검증의 척도, 학습의 에포크가 끝날때마다 출력하게 된다.
model.compile(tf.keras.optimizers.RMSprop(learning_rate = 0.001), loss = 'mse', metrics = ['mse', 'mae'])
return model
'Python > Deep Learning' 카테고리의 다른 글
| EarlyStopping 라이브러리 사용법 (0) | 2022.06.13 |
|---|---|
| Validation, validation_split, validation data 코드 예제 (0) | 2022.06.13 |
| 텐서플로우를 이용한 그리드 서치하는 방법 (0) | 2022.06.13 |
| 텐서플로우로 리그레션(Regression) 문제 모델링 하는 방법 실습 (0) | 2022.06.10 |
| 텐서플로우로 분류(Classification)의 문제 모델링 하는 방법 실습 (0) | 2022.06.10 |