TensorFlow 옵티마이저

Jmnote (토론 | 기여)님의 2021년 5월 29일 (토) 23:45 판
(차이) ← 이전 판 | 최신판 (차이) | 다음 판 → (차이)

1 개요[ | ]

TensorFlow optimizer, optimizer
텐서플로우 옵티마이저, 옵티마이저
  • 경사하강법 알고리즘의 구체적인 구현체
  • 옵티마이저에 대한 텐서플로우의 기본 클래스는 tf.train.Optimizer이다.
  • 인기 있는 옵티마이저들
    • AdaGrad(ADAptive GRADient descent)
    • Adam(ADAptive with Momentum)
  • 다른 옵티마이저는 다음 중 하나 이상의 개념을 활용하여 주어진 훈련 세트에서 경사하강법의 효과를 강화할 수 있다.
    • momentum (모멘텀)
    • 업데이트 빈도
    • 희소성/정규화 (Ftrl)
    • 복잡한 수학적 개념 (Proximal 등)
  • NN 구동 옵티마이저도 생각해 볼 수 있다.

2 목록[ | ]

3 같이 보기[ | ]

4 참고[ | ]

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}