"TensorFlow 옵티마이저"의 두 판 사이의 차이

잔글 (Jmnote님이 텐서플로우 옵티마이저 문서를 TensorFlow 옵티마이저 문서로 이동했습니다)
 
1번째 줄: 1번째 줄:
;TensorFlow Optimizer
==개요==
;텐서플로우 옵티마이저  
;TensorFlow optimizer, optimizer
;텐서플로우 옵티마이저, 옵티마이저
* 경사하강법 알고리즘의 구체적인 구현체
* 옵티마이저에 대한 텐서플로우의 기본 클래스는 tf.train.Optimizer이다.
* 인기 있는 옵티마이저들
** [[AdaGrad]](ADAptive GRADient descent)
** [[Adam]](ADAptive with Momentum)
* 다른 옵티마이저는 다음 중 하나 이상의 개념을 활용하여 주어진 [[훈련 세트]]에서 경사하강법의 효과를 강화할 수 있다.
** [[momentum]] (모멘텀)
** 업데이트 빈도
** 희소성/정규화 (Ftrl)
** 복잡한 수학적 개념 (Proximal 등)
* [[NN 구동 옵티마이저]]도 생각해 볼 수 있다.


==목록==
==목록==

2021년 5월 29일 (토) 23:45 기준 최신판

1 개요[ | ]

TensorFlow optimizer, optimizer
텐서플로우 옵티마이저, 옵티마이저
  • 경사하강법 알고리즘의 구체적인 구현체
  • 옵티마이저에 대한 텐서플로우의 기본 클래스는 tf.train.Optimizer이다.
  • 인기 있는 옵티마이저들
    • AdaGrad(ADAptive GRADient descent)
    • Adam(ADAptive with Momentum)
  • 다른 옵티마이저는 다음 중 하나 이상의 개념을 활용하여 주어진 훈련 세트에서 경사하강법의 효과를 강화할 수 있다.
    • momentum (모멘텀)
    • 업데이트 빈도
    • 희소성/정규화 (Ftrl)
    • 복잡한 수학적 개념 (Proximal 등)
  • NN 구동 옵티마이저도 생각해 볼 수 있다.

2 목록[ | ]

3 같이 보기[ | ]

4 참고[ | ]

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}