"로짓"의 두 판 사이의 차이

 
(같은 사용자의 중간 판 7개는 보이지 않습니다)
3번째 줄: 3번째 줄:
;로지트 /ˈloʊdʒɪt/, 로짓
;로지트 /ˈloʊdʒɪt/, 로짓
* [[로지스틱 함수]]의 [[역함수]]
* [[로지스틱 함수]]의 [[역함수]]
* [[오즈]]에 자연로그를 취한 것
:<math>\operatorname{logit}(p)=\log\left( \dfrac{p}{1-p} \right) =\log(p)-\log(1-p)=-\log\left( \dfrac{1}{p} - 1\right)</math>
:<math>\operatorname{logit}(p)=\log( \text{Odds} ) = \log\left( \dfrac{p}{1-p} \right)</math>


:<math>\operatorname{logit}(p)=\log\left( \dfrac{p}{1-p} \right) =\log(p)-\log(1-p)=-\log\left( \dfrac{1}{p} - 1\right). \!\,</math>
[[파일:Logit.svg|500px]]


[[파일:Logit.svg|500px]]
* 분류 모델에서 생성되는 원시(정칙화되지 않음) 예측 벡터
* 대개는 정칙화 함수로 전달된다.
* 모델에서 다중 클래스 분류 문제를 해결하고 있는 경우, 로지트는 소프트맥스 함수의 입력으로 사용되는 것이 일반적이다.
* 그런 다음 소프트맥스 함수에서 가능한 클래스별로 하나의 값을 갖는 (정칙화된) 확률 벡터를 생성한다.
* 또한 로지트는 [[시그모이드 함수]]의 요소별 역을 지칭할 때도 있다. ( [[tf.nn.sigmoid_cross_entropy_with_logits]] 참고 )


==같이 보기==
==같이 보기==
*[[로지스틱 함수]]
* [[오즈]]
*[[역함수]]
* [[역함수]]
* [[로지스틱 함수]]
* [[시그모이드 함수]]


==참고==
==참고==
22번째 줄: 31번째 줄:
* {{나무위키}}
* {{나무위키}}
* {{리브레위키}}
* {{리브레위키}}
* https://developers.google.com/machine-learning/glossary?hl=ko#%EB%A1%9C%EC%A7%80%ED%8A%B8logit


[[분류: 함수]]
[[분류: 함수]]

2021년 8월 8일 (일) 13:57 기준 최신판

1 개요[ | ]

logit
로지트 /ˈloʊdʒɪt/, 로짓
[math]\displaystyle{ \operatorname{logit}(p)=\log\left( \dfrac{p}{1-p} \right) =\log(p)-\log(1-p)=-\log\left( \dfrac{1}{p} - 1\right) }[/math]
[math]\displaystyle{ \operatorname{logit}(p)=\log( \text{Odds} ) = \log\left( \dfrac{p}{1-p} \right) }[/math]

Logit.svg

  • 분류 모델에서 생성되는 원시(정칙화되지 않음) 예측 벡터
  • 대개는 정칙화 함수로 전달된다.
  • 모델에서 다중 클래스 분류 문제를 해결하고 있는 경우, 로지트는 소프트맥스 함수의 입력으로 사용되는 것이 일반적이다.
  • 그런 다음 소프트맥스 함수에서 가능한 클래스별로 하나의 값을 갖는 (정칙화된) 확률 벡터를 생성한다.
  • 또한 로지트는 시그모이드 함수의 요소별 역을 지칭할 때도 있다. ( tf.nn.sigmoid_cross_entropy_with_logits 참고 )

2 같이 보기[ | ]

3 참고[ | ]

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}