"힌지 손실"의 두 판 사이의 차이

 
(같은 사용자의 중간 판 4개는 보이지 않습니다)
7번째 줄: 7번째 줄:
* 특히 [[서포트 벡터 머신]](SVM)에 사용된다.<ref>{{Cite journal | last1 = Rosasco | first1 = L. | last2 = De Vito | first2 = E. D. | last3 = Caponnetto | first3 = A. | last4 = Piana | first4 = M. | last5 = Verri | first5 = A. | url = http://web.mit.edu/lrosasco/www/publications/loss.pdf| title = Are Loss Functions All the Same? | doi = 10.1162/089976604773135104 | journal = Neural Computation | volume = 16 | issue = 5 | pages = 1063–1076 | year = 2004 | pmid =  15070510| pmc = | citeseerx = 10.1.1.109.6786 }}</ref>
* 특히 [[서포트 벡터 머신]](SVM)에 사용된다.<ref>{{Cite journal | last1 = Rosasco | first1 = L. | last2 = De Vito | first2 = E. D. | last3 = Caponnetto | first3 = A. | last4 = Piana | first4 = M. | last5 = Verri | first5 = A. | url = http://web.mit.edu/lrosasco/www/publications/loss.pdf| title = Are Loss Functions All the Same? | doi = 10.1162/089976604773135104 | journal = Neural Computation | volume = 16 | issue = 5 | pages = 1063–1076 | year = 2004 | pmid =  15070510| pmc = | citeseerx = 10.1.1.109.6786 }}</ref>
* [[KSVM]]은 힌지 손실을 사용하거나 제곱 힌지 손실 등의 관련 함수를 사용한다.  
* [[KSVM]]은 힌지 손실을 사용하거나 제곱 힌지 손실 등의 관련 함수를 사용한다.  
----
 
==설명 1==
* 의도한 출력 <math>t=±1</math> 및 분류기 ​​점수 <math>y</math>의 경우, 예측 <math>y</math>의 힌지 손실은 다음과 같이 정의된다.
* 의도한 출력 <math>t=±1</math> 및 분류기 ​​점수 <math>y</math>의 경우, 예측 <math>y</math>의 힌지 손실은 다음과 같이 정의된다.


21번째 줄: 22번째 줄:


[[File:Hinge_loss_vs_zero_one_loss.svg|330px]]
[[File:Hinge_loss_vs_zero_one_loss.svg|330px]]
==설명 2==
* 이진 분류에서는 힌지 손실 함수가 다음과 같이 정의된다.
:<math>손실 = \max(0,1-(y'*y))</math>
* 여기서 y는 참 레이블(-1 또는 +1)이며, y'는 분류자 모델의 원시 출력이다.
:<math>y' = b + w_1x_1 + w_2x_2 + \cdots + w_nx_n</math>
* 힌지 손실과 (y * y')로 그래프를 그리면 다음과 같다.
[[File:hinge-loss.svg|330px]]


==같이 보기==
==같이 보기==
* [[힌지]]
* [[손실]]
* [[손실 함수]]
* [[손실 함수]]
* [[제곱 힌지 손실]]


==참고==
==참고==

2023년 1월 2일 (월) 20:29 기준 최신판

1 개요[ | ]

hinge loss
힌지 손실, 경첩 손실, 힌지 로스

2 설명 1[ | ]

  • 의도한 출력 [math]\displaystyle{ t=±1 }[/math] 및 분류기 ​​점수 [math]\displaystyle{ y }[/math]의 경우, 예측 [math]\displaystyle{ y }[/math]의 힌지 손실은 다음과 같이 정의된다.
[math]\displaystyle{ \ell(y) = \max(0, 1-t \cdot y) }[/math]
  • [math]\displaystyle{ y }[/math]는 예측된 클래스 레이블이 아니라 분류기 결정 함수의 "원시(raw)" 출력이어야 한다.
  • 예를 들어 선형 SVM에서는
[math]\displaystyle{ y = \mathbf{w} \cdot \mathbf{x} + b }[/math]
여기서 [math]\displaystyle{ (\mathbf{w},b) }[/math]초평면(hyperplane)의 파라미터이고, [math]\displaystyle{ \mathbf{x} }[/math]의 매개변수는 입력 변수이다.
  • ty의 부호가 같고(y가 올바른 클래스를 예측함) [math]\displaystyle{ |y| \ge 1 }[/math]일 때, 힌지 손실 [math]\displaystyle{ \ell(y) = 0 }[/math]이다.
  • 부호가 반대인 경우 [math]\displaystyle{ \ell(y) }[/math]y에 따라 선형적으로 증가한다.
  • [math]\displaystyle{ |y| \lt 1 }[/math]인 경우(동일한 부호라도, 올바른 예측이지만 마진이 작은 경우)에도 그렇다.

Hinge loss vs zero one loss.svg

3 설명 2[ | ]

  • 이진 분류에서는 힌지 손실 함수가 다음과 같이 정의된다.
[math]\displaystyle{ 손실 = \max(0,1-(y'*y)) }[/math]
  • 여기서 y는 참 레이블(-1 또는 +1)이며, y'는 분류자 모델의 원시 출력이다.
[math]\displaystyle{ y' = b + w_1x_1 + w_2x_2 + \cdots + w_nx_n }[/math]
  • 힌지 손실과 (y * y')로 그래프를 그리면 다음과 같다.

Hinge-loss.svg

4 같이 보기[ | ]

5 참고[ | ]

  1. 모듈:Citation/CS1/Identifiers 42번째 줄에서 Lua 오류: attempt to index a nil value.
문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}