"AdaBoost"의 두 판 사이의 차이

 
(같은 사용자의 중간 판 4개는 보이지 않습니다)
14번째 줄: 14번째 줄:


==같이 보기==
==같이 보기==
* [[부스팅]]
{{z컬럼3|
* [[결정트리 학습]]
* [[배깅]](bagging)
* [[부스팅]](boosting)
* [[코부스팅]](CoBoosting)
* [[XG부스트]](XGBoost)
* [[경사 부스팅]](gradient boosting)
* [[결정트리 학습]](decision tree learning)
}}


==참고==
==참고==

2022년 1월 18일 (화) 09:11 기준 최신판

1 개요[ | ]

AdaBoost
에이다부스트
  • Yoav Freund와 Robert Schapire가 개발한 머신러닝 메타 알고리즘
이들은 AdaBoost를 개발한 공로를 인정받아 2003년 괴델상을 받았다.
  • AdaBoost는 성능을 향상시키기 위하여 다른 많은 형태의 학습 알고리즘과 결합하여 사용할 수 있다.
  • 다른 학습 알고리즘(약한 학습기, weak learner)의 결과물들을 가중치를 두어 더하는 방법으로 가속화 분류기의 최종 결과물을 표현할 수 있다.
  • AdaBoost는 이전의 분류기에 의해 잘못 분류된 것들을 이어지는 약한 학습기들이 수정해줄 수 있다는 점에서 다양한 상황에 적용할 수 있다(adaptive).
  • 따라서 에이다 부스트는 잡음이 많은 데이터와 이상점(outlier)에 취약한 모습을 보인다.
  • 그러나 또 다른 경우에는, 다른 학습 알고리즘보다 과적합(overfitting)에 덜 취약한 모습을 보이기도 한다.
  • 개별 학습기들의 성능이 떨어지더라도, 각각의 성능이 무작위 추정보다 조금이라도 더 낫다면(이진 분류에서 에러율이 0.5보다 낮다면), 최종 모델은 강한 학습기로 수렴한다는 것을 증명할 수 있다.
  • 모든 학습 알고리즘이 잘 적용될 수 있는 형태의 문제가 있고 그렇지 않은 문제가 있으며, 일반적으로 주어진 데이터 집합에 대한 최고의 성능을 얻기 위해서 많은 파라미터와 설정을 조절해야 하는 반면, (약한 학습기로서 결정 트리 학습법을 이용한) AdaBoost는 종종 최고 성능의 분류기로 불린다.
  • 결정 트리 학습법과 함께 사용되었을 때, AdaBoost 알고리즘의 각 단계에서 얻을 수 있는 각 훈련 샘플의 상대적 난이도에 대한 정보가 트리 성장 알고리즘에 반영되어 트리가 분류하기 더 어려운 경우에 집중되는 경향이 있다.

2 같이 보기[ | ]

3 참고[ | ]

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}