"결정트리 학습"의 두 판 사이의 차이

6번째 줄: 6번째 줄:


[[파일:Cart_tree_kyphosis.png|800px]]
[[파일:Cart_tree_kyphosis.png|800px]]
==장점==
* 결과를 해석하고 이해하기 쉽다.
** 다른 접근방식에 비해 사람의 의사결정과 비슷하다.
* 수치 자료와 범주 자료 모두에 적용할 수 있다.
* 자료를 가공할 필요가 거의 없다.
* 화이트박스 또는 오픈박스 모델을 사용한다.
* 통계검정으로 모델을 검증할 수 있다.
* 큰 데이터셋도 잘 처리한다.
** [[특성 선택]]이 내재되어 있다.
* [[불 함수]]나 [[XOR]]로 근사하게 할 수 있다.


==같이 보기==
==같이 보기==

2020년 11월 17일 (화) 01:46 판

1 개요

decision tree learning
결정 트리 학습법, 결정트리 분석, 결정나무 분석, 트리분석
  • 트리의 노드 수가 증가할수록 학습데이터에 대한 정확도는 향상되는 경향이 있다.
반면, 테스트데이터에 대한 정확도는 떨어질 수 있다. (과적합)

Cart tree kyphosis.png

2 장점

  • 결과를 해석하고 이해하기 쉽다.
    • 다른 접근방식에 비해 사람의 의사결정과 비슷하다.
  • 수치 자료와 범주 자료 모두에 적용할 수 있다.
  • 자료를 가공할 필요가 거의 없다.
  • 화이트박스 또는 오픈박스 모델을 사용한다.
  • 통계검정으로 모델을 검증할 수 있다.
  • 큰 데이터셋도 잘 처리한다.
  • 불 함수XOR로 근사하게 할 수 있다.

3 같이 보기

4 참고

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}