"회귀 트리"의 두 판 사이의 차이

4번째 줄: 4번째 줄:
* 재귀 이분법(recursive binary splitiing) 사용<ref>top-down, greedy</ref>
* 재귀 이분법(recursive binary splitiing) 사용<ref>top-down, greedy</ref>


http://www.rnfc.org/courses/isl/Lesson%208/Summary/Figures/Figure8-1.png
[[파일:Lesson-208-Figure8-1.png]]
http://www.rnfc.org/courses/isl/Lesson%208/Summary/Figures/Figure8-2.png
[[파일:Lesson-208-Figure8-2.png]]


* Pruning 필요 (언제까지 나눌 것인가?)
* Pruning 필요 (언제까지 나눌 것인가?)
11번째 줄: 11번째 줄:
:<math>\sum_{m=1}^{|T|} \sum_{x∈R_m} ( y_i - \hat{y}_{R_m} )^2+α|T|</math>
:<math>\sum_{m=1}^{|T|} \sum_{x∈R_m} ( y_i - \hat{y}_{R_m} )^2+α|T|</math>


http://www.rnfc.org/courses/isl/Lesson%208/Summary/Figures/Figure8-4.png
[[파일:Lesson-208-Figure8-4.png]]
http://www.rnfc.org/courses/isl/Lesson%208/Summary/Figures/Figure8-5.png
[[파일:Lesson-208-Figure8-5.png]]


==같이 보기==
==같이 보기==

2020년 10월 24일 (토) 01:55 판

1 개요

Regression Tree
회귀 분석
  • 재귀 이분법(recursive binary splitiing) 사용[1]

Lesson-208-Figure8-1.png Lesson-208-Figure8-2.png

  • Pruning 필요 (언제까지 나눌 것인가?)
비용 복잡성 pruning
[math]\displaystyle{ \sum_{m=1}^{|T|} \sum_{x∈R_m} ( y_i - \hat{y}_{R_m} )^2+α|T| }[/math]

Lesson-208-Figure8-4.png Lesson-208-Figure8-5.png

2 같이 보기

3 참고

  1. top-down, greedy
문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}