"K-NN 알고리즘"의 두 판 사이의 차이

 
(같은 사용자의 중간 판 3개는 보이지 않습니다)
12번째 줄: 12번째 줄:
* 단점: 데이터 지역 구조에 민감함
* 단점: 데이터 지역 구조에 민감함
* k를 몇으로 할 것인가? k=3, 5, 7, 10, 100 ??
* k를 몇으로 할 것인가? k=3, 5, 7, 10, 100 ??
:k가 작으면 모델 유연성 높음 (모델이 복잡함)
:k가 작으면 모델이 복잡해진다. (과적합되기 쉽다)
:k가 크면 모델 유연성 낮음 (모델이 단순함)
:k가 크면 모델이 단순해진다.


[[파일:KnnClassification.svg|330px]]
[[파일:KnnClassification.svg|330px]]
40번째 줄: 40번째 줄:
* {{네이버백과|k-최근접 이웃 알고리즘}}
* {{네이버백과|k-최근접 이웃 알고리즘}}


[[분류: 지도 학습]]
[[분류:머신러닝]]
[[분류:머신러닝]]
[[분류:통계적 분류]]
[[분류:통계적 분류]]
[[분류:검색 알고리즘]]
[[분류:검색 알고리즘]]
[[분류: 지도 학습]]

2020년 11월 28일 (토) 12:18 기준 최신판

1 개요[ | ]

k-nearest neighbors algorithm (k-NN)
k-최근접 이웃 알고리즘, k-NN 알고리즘
  • 패턴 인식의 일종
  • 머신러닝 알고리즘의 일종
  • 분류나 회귀에 사용되는 비모수 방식
  • 입력: 특징 공간 내 k개의 가장 가까운 훈련 데이터로 구성되어 있음
  • 출력: k-NN이 분류로 사용되었는지 또는 회귀로 사용되었는지에 따라 다름
(분류) 출력값 = 소속 항목
(회귀) 출력값 = 객체의 특성값
  • 단점: 데이터 지역 구조에 민감함
  • k를 몇으로 할 것인가? k=3, 5, 7, 10, 100 ??
k가 작으면 모델이 복잡해진다. (과적합되기 쉽다)
k가 크면 모델이 단순해진다.

KnnClassification.svg

2 같이 보기[ | ]

3 참고[ | ]

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}