"K-NN 알고리즘"의 두 판 사이의 차이

잔글 (봇: 통계학적 분류을(를) 통계적 분류(으)로 분류 대체함)
11번째 줄: 11번째 줄:
:(회귀) 출력값 = 객체의 특성값
:(회귀) 출력값 = 객체의 특성값
* 단점: 데이터 지역 구조에 민감함
* 단점: 데이터 지역 구조에 민감함
* k가 작으면 모델 유연성 높음 (모델이 복잡함)
* k를 몇으로 할 것인가? k=3, 5, 7, 10, 100 ??
:k가 작으면 모델 유연성 높음 (모델이 복잡함)
:k가 크면 모델 유연성 낮음 (모델이 단순함)
:k가 크면 모델 유연성 낮음 (모델이 단순함)



2020년 5월 19일 (화) 20:06 판

1 개요

k-nearest neighbors algorithm (k-NN)
k-최근접 이웃 알고리즘, k-NN 알고리즘
  • 패턴 인식의 일종
  • 머신러닝 알고리즘의 일종
  • 분류나 회귀에 사용되는 비모수 방식
  • 입력: 특징 공간 내 k개의 가장 가까운 훈련 데이터로 구성되어 있음
  • 출력: k-NN이 분류로 사용되었는지 또는 회귀로 사용되었는지에 따라 다름
(분류) 출력값 = 소속 항목
(회귀) 출력값 = 객체의 특성값
  • 단점: 데이터 지역 구조에 민감함
  • k를 몇으로 할 것인가? k=3, 5, 7, 10, 100 ??
k가 작으면 모델 유연성 높음 (모델이 복잡함)
k가 크면 모델 유연성 낮음 (모델이 단순함)

KnnClassification.svg

2 같이 보기

3 참고

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}