단층 퍼셉트론

1 개요[ | ]

single-layer perceptron, single-layer neural network, perceptron
단층 퍼셉트론, 단일 계층 퍼셉트론, 단일 레이어 퍼셉트론, 단일 계층 신경망, 단층 신경망, 퍼셉트론
  • 계층이 하나인 신경망
  • 가장 단순한 종류의 신경망
  • 단일 계층의 출력 노드로 구성된다.
  • 입력은 일련의 가중치를 통해 출력으로 직접 공급된다.
  • 가중치와 입력의 곱의 합은 각 노드에서 계산된다.
  • 값이 임계값(주로 0)을 초과하면, 뉴런이 실행되고 활성화된 값(주로 1)을 받는다.
  • 값이 임계값(주로 0)을 초과하지 않으면, 비활성화된 값(주로 -1)을 사용한다.
  • 이러한 종류의 활성화 기능을 가진 뉴런을 인공 뉴런 또는 선형 임계 단위라고도 한다.
  • 문헌에서 퍼셉트론이라는 용어는 종종 이러한 단위 중 하나로 구성된 네트워크를 나타낸다.
  • 유사한 뉴런이 1940년대에 Warren McCullochWalter Pitts에 의해 설명되었다.
  • 퍼셉트론은 임계값이 둘 사이에 있는 한 활성화 및 비활성화 상태에 대한 값을 사용하여 생성할 수 있다.
  • 퍼셉트론은 일반적으로 델타 규칙이라고 하는 간단한 학습 알고리즘으로 훈련할 수 있다.
  • 계산된 출력과 샘플 출력 데이터 사이의 오류를 계산하고 이를 이용하여 가중치를 조정하고 경사하강법의 한 형태로 구현된다.
1969년, Marvin Minsky와 Seymour Papert는 Perceptrons라는 유명한 논문에서 단층 퍼셉트론 네트워크가 XOR 함수를 학습하는 것이 불가능하다는 것을 보였다.
한편, 다층 퍼셉트론은 모든 가능한 불리언 함수를 생성할 수 있는 것으로 알려져 있다.
  • 단일 임계값 단위는 계산 능력이 매우 제한적이지만, 병렬 임계값 단위 네트워크는 실수의 컴팩트 간격에서 [-1,1] 간격으로 연속함수를 근사할 수 있음이 입증되었다.
  • 이 결과는 Peter Auer, Harald Burgsteiner, Wolfgang Maass의 "단층 퍼셉트론으로 구성된 매우 간단한 범용 근사치를 위한 학습 규칙"에서 확인할 수 있다.[1]

2 같이 보기[ | ]

3 참고[ | ]

  1. Auer, Peter; Harald Burgsteiner; Wolfgang Maass (2008). “A learning rule for very simple universal approximators consisting of a single layer of perceptrons” (PDF). 《Neural Networks》 21 (5): 786–795. doi:10.1016/j.neunet.2007.12.036. PMID 18249524. 2011년 7월 6일에 원본 문서 (PDF)에서 보존된 문서. 2009년 9월 8일에 확인함. 
문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}