"어텐션"의 두 판 사이의 차이

22번째 줄: 22번째 줄:


[[분류: 머신러닝]]
[[분류: 머신러닝]]
[[분류: 신경망]]

2024년 1월 4일 (목) 14:58 판

1 개요

attention
어텐션, 주의집중
  • 신경망에서 "주의"를 모방하여 고안된 기술
  • 입력 데이터 중 일부의 효과를 증강시키며, 다른 일부를 감소시킨다.
  • 데이터 중 비중이 적지만 중요한 데이터에 더 집중하게 한다.
  • 데이터 중 어느 부분을 학습하는 것이 다른 부분을 학습하는 것보다 더 중요한지는 문맥에 따라 결정되며, 이는 경사하강법으로 학습된다.

2 같이 보기

3 참고

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}