Attention is All You Need 문서의 역사

차이 선택: 비교하려는 판의 라디오 상자를 선택한 다음 엔터나 아래의 버튼을 누르세요.
설명: (최신) = 최신 판과 비교, (이전) = 이전 판과 비교, 잔글= 사소한 편집

  • 최신이전 2024년 1월 24일 (수) 13:09Jmnote 토론 기여 1,488 바이트 +1,488 새 문서: ==개요== ;Attention is All You Need ;어텐션이 필요한 전부이다 주요 시퀀스 변환 모델은 인코더-디코더 구성의 복잡한 순환 또는 컨벌루션 신경...