BERT

1 개요[ | ]

Bidirectional Encoder Representations from Transformers (BERT)
트랜스포머를 통한 양방향 인코더 표현 (버트)
  • NLP 사전-훈련(pre-training) 기법
  • 2018년에 Jacob Devlin과 Google 동료들이 만들어 공개했다.[1]
  • Google은 사용자 검색을 더 잘 이해하기 위해 BERT를 활용하고 있다(2018년 당시).

  • 파라미터 사전훈련
  • 대규모 데이터셋으로 자기 지도 학습
  • 다양한 작업을 위한 범용 아키텍처

2 같이 보기[ | ]

3 참고[ | ]

  1. https://arxiv.org/abs/1810.04805v2 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}