Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 유데미부트캠프
- sql정리
- 서비스기획부트캠프
- 유데미큐레이션
- 취업부트캠프 5기
- SQL
- 딥러닝
- MatchSum
- 그래프
- 스타터스
- 알고리즘
- 데이터도서
- 임베딩
- 스타터스부트캠프
- AWS builders
- 그로스해킹
- 추천시스템
- 취업부트캠프
- pytorch
- NLU
- 서비스기획
- 유데미코리아
- 사이드프로젝트
- 특성중요도
- BERT
- 부트캠프후기
- SLASH22
- 토스
- AARRR
- NLP
Archives
- Today
- Total
목록Transformer 구조 (1)
다시 이음

안녕하세요. 오늘은 Transformer라는 자연어 처리 모델중 어제 알아보았던 Attention 메커니즘의 기능을 최대화 하여 사용하는 모델에 대해서 알아보려고 합니다. Transformer 논문 : https://arxiv.org/abs/1706.03762 : Attention is All you need 라는 논문으로 트랜스포머 관련해서는 가장 유명한 논문이라고 합니다. Transformer 트랜스포머는 RNN의 순차적으로 단어가 입력되는 방식에서 단어가 많아질 수록 연산속도가 느려지는 문제점을 보완하고자 고안되었습니다. 트랜스포머는 단어를 입력받을 때 병렬화를 사용하며 그에 따라 GPU 연산에 최적화 되어있습니다. Transformer 구조 먼저 위의 그림을 설명하자면 왼쪽은 트랜스포머 안에 1개..
AI 일별 공부 정리
2021. 10. 29. 19:06