Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- sql정리
- AWS builders
- 취업부트캠프
- 유데미코리아
- pytorch
- SQL
- 데이터도서
- 임베딩
- MatchSum
- 그로스해킹
- NLP
- BERT
- 서비스기획부트캠프
- 그래프
- 스타터스부트캠프
- 딥러닝
- 취업부트캠프 5기
- NLU
- 특성중요도
- 부트캠프후기
- 토스
- 유데미큐레이션
- AARRR
- 서비스기획
- 스타터스
- 유데미부트캠프
- 사이드프로젝트
- 추천시스템
- SLASH22
- 알고리즘
Archives
- Today
- Total
목록WordEmbedding (1)
다시 이음

안녕하세요. 오늘은 word embedding 모델의 종류를 알아보려고 합니다. 임베딩은 자연어를 컴퓨터가 이해하고, 효율적으로 처리하기 위해서 컴퓨터가 이해할 수 있도록 자연어를 적절히 변환합니다. 1. Embedding 방법 1-1. Sparse Embedding 원-핫 인코딩 방법은 단어 인덱스만 1이고 나머지 인덱스에는 전부 0으로 표현되는 벡터 표현 방법이 있습니다. 이렇게 벡터 또는 행렬(matrix)의 값이 대부분이 0으로 표현되는 방법을 Sparse representation(희소 표현)이라고 합니다. 단점 포함된 단어의 개수 만큼 차원이 확장되기 때문에 고차원으로 형성 ==> 차원의저주(curse of dimensionality) 벡터가 단어의 의미를 표현하지 못합니다. 모든 단어의 유클..
Pre_Onboarding by Wanted(자연어 처리)
2022. 3. 8. 20:17