Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 토스
- 데이터도서
- 스타터스부트캠프
- SQL
- MatchSum
- 취업부트캠프
- AWS builders
- NLP
- 임베딩
- 알고리즘
- 유데미부트캠프
- 딥러닝
- BERT
- 유데미코리아
- 사이드프로젝트
- SLASH22
- 부트캠프후기
- AARRR
- 취업부트캠프 5기
- 유데미큐레이션
- 그래프
- sql정리
- 서비스기획
- 추천시스템
- 특성중요도
- NLU
- pytorch
- 스타터스
- 서비스기획부트캠프
- 그로스해킹
Archives
- Today
- Total
목록WordEmbedding (1)
다시 이음
임베딩 (1) - Word embedding
안녕하세요. 오늘은 word embedding 모델의 종류를 알아보려고 합니다. 임베딩은 자연어를 컴퓨터가 이해하고, 효율적으로 처리하기 위해서 컴퓨터가 이해할 수 있도록 자연어를 적절히 변환합니다. 1. Embedding 방법 1-1. Sparse Embedding 원-핫 인코딩 방법은 단어 인덱스만 1이고 나머지 인덱스에는 전부 0으로 표현되는 벡터 표현 방법이 있습니다. 이렇게 벡터 또는 행렬(matrix)의 값이 대부분이 0으로 표현되는 방법을 Sparse representation(희소 표현)이라고 합니다. 단점 포함된 단어의 개수 만큼 차원이 확장되기 때문에 고차원으로 형성 ==> 차원의저주(curse of dimensionality) 벡터가 단어의 의미를 표현하지 못합니다. 모든 단어의 유클..
Pre_Onboarding by Wanted(자연어 처리)
2022. 3. 8. 20:17