Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 스타터스부트캠프
- 사이드프로젝트
- 데이터도서
- 특성중요도
- sql정리
- MatchSum
- SLASH22
- 부트캠프후기
- 그로스해킹
- 그래프
- 추천시스템
- 유데미코리아
- 토스
- SQL
- pytorch
- AARRR
- 취업부트캠프 5기
- 딥러닝
- 서비스기획부트캠프
- AWS builders
- 알고리즘
- NLP
- 취업부트캠프
- BERT
- 임베딩
- NLU
- 서비스기획
- 유데미부트캠프
- 유데미큐레이션
- 스타터스
Archives
- Today
- Total
목록word2vec (1)
다시 이음
딥러닝(7) - Distributed Representation(분산표현)
안녕하세요. 오늘은 어제에 이어서 자연어를 벡터화 하는 방법에 대해서 알아보겠습니다. 어제 등장 횟수에 따라 벡터화 하는 방법(BoW:TF,TF-IDF)을 알아보았습니다. 오늘은 벡터화 하는 다른 방법인 단어 자체를 벡터화 하는 분산 표현에 대해서 알아보겠습니다. Distributed Representation 1) 원핫인코딩 단어를 벡터화하고자 할 때 선택할 수 있는 가장 쉬운 방법입니다. 예를 들면 5가지의 단어가 모여 하나의 문장을 이룰 때 이것을 원핫인코딩을 적용하면 5차원을 가진 벡터가 생성됩니다. 순서에 따라 [1,0,0,0,0], [0,1,0,0,0]... [0,0,0,0,1]과같이 생성됩니다. 원핫인코딩의 단점은 단어간의 유사도를 구할 수 없다는 것입니다. 코사인 유사도(cosine sim..
AI 일별 공부 정리
2021. 10. 27. 00:08