일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 유데미큐레이션
- 스타터스
- sql정리
- 서비스기획부트캠프
- 딥러닝
- 유데미부트캠프
- MatchSum
- 그로스해킹
- SQL
- pytorch
- 특성중요도
- NLP
- 그래프
- NLU
- 사이드프로젝트
- 토스
- 추천시스템
- SLASH22
- 취업부트캠프 5기
- 데이터도서
- AWS builders
- 취업부트캠프
- 유데미코리아
- 임베딩
- BERT
- AARRR
- 서비스기획
- 스타터스부트캠프
- 알고리즘
- 부트캠프후기
- Today
- Total
목록특성중요도 (3)
다시 이음

Interpreting Machine Learning Model ( 머신러닝 모델 해석하기 ) 안녕하세요. 오늘은 지금까지 배웠던 머신러닝 모델을 해석할 수 있는 방법에 대해서 다루려고 합니다. Partial Dependence Plots(PDP)와 Shap value를 통해서 우리는 모델을 해석할 수 있습니다. 이러한 해석과정을 거치는 이유는 모델의 결정 과정을 이해하게 도와주며, 블랙박스라고도 하는 모델안의 결정과정을 해석할 수 없는 경우 신뢰도가 낮아진다고도 생각할 수 있습니다. Partial Dependence Plots(PDP) Partial Dependence Plots(PDP)(부분의존도 그래프) 란, 예측모델을 만들었을 때, 어떤 특성(feature)이 예측모델의 타겟변수(target va..
Feature Importances & Boosting 안녕하세요. 오늘은 결정트리와 랜덤포레스트에 대해서 공부했을 때 빠지지 않고 등장했던 특성중요도(Feature importance)의 다른 방법들을 알아볼 예정입니다. 또한, 트리 앙상블 모델중에 하나인 Boosting ( Ada boost, Gradient boost ) 에 대해서도 알아보겠습니다. Feature Importances 모델 기반 변수 선택(Model based method) 우리가 회귀모델에 대해서 배울때( 이전 포스트인 https://thogood212.tistory.com/21?category=993583 참조해주세요. ) SelectKBest 라는 메소드를 공부했습니다. SelectKBest 메소드는 단일 변수 선택법 으로 특..
오늘은 트리기반(tree-based) 머신러닝모델에 대해서 살펴보려고 합니다. 결정트리(의사결정나무) 모델은 특성들을 기준으로 샘플을 분류해 나가는데 그 형태가 나무의 가지가 뻗어나가는 모습과 비슷해서 결정트리라는 이름을 가지고 있습니다. 결정트리의 구성 질문이나 말단의 정답을 노드(node) 라 하며 노드를 연결하는 선을 엣지(edge) 라 합니다. 결정트리의 각 노드(node)는 뿌리(root)노드, 중간(internal)노드, 말단(external, leaf, terminal) 노드로 나뉠 수 있습니다. 결정트리의 특징 결정트리는 분류와 회귀문제 모두 적용 가능합니다. 결정트리는 데이터를 분할해 가는 알고리즘입니다. 분류 과정은 새로운 데이터가 특정 말단 노드에 속한다는 정보를 확인한 뒤 말단노드의..