Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 데이터 분석
- CF
- 앙상블
- SQL
- 데이터분석
- Spark jdbc parallel read
- git init
- BFS
- Collaborative filtering
- Decision Tree
- Spark 튜닝
- Oracle 논리적 저장 구조
- Linux
- git stash
- Python
- 네트워크
- airflow 정리
- 리눅스 환경변수
- git 기본명령어
- 의사결정나무
- eda
- 오라클 데이터 처리방식
- Oracle ASSM
- Spark Data Read
- 통계분석
- 배깅
- 추천시스템
- 알고리즘
- 랜덤포레스트
- enq: FB - contention
Archives
- Today
- Total
목록서포트 벡터 (1)
[Alex] 데이터 장인의 블로그
[Machine Learning] SVM - 서포트 벡터 머신
출처 ratsgo_서포트 벡터 머신 [서적] 파이썬 데이터 사이언스 핸드북 https://pierpaolo28.github.io/blog/blog6/ SVM: Feature Selection and Kernels 기반으로 한 학습내용 정리입니다. 분류 = 분리 분류 학습의 가장 기본적인 아이디어는 훈련 데이터의 공간에서 하나의 분할 초평면을 찾아 서로 다른 클래스의 데이터를 찾아내어 분리하는 것이다. 그렇다면 위의 그림에서 분류를 하기 위한 분할선을 하나 찾는다고 가정할 때, 왜 오른쪽 초록선이 기준이 되는 것일까? 그 이유는 가장 '견고'한 선이기 때문이다. 노이즈(이상값)나 어떠한 영향으로 인해 새로운 데이터가 분류 경계에 가까이 가게된다면 '오류'가 생기게 된다. 이러한 오류를 최대한 줄일 수 있도..
ML&DL/Machine Learning
2020. 9. 11. 13:37