Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
Tags
- 리눅스 환경변수
- Linux
- git init
- BFS
- Spark jdbc parallel read
- 추천시스템
- 알고리즘
- airflow 정리
- enq: FB - contention
- 앙상블
- 네트워크
- Spark Data Read
- 의사결정나무
- Spark 튜닝
- 배깅
- Oracle ASSM
- 랜덤포레스트
- Python
- eda
- Decision Tree
- CF
- git stash
- SQL
- 오라클 데이터 처리방식
- 통계분석
- 데이터분석
- Oracle 논리적 저장 구조
- 데이터 분석
- Collaborative filtering
- git 기본명령어
Archives
- Today
- Total
목록SVM (1)
[Alex] 데이터 장인의 블로그
출처 ratsgo_서포트 벡터 머신 [서적] 파이썬 데이터 사이언스 핸드북 https://pierpaolo28.github.io/blog/blog6/ SVM: Feature Selection and Kernels 기반으로 한 학습내용 정리입니다. 분류 = 분리 분류 학습의 가장 기본적인 아이디어는 훈련 데이터의 공간에서 하나의 분할 초평면을 찾아 서로 다른 클래스의 데이터를 찾아내어 분리하는 것이다. 그렇다면 위의 그림에서 분류를 하기 위한 분할선을 하나 찾는다고 가정할 때, 왜 오른쪽 초록선이 기준이 되는 것일까? 그 이유는 가장 '견고'한 선이기 때문이다. 노이즈(이상값)나 어떠한 영향으로 인해 새로운 데이터가 분류 경계에 가까이 가게된다면 '오류'가 생기게 된다. 이러한 오류를 최대한 줄일 수 있도..
ML&DL/Machine Learning
2020. 9. 11. 13:37