Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- CF
- Decision Tree
- eda
- git init
- Collaborative filtering
- Linux
- airflow 정리
- 랜덤포레스트
- Oracle ASSM
- git 기본명령어
- Oracle 논리적 저장 구조
- Python
- 리눅스 환경변수
- 배깅
- 데이터분석
- 오라클 데이터 처리방식
- git stash
- Spark 튜닝
- 의사결정나무
- Spark Data Read
- BFS
- Spark jdbc parallel read
- SQL
- 통계분석
- 앙상블
- 네트워크
- 데이터 분석
- 알고리즘
- 추천시스템
- enq: FB - contention
Archives
- Today
- Total
목록머신러닝 (1)
[Alex] 데이터 장인의 블로그
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/1XKBI/btqHG60hA4w/R6Y0q3oJA1nxRPnObToxGk/img.png)
출처 ratsgo_서포트 벡터 머신 [서적] 파이썬 데이터 사이언스 핸드북 https://pierpaolo28.github.io/blog/blog6/ SVM: Feature Selection and Kernels 기반으로 한 학습내용 정리입니다. 분류 = 분리 분류 학습의 가장 기본적인 아이디어는 훈련 데이터의 공간에서 하나의 분할 초평면을 찾아 서로 다른 클래스의 데이터를 찾아내어 분리하는 것이다. 그렇다면 위의 그림에서 분류를 하기 위한 분할선을 하나 찾는다고 가정할 때, 왜 오른쪽 초록선이 기준이 되는 것일까? 그 이유는 가장 '견고'한 선이기 때문이다. 노이즈(이상값)나 어떠한 영향으로 인해 새로운 데이터가 분류 경계에 가까이 가게된다면 '오류'가 생기게 된다. 이러한 오류를 최대한 줄일 수 있도..
ML&DL/Machine Learning
2020. 9. 11. 13:37