kmeans 알고리즘에서 클러스터의 개수를 구하는건 가장 중요한 일이다. 이를 구하기 위해 먼저 알아야할 건 이너셔(inertia)이다. 이는 클러스터에 속한 샘플들이 얼마나 밀접하게 모여있나를 나타내는 값이다. 클러스터의 개수가 늘어나면 클러스터들의 크기는 줄어들 것이고, 이너셔도 줄어든다. 결국 이너셔의 값이 크게크게 줄어들다 변화의 폭이 크게 줄어드는 부분을 k값으로 하면 된다. 이를 엘보우 방법이라고 한다. #이번엔 우리가 3개의 클래스로 나눌걸 알고 n_cluster를 3으로 설정했다. 모르고 해야할 때 최적의 k를 찾는 방법을 알아보자. #클러스터 중심과 클러스터에 속한 샘플 사이의 거리의 제곱 합을 이너셔라고한다. from sklearn.cluster import KMeans inertia=..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/kD558/btrLAplCzL3/6wg7x1Cc8IeIKVAEnkORA1/img.png)
#확률적 경사 하강법 #조금씩 데이터를 훈련시킬 때 사용 #손실 함수 #머신러닝 알고리즘이 얼마나 엉터리인지를 측정하는 기준. 값이 작을수록 좋음. #최소의 손실 함수 값을 찾기위해 확률적 경사 하강법을 사용. #로지스틱 손실 함수 #하강 경사법은 연속적이야 하기 때문에 로지스틱 회귀 모델 확률을 사용 #로그 함수로 연속적임을 나타내는데, 예측확률은 0~1 사이이고 여기서는 로그 값이 음수이므로 -log로 계산한다. import pandas as pd from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import SGDClass..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/bylSKX/btrKvih2CP1/zq3CmTajpXFWUS8o3Uksl1/img.png)
import pandas as pd from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.neighbors import KNeighborsClassifier import numpy as np fish = pd.read_csv('https://bit.ly/fish_csv_data') fish.head() print(pd.unique(fish['Species'])) #species 열만 출력 #데이터 준비 fish_input = fish[['Weight', 'Length', 'Diagonal', 'Height', 'Width']].to_numpy() #원하는..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/H9suK/btrKpREE8XA/1su9NWNuKDeeRVPmApN5A1/img.png)
#다중회귀, 길이,높이,두께 데이터를 모두 사용함. #판다스로 csv파일 가져오기 import pandas as pd df = pd.read_csv('https://raw.githubusercontent.com/rickiepark/hg-mldl/master/perch_full.csv') perch_full = df.to_numpy() print(perch_full) import numpy as np from sklearn.model_selection import train_test_split from sklearn.preprocessing import PolynomialFeatures #특성을 제곱한 항을 추가하고 특성끼리 서로 곱한 항을 추가 perch_weight = np.array([5.9, 32...
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/cg6ljF/btrKqEEtHAb/tWFjgrjeMwgVtoek2shq7K/img.png)
#무게를 예측하기(회귀) import numpy as np import matplotlib.pyplot as plt from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsRegressor #회귀 알고리즘 from sklearn.metrics import mean_absolute_error #넘파이 배열로 만들기 perch_length = np.array([8.4, 13.7, 15.0, 16.2, 17.4, 18.0, 18.7, 19.0, 19.6, 20.0, 21.0, 21.0, 21.0, 21.3, 22.0, 22.0, 22.0, 22.0, 22.0, 22.5, 22.5, 22.7, 23.0..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/LAdQM/btrJ5yGkCDv/Rj8PSgBcvvXIwNQbgVoydk/img.png)
#train, test set 만들어서 학습하고 이웃 구하기 from sklearn.neighbors import KNeighborsClassifier from sklearn.model_selection import train_test_split import numpy as np import matplotlib.pyplot as plt bream_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 3..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/bEh6Qj/btrI2ZKxsFq/NAPdQ6bvhOpEudKfnkT5i1/img.png)
from sklearn.neighbors import KNeighborsClassifier import numpy as np import matplotlib.pyplot as plt bream_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0] bream_weight = [242.0, 290.0, 340.0, 363.0, 430.0, 450.0, 500.0, 390.0..
- Total
- Today
- Yesterday
- 차량 네트워크
- many-to-one
- json2html
- many-to-many
- Ethernet
- 머신러닝
- cuckoo
- AVB
- 크로스 엔트로피
- 로지스틱회귀
- HTML
- 케라스
- CAN-FD
- 이상탐지
- 차량용 이더넷
- 딥러닝
- AVTP
- AE
- SOME/IP
- porks
- one-to-many
- SVM
- automotive
- 회귀
- 논문 잘 쓰는법
- PCA
- 단순선형회귀
- problem statement
- automotive ethernet
- Python
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |