티스토리 뷰
from sklearn.neighbors import KNeighborsClassifier
import numpy as np
import matplotlib.pyplot as plt
bream_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0,
31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0,
35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0]
bream_weight = [242.0, 290.0, 340.0, 363.0, 430.0, 450.0, 500.0, 390.0, 450.0, 500.0, 475.0, 500.0,
500.0, 340.0, 600.0, 600.0, 700.0, 700.0, 610.0, 650.0, 575.0, 685.0, 620.0, 680.0,
700.0, 725.0, 720.0, 714.0, 850.0, 1000.0, 920.0, 955.0, 925.0, 975.0, 950.0]
smelt_length = [9.8, 10.5, 10.6, 11.0, 11.2, 11.3, 11.8, 11.8, 12.0, 12.2, 12.4, 13.0, 14.3, 15.0]
smelt_weight = [6.7, 7.5, 7.0, 9.7, 9.8, 8.7, 10.0, 9.9, 9.8, 12.2, 13.4, 12.2, 19.7, 19.9]
length = bream_length + smelt_length
weight = bream_weight + smelt_weight
fish_data = [[l,w] for l,w in zip(length,weight)] #zip 함수로 [l,w] 형태로 정렬해줌
fish_target = [1] * 35 + [0] * 14 #[1]은 bream, [0]dms smelt로 target 설정
kn = KNeighborsClassifier() #KNN 알고리즘을 사용할 수 있도록 함.
train_input = fish_data[:35] #34번째 인덱스까지 train_input으로 사용
train_target = fish_target[:35] #34번째 인덱스까지 train_target으로 사용
test_input = fish_data[35:] #35번째부터 끝까지 test_input으로 사용
test_target = fish_target[35:] #35번째부터 끝까지 test_target으로 사용
kn = kn.fit(train_input,train_target) #주어진 데이터로 훈련
kn.score(test_input,test_target) #주어진 데이터의 정확도를 계산
input_arr = np.array(fish_data) #fish_data를 배열 형태로 만듬
target_arr = np.array(fish_target) #fish_target을 배열 형태로 만듬
print(input_arr.shape)
np.random.seed(42) #랜덤시드를 42로 설정
index = np.arange(49) #49까지 랜덤으로 인덱스 지정
np.random.shuffle(index) #인덱스 셔플
print(index)
train_input = input_arr[index[:35]] #배열 형태의 fish_data의 0번째부터 34번째까지를 train_input으로 설정
train_target = target_arr[index[:35]] #배열 형태의 fish_target의 0번째부터 34번째까지를 train_target으로 설정
test_input = input_arr[index[35:]] #배열 형태의 fish_data의 35번째부터 끝까지를 test_input으로 설정
test_target = target_arr[index[35:]] #배열 형태의 fish_target의 35번째부터 끝까지를 test_target으로 설정
plt.scatter(train_input[:,0], train_input[:,1]) #분포 그래프를 그리는 plt를 이용해 train_input 중 0번째 열을 모두 가져와 x축의 값으로 지정, train_input 중 1번째 열을 모두 가져와 y축의 값으로 지정
plt.scatter(test_input[:,0], test_input[:,1]) #test_input의 0번째 열을 x축의 값으로, 1번째 열을 y축의 값으로 지정
plt.xlabel(['length']) #x축을 length로 라벨링
plt.ylabel(['weight']) #y축을 weight로 라벨링
plt.show()
kn = kn.fit(train_input,train_target) #train_input과 train_target을 훈련시킴
kn.score(test_input,test_target) #test_input과 test_target으로 정확도 계산
kn.predict(test_input) #test_input이 0(smelt)과 1(bream)중 어디에 더 가까운지 계산
'머신러닝 > 혼자공부하는머신러닝' 카테고리의 다른 글
확률적 경사 하강법 (0) | 2022.09.06 |
---|---|
proba, 로지스틱 회귀 (0) | 2022.08.25 |
pandas csv read, 다중 선형 회귀 (0) | 2022.08.23 |
혼공머_3 (0) | 2022.08.23 |
혼공머_2 (0) | 2022.08.19 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- automotive ethernet
- 머신러닝
- Ethernet
- Python
- SVM
- json2html
- one-to-many
- AVB
- 단순선형회귀
- 크로스 엔트로피
- problem statement
- automotive
- 차량용 이더넷
- PCA
- cuckoo
- HTML
- 이상탐지
- 케라스
- 딥러닝
- 논문 잘 쓰는법
- AVTP
- 회귀
- 로지스틱회귀
- many-to-many
- porks
- 차량 네트워크
- many-to-one
- CAN-FD
- SOME/IP
- AE
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함