출처 : https://losskatsu.github.io/machine-learning/stat-roc-curve/#%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-%EC%84%B1%EB%8A%A5-%ED%8F%89%EA%B0%80---roc-%EC%BB%A4%EB%B8%8C-%EA%B0%9C%EB%85%90-%EC%A0%95%EB%A6%AC ROC Curve(ROC 커브)란? 머신러닝 모형 평가 머신러닝 성능 평가 - ROC 커브 개념 정리 losskatsu.github.io [ROC] Reciever Operating Characteristics, 수신자 조작 특성 곡선 내가 제작한 모델의 성능이 좋은지 안좋은지를 평가하는 기준 중 하나. 분류에 관한 평가 기준들을 먼저 보자. 정..
참고 : https://blog.naver.com/mbmb7777/222356672936 [Anomaly Detection] PCA 1. 모델 비교 (1) 모델 선택 기준 - ML/DL 선택 뿐 아니라, 비지도/지도 학습까지 굉장히 다양한 모델... blog.naver.com https://post.naver.com/viewer/postView.naver?volumeNo=28850610&memberNo=21815 파이썬으로 구현하는 SVD PCA(하) [BY 안국이] 이미지 파일을 행렬로 변환하기현재 영상 데이터는 우리가 접하는 데이터 유형 중 양적으로... m.post.naver.com PCA로 피쳐를 합성하고, 합성된 피쳐를 이용해 이상탐지를 하는 모델을 구현했다. 여기에 필요한 개념은 마할로노비스 ..
kmeans 알고리즘에서 클러스터의 개수를 구하는건 가장 중요한 일이다. 이를 구하기 위해 먼저 알아야할 건 이너셔(inertia)이다. 이는 클러스터에 속한 샘플들이 얼마나 밀접하게 모여있나를 나타내는 값이다. 클러스터의 개수가 늘어나면 클러스터들의 크기는 줄어들 것이고, 이너셔도 줄어든다. 결국 이너셔의 값이 크게크게 줄어들다 변화의 폭이 크게 줄어드는 부분을 k값으로 하면 된다. 이를 엘보우 방법이라고 한다. #이번엔 우리가 3개의 클래스로 나눌걸 알고 n_cluster를 3으로 설정했다. 모르고 해야할 때 최적의 k를 찾는 방법을 알아보자. #클러스터 중심과 클러스터에 속한 샘플 사이의 거리의 제곱 합을 이너셔라고한다. from sklearn.cluster import KMeans inertia=..
출처 : https://repository.kihasa.re.kr/bitstream/201002/32608/1/%EA%B8%B0%EA%B3%84%ED%95%99%EC%8A%B5%28Machine%20Learning%29%20%EA%B8%B0%EB%B0%98%20%EC%9D%B4%EC%83%81%20%ED%83%90%EC%A7%80%28Anomaly%20Detection%29%20%EA%B8%B0%EB%B2%95%20%EC%97%B0%EA%B5%AC-%20%EB%B3%B4%EA%B1%B4%EC%82%AC%ED%9A%8C%20%EB%B6%84%EC%95%BC%EB%A5%BC%20%EC%A4%91%EC%8B%AC%EC%9C%BC%EB%A1%9C.pdf 1. 이상탐지 개념 및 특성 anomaly는 nomal의 ..
차원이란? 공간 내에 있는 점 등의 위치를 나타내기 위해 필요한 축의 개수 차원의 수 증가 = 변수의 수 증가 = 데이터를 표현하는 공간 증가 3개의 특징을 사용하는 데이터 셋 = 3차원 ex) 키, 몸무게, 발 크기 3개의 특징을 가진 데이터 셋은 3차원의 표현이 필요하다. 차원의 저주 차원의 수가 늘어나 차원이 커지면서 발생하는 문제 학습 데이터 수가 차원의 수보다 작을 경우 성능이 저하 된다. 데이터 수는 그대로인데 차원이 증가하면 빈 공간이 생긴다. -> 데이터 간의 간격이 늘어난다. -> 과적합 발생 ex)2차원 평면인 데이터셋에서 3차원이 되면 데이터의 밀도가 낮아진다. 차원 축소 많은 feature(특징)로 구성된 다차원의 데이터 셋의 차원을 축소시킨다. 이를 통해 새로운 차원의 데이터 셋을..
import numpy as np import matplotlib.pyplot as plt from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras import optimizers x = np.array([-50, -40, -30, -20, -10, -5, 0, 5, 10, 20, 30, 40, 50]) y = np.array([0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1]) # 숫자 10부터 1 model = Sequential() model.add(Dense(1, input_dim=1, activation='sigmoid')) sgd = ..
이번엔 로지스틱 회귀에 대해 공부한다. 로지스틱 회귀는 앞에서 공부한 입력값에 대한 결과 값을 예측하는 단순 선형 회귀와 달리 2가지의 클래스 중 어디에 속하는지 분류하는 이진 분류에 대한 알고리즘이다. 처음에 공부하면서 로지스틱 '회귀'인데 왜 분류하는 알고리즘인지 이해가 안됐다. 로지스틱 회귀는 시그모이드 함수를 0~1 사이의 예측값을 이용해 결과를 분류하는 회귀가 포함된 분류 알고리즘이다. 이번엔 성적에 따라 불/합 여부를 판단하는 문제를 가정하자. 45 : 불 50 : 불 55 : 불 60 : 합 65 : 합 70 : 합 이에 대한 그래프는 다음과 같다. 55점과 60점 사이에서 합격과 불합격이 갈린다. 그 사이의 점수들은 합격일 가능성이 높은 부분과 낮은 부분으로 갈린다. 이 사이의 점수들이 합..
케라스는 텐서플로우보다 쉽게 구현할 수 있다. 텐서플로우는 모델을 직접 하나하나 설정해줘야 하지만 케라스는 메소드가 사용자 친화적으로 개발되어 있어 사용하기엔 편하다. 케라스의 구현 과정은 먼저 Sequential로 모델을 만들고 add로 입력과 출력 벡터와 같은 필요한 정보를 추가해간다. import numpy as np import matplotlib.pyplot as plt from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras import optimizers x = [1,2,3,4,5,6,7,8,9] #공부 시간 y = [11,22,33,44,53,66,7..
텐서플로우로 앞서 설명한 단순 선형 회귀를 구현한다. 케라스로 구현해도 좋지만 텐서플로우 먼저 해봄 먼저 경사 하강법에 필요한 미분을 먼저 구현한다. import tensorflow as tf w = tf.Variable(2.) #변수 w에 2를 넣는다 def f(w): y = w**2 z = 2*y + 5 return z with tf.GradientTape() as tape: z = f(w) gradients = tape.gradient(z,[w]) print(gradients) 방정식 f(w)를 구현한다. 이 방정식은 w의 cost값 변화에 대한 그래프이다. tape.gradient(z,[w])는 타겟(z)에 대한 w의 미분을 계산해주는 메소드이다. y = w**2을 dy = dx*2*w 미분식을 ..
K - Nearest Neighbor KNN - 특정공간 내에서 K-NN은 새로 들어온 입력값이 어떤 그룹의 데이터와 가장 가까운가 분류하는 알고리즘 - k는 몇 번째로 가까운 데이터까지 살펴볼 것인가를 정함 - k의 default는5, k의 값이 짝수일 경우 동점이 되어 하나의 결과를 도출할 수 없으므로 홀수를 사용함 장점 - 높은 정확도 - 단순하며 효율적(모델을 미리 생성하지 않음) - 상위 k개의 데이터만 활용하기 때문에 오류 데이터가 결과에 미치지 않음 - 데이터 분산에 대한 추정을 만들 필요 없음 단점 - 데이터가 많을수록 처리 시간 증가 - 모델이 미리 생성되지 않아 새로운 데이터에 대한 학습 시간보다 분류/예측 시간이 더 걸림 거리 기준(유클리드 제곱 거리) - 새로운 데이터와 k개의 데이..
- Total
- Today
- Yesterday
- AVTP
- porks
- 회귀
- 이상탐지
- one-to-many
- 딥러닝
- 논문 잘 쓰는법
- automotive ethernet
- many-to-many
- problem statement
- HTML
- 차량 네트워크
- 로지스틱회귀
- 케라스
- automotive
- SVM
- AVB
- json2html
- 크로스 엔트로피
- Python
- 차량용 이더넷
- Ethernet
- AE
- CAN-FD
- cuckoo
- 머신러닝
- many-to-one
- 단순선형회귀
- PCA
- SOME/IP
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |