출처 : https://wikidocs.net/22886 RNN은 hidden layer에서 활성화 함수를 통해 나온 결과값을 output layer로 보내면서, 다시 hidden layer에도 보내 다음 계산의 입력으로 사용한다. cell은 이전의 값을 기억하는 역할을 수행하기도 한다. 이전 타임 스텝에서 나온 결과값을 기억하고 있다가 해당 타임 스텝의 입력으로 사용한다. 위 그림은 입력 벡터의 차원이 4, hidden state가 2, output이 2인 상태를 시각화한 것이다. RNN은 입력과 출력의 길이를 다르게 설정할 수 있다. one-to-many는 하나의 입력으로 여러개의 output을 낼 수 있다. 이는 하나의 이미지 입력에 대해 다양한 이미지의 제목을 출력하는 경우 등이 있다. many-..
출처 : https://losskatsu.github.io/machine-learning/stat-roc-curve/#%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-%EC%84%B1%EB%8A%A5-%ED%8F%89%EA%B0%80---roc-%EC%BB%A4%EB%B8%8C-%EA%B0%9C%EB%85%90-%EC%A0%95%EB%A6%AC ROC Curve(ROC 커브)란? 머신러닝 모형 평가 머신러닝 성능 평가 - ROC 커브 개념 정리 losskatsu.github.io [ROC] Reciever Operating Characteristics, 수신자 조작 특성 곡선 내가 제작한 모델의 성능이 좋은지 안좋은지를 평가하는 기준 중 하나. 분류에 관한 평가 기준들을 먼저 보자. 정..
참고 : https://blog.naver.com/mbmb7777/222356672936 [Anomaly Detection] PCA 1. 모델 비교 (1) 모델 선택 기준 - ML/DL 선택 뿐 아니라, 비지도/지도 학습까지 굉장히 다양한 모델... blog.naver.com https://post.naver.com/viewer/postView.naver?volumeNo=28850610&memberNo=21815 파이썬으로 구현하는 SVD PCA(하) [BY 안국이] 이미지 파일을 행렬로 변환하기현재 영상 데이터는 우리가 접하는 데이터 유형 중 양적으로... m.post.naver.com PCA로 피쳐를 합성하고, 합성된 피쳐를 이용해 이상탐지를 하는 모델을 구현했다. 여기에 필요한 개념은 마할로노비스 ..
출처 : https://post.naver.com/viewer/postView.nhn?volumeNo=28714805&memberNo=21815 파이썬으로 구현하는 공분산행렬 PCA(상) [BY 안국이] 고유값과 고유벡터 복습우선 고유값과 고유벡터를 복습함으로써 고유값과 고유벡터를 구... m.post.naver.com 다음 3차원 행렬의 고유값과 고유벡터를 구해보자. import numpy as np A = np.array([[-2, -5, -2], [-5, 1, -5], [-2, -5, 2]]) print("Matrix A: ") print(A) print() eigenvalue, eigenvector = np.linalg.eig(A) eigenvalue = np.round(eigenvalue, 5)..
kmeans 알고리즘에서 클러스터의 개수를 구하는건 가장 중요한 일이다. 이를 구하기 위해 먼저 알아야할 건 이너셔(inertia)이다. 이는 클러스터에 속한 샘플들이 얼마나 밀접하게 모여있나를 나타내는 값이다. 클러스터의 개수가 늘어나면 클러스터들의 크기는 줄어들 것이고, 이너셔도 줄어든다. 결국 이너셔의 값이 크게크게 줄어들다 변화의 폭이 크게 줄어드는 부분을 k값으로 하면 된다. 이를 엘보우 방법이라고 한다. #이번엔 우리가 3개의 클래스로 나눌걸 알고 n_cluster를 3으로 설정했다. 모르고 해야할 때 최적의 k를 찾는 방법을 알아보자. #클러스터 중심과 클러스터에 속한 샘플 사이의 거리의 제곱 합을 이너셔라고한다. from sklearn.cluster import KMeans inertia=..
TRAIN_DATASET = sorted([x for x in Path("/Users/kibeom/HAI/dataset/train").glob("*.csv")]) TRAIN_DATASET [PosixPath('/Users/kibeom/HAI/dataset/train/train1.csv'), PosixPath('/Users/kibeom/HAI/dataset/train/train2.csv'), PosixPath('/Users/kibeom/HAI/dataset/train/train3.csv'), PosixPath('/Users/kibeom/HAI/dataset/train/train4.csv'), PosixPath('/Users/kibeom/HAI/dataset/train/train5.csv'), PosixPa..
출처 : https://repository.kihasa.re.kr/bitstream/201002/32608/1/%EA%B8%B0%EA%B3%84%ED%95%99%EC%8A%B5%28Machine%20Learning%29%20%EA%B8%B0%EB%B0%98%20%EC%9D%B4%EC%83%81%20%ED%83%90%EC%A7%80%28Anomaly%20Detection%29%20%EA%B8%B0%EB%B2%95%20%EC%97%B0%EA%B5%AC-%20%EB%B3%B4%EA%B1%B4%EC%82%AC%ED%9A%8C%20%EB%B6%84%EC%95%BC%EB%A5%BC%20%EC%A4%91%EC%8B%AC%EC%9C%BC%EB%A1%9C.pdf 1. 이상탐지 개념 및 특성 anomaly는 nomal의 ..
https://dacon.io/forum/406086 [BASIC, TIP] 피처 스케일링이란? 정규화 vs 표준화? dacon.io 머신러닝에서 높은 정확도를 위해 필수적으로 거치는 단계는 스케일링이다. 스케일링은 데이터 셋의 단위가 압도적으로 차이가 나(어떤건 1000, 다른건 0.1) 구분이 어려운 경우에 단위를 비슷하게 재조정하는 과정이다. 그런데 알고리즘마다 표준화를 사용한다, 정규화를 사용한다, 스케일링한다. 다르게 표현한다. 세개가 어떻게 다른지 알아본다. 먼저 스케일링이란 통상적으로 단위를 조정할 때 쓰이는 말이다. 정규화를 이용해 스케일링한다, 표준화를 이용해 스케일링한다. 정규화(min-max scailing) 정규화란 데이터 셋의 값들을 0과 1 사이의 범위로 이동하고 재조정하는 스케..
차원이란? 공간 내에 있는 점 등의 위치를 나타내기 위해 필요한 축의 개수 차원의 수 증가 = 변수의 수 증가 = 데이터를 표현하는 공간 증가 3개의 특징을 사용하는 데이터 셋 = 3차원 ex) 키, 몸무게, 발 크기 3개의 특징을 가진 데이터 셋은 3차원의 표현이 필요하다. 차원의 저주 차원의 수가 늘어나 차원이 커지면서 발생하는 문제 학습 데이터 수가 차원의 수보다 작을 경우 성능이 저하 된다. 데이터 수는 그대로인데 차원이 증가하면 빈 공간이 생긴다. -> 데이터 간의 간격이 늘어난다. -> 과적합 발생 ex)2차원 평면인 데이터셋에서 3차원이 되면 데이터의 밀도가 낮아진다. 차원 축소 많은 feature(특징)로 구성된 다차원의 데이터 셋의 차원을 축소시킨다. 이를 통해 새로운 차원의 데이터 셋을..
import numpy as np import matplotlib.pyplot as plt from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras import optimizers x = np.array([-50, -40, -30, -20, -10, -5, 0, 5, 10, 20, 30, 40, 50]) y = np.array([0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1]) # 숫자 10부터 1 model = Sequential() model.add(Dense(1, input_dim=1, activation='sigmoid')) sgd = ..
- Total
- Today
- Yesterday
- AVTP
- 이상탐지
- HTML
- json2html
- 크로스 엔트로피
- CAN-FD
- 로지스틱회귀
- AE
- 회귀
- 차량용 이더넷
- 케라스
- Ethernet
- cuckoo
- SOME/IP
- automotive
- SVM
- porks
- AVB
- 머신러닝
- problem statement
- many-to-many
- automotive ethernet
- PCA
- 단순선형회귀
- many-to-one
- 논문 잘 쓰는법
- one-to-many
- 딥러닝
- Python
- 차량 네트워크
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |