
지금까지의 머신러닝과 딥러닝 모델은 한가지의 정보만을 이용하여 학습했다. 하지만 사람이 정보를 받아들일 때는 소리, 시야, 후각 등 다양한 정보를 통합하여 판단하지 하나만 사용하지 않는다.AI 또한 다양한 정보를 통합해 판단할 필요가 있다. Modality란?modality: (인체의 감각적) 양상, 시각 및 청각적 양상신체의 다양항 감각을 통해 정보를 받아들이는 양상을 의미하는 modality를 AI분야에 접합시켜 다양한 형태의 데이터를 동시에 처리하고 이해할 수 있는 모델을 멀티-모달이라고 한다. 멀티-모달의 사용처감정 분석- 사람의 얼굴을 통해 감정을 분석할 수 있지만, 표정과 그에 걸맞는 대사를 결합하면 더욱 감정전달이 확실해 질 수 있다. 이미지 캡션 생성- 이미지의 시각적 특징을 이해하고 설명..

출처 : https://wikidocs.net/22886 RNN은 hidden layer에서 활성화 함수를 통해 나온 결과값을 output layer로 보내면서, 다시 hidden layer에도 보내 다음 계산의 입력으로 사용한다. cell은 이전의 값을 기억하는 역할을 수행하기도 한다. 이전 타임 스텝에서 나온 결과값을 기억하고 있다가 해당 타임 스텝의 입력으로 사용한다. 위 그림은 입력 벡터의 차원이 4, hidden state가 2, output이 2인 상태를 시각화한 것이다. RNN은 입력과 출력의 길이를 다르게 설정할 수 있다. one-to-many는 하나의 입력으로 여러개의 output을 낼 수 있다. 이는 하나의 이미지 입력에 대해 다양한 이미지의 제목을 출력하는 경우 등이 있다. many-..

출처 : https://losskatsu.github.io/machine-learning/stat-roc-curve/#%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-%EC%84%B1%EB%8A%A5-%ED%8F%89%EA%B0%80---roc-%EC%BB%A4%EB%B8%8C-%EA%B0%9C%EB%85%90-%EC%A0%95%EB%A6%AC ROC Curve(ROC 커브)란? 머신러닝 모형 평가 머신러닝 성능 평가 - ROC 커브 개념 정리 losskatsu.github.io [ROC] Reciever Operating Characteristics, 수신자 조작 특성 곡선 내가 제작한 모델의 성능이 좋은지 안좋은지를 평가하는 기준 중 하나. 분류에 관한 평가 기준들을 먼저 보자. 정..

참고 : https://blog.naver.com/mbmb7777/222356672936 [Anomaly Detection] PCA 1. 모델 비교 (1) 모델 선택 기준 - ML/DL 선택 뿐 아니라, 비지도/지도 학습까지 굉장히 다양한 모델... blog.naver.com https://post.naver.com/viewer/postView.naver?volumeNo=28850610&memberNo=21815 파이썬으로 구현하는 SVD PCA(하) [BY 안국이] 이미지 파일을 행렬로 변환하기현재 영상 데이터는 우리가 접하는 데이터 유형 중 양적으로... m.post.naver.com PCA로 피쳐를 합성하고, 합성된 피쳐를 이용해 이상탐지를 하는 모델을 구현했다. 여기에 필요한 개념은 마할로노비스 ..

출처 : https://post.naver.com/viewer/postView.nhn?volumeNo=28714805&memberNo=21815 파이썬으로 구현하는 공분산행렬 PCA(상) [BY 안국이] 고유값과 고유벡터 복습우선 고유값과 고유벡터를 복습함으로써 고유값과 고유벡터를 구... m.post.naver.com 다음 3차원 행렬의 고유값과 고유벡터를 구해보자. import numpy as np A = np.array([[-2, -5, -2], [-5, 1, -5], [-2, -5, 2]]) print("Matrix A: ") print(A) print() eigenvalue, eigenvector = np.linalg.eig(A) eigenvalue = np.round(eigenvalue, 5)..
kmeans 알고리즘에서 클러스터의 개수를 구하는건 가장 중요한 일이다. 이를 구하기 위해 먼저 알아야할 건 이너셔(inertia)이다. 이는 클러스터에 속한 샘플들이 얼마나 밀접하게 모여있나를 나타내는 값이다. 클러스터의 개수가 늘어나면 클러스터들의 크기는 줄어들 것이고, 이너셔도 줄어든다. 결국 이너셔의 값이 크게크게 줄어들다 변화의 폭이 크게 줄어드는 부분을 k값으로 하면 된다. 이를 엘보우 방법이라고 한다. #이번엔 우리가 3개의 클래스로 나눌걸 알고 n_cluster를 3으로 설정했다. 모르고 해야할 때 최적의 k를 찾는 방법을 알아보자. #클러스터 중심과 클러스터에 속한 샘플 사이의 거리의 제곱 합을 이너셔라고한다. from sklearn.cluster import KMeans inertia=..

TRAIN_DATASET = sorted([x for x in Path("/Users/kibeom/HAI/dataset/train").glob("*.csv")]) TRAIN_DATASET [PosixPath('/Users/kibeom/HAI/dataset/train/train1.csv'), PosixPath('/Users/kibeom/HAI/dataset/train/train2.csv'), PosixPath('/Users/kibeom/HAI/dataset/train/train3.csv'), PosixPath('/Users/kibeom/HAI/dataset/train/train4.csv'), PosixPath('/Users/kibeom/HAI/dataset/train/train5.csv'), PosixPa..

출처 : https://repository.kihasa.re.kr/bitstream/201002/32608/1/%EA%B8%B0%EA%B3%84%ED%95%99%EC%8A%B5%28Machine%20Learning%29%20%EA%B8%B0%EB%B0%98%20%EC%9D%B4%EC%83%81%20%ED%83%90%EC%A7%80%28Anomaly%20Detection%29%20%EA%B8%B0%EB%B2%95%20%EC%97%B0%EA%B5%AC-%20%EB%B3%B4%EA%B1%B4%EC%82%AC%ED%9A%8C%20%EB%B6%84%EC%95%BC%EB%A5%BC%20%EC%A4%91%EC%8B%AC%EC%9C%BC%EB%A1%9C.pdf 1. 이상탐지 개념 및 특성 anomaly는 nomal의 ..

https://dacon.io/forum/406086 [BASIC, TIP] 피처 스케일링이란? 정규화 vs 표준화? dacon.io 머신러닝에서 높은 정확도를 위해 필수적으로 거치는 단계는 스케일링이다. 스케일링은 데이터 셋의 단위가 압도적으로 차이가 나(어떤건 1000, 다른건 0.1) 구분이 어려운 경우에 단위를 비슷하게 재조정하는 과정이다. 그런데 알고리즘마다 표준화를 사용한다, 정규화를 사용한다, 스케일링한다. 다르게 표현한다. 세개가 어떻게 다른지 알아본다. 먼저 스케일링이란 통상적으로 단위를 조정할 때 쓰이는 말이다. 정규화를 이용해 스케일링한다, 표준화를 이용해 스케일링한다. 정규화(min-max scailing) 정규화란 데이터 셋의 값들을 0과 1 사이의 범위로 이동하고 재조정하는 스케..

차원이란? 공간 내에 있는 점 등의 위치를 나타내기 위해 필요한 축의 개수 차원의 수 증가 = 변수의 수 증가 = 데이터를 표현하는 공간 증가 3개의 특징을 사용하는 데이터 셋 = 3차원 ex) 키, 몸무게, 발 크기 3개의 특징을 가진 데이터 셋은 3차원의 표현이 필요하다. 차원의 저주 차원의 수가 늘어나 차원이 커지면서 발생하는 문제 학습 데이터 수가 차원의 수보다 작을 경우 성능이 저하 된다. 데이터 수는 그대로인데 차원이 증가하면 빈 공간이 생긴다. -> 데이터 간의 간격이 늘어난다. -> 과적합 발생 ex)2차원 평면인 데이터셋에서 3차원이 되면 데이터의 밀도가 낮아진다. 차원 축소 많은 feature(특징)로 구성된 다차원의 데이터 셋의 차원을 축소시킨다. 이를 통해 새로운 차원의 데이터 셋을..
- Total
- Today
- Yesterday
- 케라스
- 이상탐지
- automotive
- cuckoo
- 차량 네트워크
- HTML
- 딥러닝
- Python
- many-to-one
- AVTP
- 회귀
- SVM
- AVB
- 로지스틱회귀
- Ethernet
- automotive ethernet
- 단순선형회귀
- 차량용 이더넷
- SOME/IP
- porks
- AE
- 크로스 엔트로피
- CAN-FD
- many-to-many
- json2html
- one-to-many
- problem statement
- 머신러닝
- PCA
- 논문 잘 쓰는법
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |