
출처 : https://reader.elsevier.com/reader/sd/pii/S0167404820304235?token=99B22C4E7DFA4AFA4158B4DABD52B6513DAA469AE642A15452EDDD590DF9415C9BD72DBDC3243B0784FDEE4688BE20BD&originRegion=us-east-1&originCreation=20230206032810 Cybersecurity for autonomous vehicles: Review of attacks and defense As technology has evolved, cities have become increasingly smart. Smart mobility is a crucial element in sma..
fm 내에서는 크게 ST, AML, AMR, AMC, CM, DM, DL(WBL), DR(WBR), DC, GK 10개의 포지션으로 나뉜다. 그리고 각 포지션 마다 중요한 스탯이 있다. 스트라이커의 경우 순간속도(ACC),결정력(finish) 등이 있고 수비수의 경우 태클(tackling), 판단력(decision) 등이 있다. 월드 클래스 반열에 오른 선수들은 주요 능력치가 만점(20)에 가까운 점수를 가지고 있고 어느정도 유명한(CA 130점 이상) 선수들도 꽤나 높은 능력치를 가지고 있다. 유명한 선수들을 포지션별로 머신러닝으로 능력치들을 학습시킨다. 그 중 앞서 언급한 중요한 스탯은 가중치를 더하여 학습한다. 그 후 18~20살의 유망주 선수들을 테스트 셋으로 어느 포지션에 가까울지 다중분류한다...

https://dacon.io/forum/406086 [BASIC, TIP] 피처 스케일링이란? 정규화 vs 표준화? dacon.io 머신러닝에서 높은 정확도를 위해 필수적으로 거치는 단계는 스케일링이다. 스케일링은 데이터 셋의 단위가 압도적으로 차이가 나(어떤건 1000, 다른건 0.1) 구분이 어려운 경우에 단위를 비슷하게 재조정하는 과정이다. 그런데 알고리즘마다 표준화를 사용한다, 정규화를 사용한다, 스케일링한다. 다르게 표현한다. 세개가 어떻게 다른지 알아본다. 먼저 스케일링이란 통상적으로 단위를 조정할 때 쓰이는 말이다. 정규화를 이용해 스케일링한다, 표준화를 이용해 스케일링한다. 정규화(min-max scailing) 정규화란 데이터 셋의 값들을 0과 1 사이의 범위로 이동하고 재조정하는 스케..

차원이란? 공간 내에 있는 점 등의 위치를 나타내기 위해 필요한 축의 개수 차원의 수 증가 = 변수의 수 증가 = 데이터를 표현하는 공간 증가 3개의 특징을 사용하는 데이터 셋 = 3차원 ex) 키, 몸무게, 발 크기 3개의 특징을 가진 데이터 셋은 3차원의 표현이 필요하다. 차원의 저주 차원의 수가 늘어나 차원이 커지면서 발생하는 문제 학습 데이터 수가 차원의 수보다 작을 경우 성능이 저하 된다. 데이터 수는 그대로인데 차원이 증가하면 빈 공간이 생긴다. -> 데이터 간의 간격이 늘어난다. -> 과적합 발생 ex)2차원 평면인 데이터셋에서 3차원이 되면 데이터의 밀도가 낮아진다. 차원 축소 많은 feature(특징)로 구성된 다차원의 데이터 셋의 차원을 축소시킨다. 이를 통해 새로운 차원의 데이터 셋을..

import numpy as np import matplotlib.pyplot as plt from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras import optimizers x = np.array([-50, -40, -30, -20, -10, -5, 0, 5, 10, 20, 30, 40, 50]) y = np.array([0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1]) # 숫자 10부터 1 model = Sequential() model.add(Dense(1, input_dim=1, activation='sigmoid')) sgd = ..

이번엔 로지스틱 회귀에 대해 공부한다. 로지스틱 회귀는 앞에서 공부한 입력값에 대한 결과 값을 예측하는 단순 선형 회귀와 달리 2가지의 클래스 중 어디에 속하는지 분류하는 이진 분류에 대한 알고리즘이다. 처음에 공부하면서 로지스틱 '회귀'인데 왜 분류하는 알고리즘인지 이해가 안됐다. 로지스틱 회귀는 시그모이드 함수를 0~1 사이의 예측값을 이용해 결과를 분류하는 회귀가 포함된 분류 알고리즘이다. 이번엔 성적에 따라 불/합 여부를 판단하는 문제를 가정하자. 45 : 불 50 : 불 55 : 불 60 : 합 65 : 합 70 : 합 이에 대한 그래프는 다음과 같다. 55점과 60점 사이에서 합격과 불합격이 갈린다. 그 사이의 점수들은 합격일 가능성이 높은 부분과 낮은 부분으로 갈린다. 이 사이의 점수들이 합..

케라스는 텐서플로우보다 쉽게 구현할 수 있다. 텐서플로우는 모델을 직접 하나하나 설정해줘야 하지만 케라스는 메소드가 사용자 친화적으로 개발되어 있어 사용하기엔 편하다. 케라스의 구현 과정은 먼저 Sequential로 모델을 만들고 add로 입력과 출력 벡터와 같은 필요한 정보를 추가해간다. import numpy as np import matplotlib.pyplot as plt from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras import optimizers x = [1,2,3,4,5,6,7,8,9] #공부 시간 y = [11,22,33,44,53,66,7..

텐서플로우로 앞서 설명한 단순 선형 회귀를 구현한다. 케라스로 구현해도 좋지만 텐서플로우 먼저 해봄 먼저 경사 하강법에 필요한 미분을 먼저 구현한다. import tensorflow as tf w = tf.Variable(2.) #변수 w에 2를 넣는다 def f(w): y = w**2 z = 2*y + 5 return z with tf.GradientTape() as tape: z = f(w) gradients = tape.gradient(z,[w]) print(gradients) 방정식 f(w)를 구현한다. 이 방정식은 w의 cost값 변화에 대한 그래프이다. tape.gradient(z,[w])는 타겟(z)에 대한 w의 미분을 계산해주는 메소드이다. y = w**2을 dy = dx*2*w 미분식을 ..

분류와 회귀의 차이 분류는 미리 정의된 여러 클래스 중 하나를 예측하는 것 - 이진분류 : 정상과 비정상 클래스 두개로 분류 - 다중분류 : 예측해야할 클래스가 여러개인 경우 회귀는 기존의 데이터를 바탕으로 입력 변수가 주어진 경우 숫자값을 예측하는 것 - 특정 범위의 무한한 실수들 중에서 대표되는 값을 선택 - 연속된 값들 중 어디에 점을 찍을 수 있는지 예측 https://watchout31337.tistory.com/396 회귀 주어진 독립 변수와 종속 변수 사이의 관계를 학습하여 데이터를 예측하는 알고리즘 둘 이상의 관계(feature들의 관계)를 값들의 연속적인 문제로 찾고자 할 때 사용 ex) 주택의 면적, 주택의 위치, 편의시설 등에 따른 주택의 가격 예측 독립변수 : 주택의 면적, 주택의 ..
- Total
- Today
- Yesterday
- CAN-FD
- 크로스 엔트로피
- 차량용 이더넷
- porks
- many-to-many
- 케라스
- AE
- 로지스틱회귀
- Python
- many-to-one
- AVTP
- AVB
- 딥러닝
- automotive ethernet
- cuckoo
- 이상탐지
- one-to-many
- json2html
- SVM
- 머신러닝
- Ethernet
- 논문 잘 쓰는법
- automotive
- 회귀
- problem statement
- 단순선형회귀
- 차량 네트워크
- HTML
- SOME/IP
- PCA
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |