출처 : https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6513795 https://www.star-cooperation.com/assets/uploads/dateien/media-center/veroeffentlichungen/whitepaper-automotive-ethernet-en-star-cooperation.pdf Automotive Ethernet: In-vehicle networking and smart mobility This paper discusses novel communication network topologies and components and describes an evolutionary path of bringing ..
출처 : https://scholar.google.co.kr/citations?view_op=view_citation&hl=en&user=329wHz0AAAAJ&cstart=20&pagesize=80&sortby=pubdate&citation_for_view=329wHz0AAAAJ:J-ba04ztB30C 1.서론 모든 차량에 대해 차량사이버보안관리체계(CSMS)가 필요하다. 수출용 차량에 이를 충족하기 위해 보안의 3대 프로세스 Prevention, Detection, Response가 있어야한다. Prevention은 차량용 Firewall, HSM(Hardware Security Module), 시큐어 코딩을 통해 달성할 수 있다. Detection은 차량용 IDS, 차량보안관제센터(VSOC)를 통해..
출처 : https://reader.elsevier.com/reader/sd/pii/S0167404820304235?token=99B22C4E7DFA4AFA4158B4DABD52B6513DAA469AE642A15452EDDD590DF9415C9BD72DBDC3243B0784FDEE4688BE20BD&originRegion=us-east-1&originCreation=20230206032810 Cybersecurity for autonomous vehicles: Review of attacks and defense As technology has evolved, cities have become increasingly smart. Smart mobility is a crucial element in sma..
fm 내에서는 크게 ST, AML, AMR, AMC, CM, DM, DL(WBL), DR(WBR), DC, GK 10개의 포지션으로 나뉜다. 그리고 각 포지션 마다 중요한 스탯이 있다. 스트라이커의 경우 순간속도(ACC),결정력(finish) 등이 있고 수비수의 경우 태클(tackling), 판단력(decision) 등이 있다. 월드 클래스 반열에 오른 선수들은 주요 능력치가 만점(20)에 가까운 점수를 가지고 있고 어느정도 유명한(CA 130점 이상) 선수들도 꽤나 높은 능력치를 가지고 있다. 유명한 선수들을 포지션별로 머신러닝으로 능력치들을 학습시킨다. 그 중 앞서 언급한 중요한 스탯은 가중치를 더하여 학습한다. 그 후 18~20살의 유망주 선수들을 테스트 셋으로 어느 포지션에 가까울지 다중분류한다...
https://dacon.io/forum/406086 [BASIC, TIP] 피처 스케일링이란? 정규화 vs 표준화? dacon.io 머신러닝에서 높은 정확도를 위해 필수적으로 거치는 단계는 스케일링이다. 스케일링은 데이터 셋의 단위가 압도적으로 차이가 나(어떤건 1000, 다른건 0.1) 구분이 어려운 경우에 단위를 비슷하게 재조정하는 과정이다. 그런데 알고리즘마다 표준화를 사용한다, 정규화를 사용한다, 스케일링한다. 다르게 표현한다. 세개가 어떻게 다른지 알아본다. 먼저 스케일링이란 통상적으로 단위를 조정할 때 쓰이는 말이다. 정규화를 이용해 스케일링한다, 표준화를 이용해 스케일링한다. 정규화(min-max scailing) 정규화란 데이터 셋의 값들을 0과 1 사이의 범위로 이동하고 재조정하는 스케..
차원이란? 공간 내에 있는 점 등의 위치를 나타내기 위해 필요한 축의 개수 차원의 수 증가 = 변수의 수 증가 = 데이터를 표현하는 공간 증가 3개의 특징을 사용하는 데이터 셋 = 3차원 ex) 키, 몸무게, 발 크기 3개의 특징을 가진 데이터 셋은 3차원의 표현이 필요하다. 차원의 저주 차원의 수가 늘어나 차원이 커지면서 발생하는 문제 학습 데이터 수가 차원의 수보다 작을 경우 성능이 저하 된다. 데이터 수는 그대로인데 차원이 증가하면 빈 공간이 생긴다. -> 데이터 간의 간격이 늘어난다. -> 과적합 발생 ex)2차원 평면인 데이터셋에서 3차원이 되면 데이터의 밀도가 낮아진다. 차원 축소 많은 feature(특징)로 구성된 다차원의 데이터 셋의 차원을 축소시킨다. 이를 통해 새로운 차원의 데이터 셋을..
import numpy as np import matplotlib.pyplot as plt from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras import optimizers x = np.array([-50, -40, -30, -20, -10, -5, 0, 5, 10, 20, 30, 40, 50]) y = np.array([0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1]) # 숫자 10부터 1 model = Sequential() model.add(Dense(1, input_dim=1, activation='sigmoid')) sgd = ..
이번엔 로지스틱 회귀에 대해 공부한다. 로지스틱 회귀는 앞에서 공부한 입력값에 대한 결과 값을 예측하는 단순 선형 회귀와 달리 2가지의 클래스 중 어디에 속하는지 분류하는 이진 분류에 대한 알고리즘이다. 처음에 공부하면서 로지스틱 '회귀'인데 왜 분류하는 알고리즘인지 이해가 안됐다. 로지스틱 회귀는 시그모이드 함수를 0~1 사이의 예측값을 이용해 결과를 분류하는 회귀가 포함된 분류 알고리즘이다. 이번엔 성적에 따라 불/합 여부를 판단하는 문제를 가정하자. 45 : 불 50 : 불 55 : 불 60 : 합 65 : 합 70 : 합 이에 대한 그래프는 다음과 같다. 55점과 60점 사이에서 합격과 불합격이 갈린다. 그 사이의 점수들은 합격일 가능성이 높은 부분과 낮은 부분으로 갈린다. 이 사이의 점수들이 합..
케라스는 텐서플로우보다 쉽게 구현할 수 있다. 텐서플로우는 모델을 직접 하나하나 설정해줘야 하지만 케라스는 메소드가 사용자 친화적으로 개발되어 있어 사용하기엔 편하다. 케라스의 구현 과정은 먼저 Sequential로 모델을 만들고 add로 입력과 출력 벡터와 같은 필요한 정보를 추가해간다. import numpy as np import matplotlib.pyplot as plt from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras import optimizers x = [1,2,3,4,5,6,7,8,9] #공부 시간 y = [11,22,33,44,53,66,7..
- Total
- Today
- Yesterday
- many-to-many
- 로지스틱회귀
- 이상탐지
- SVM
- SOME/IP
- HTML
- 회귀
- CAN-FD
- automotive ethernet
- many-to-one
- Python
- 머신러닝
- problem statement
- cuckoo
- 차량 네트워크
- 단순선형회귀
- 논문 잘 쓰는법
- Ethernet
- AVB
- 차량용 이더넷
- one-to-many
- PCA
- AVTP
- porks
- 크로스 엔트로피
- json2html
- automotive
- AE
- 케라스
- 딥러닝
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |