1. 손실 함수 손실 함수는 실제값과 예측값 차이를 수치화해주는 함수이다. 차이가 심할수록 손실 함수의 값이 크고 오차가 작을 수록 손실 함수의 값은 작아진다. 회귀에서는 평균 제곱 오차, 분류에서는 크로스 엔트로피를 사용한다. 손실 함수의 값을 최소화하기 위한 가중치와 편향을 찾는것이 딥 러닝의 학습 과정의 주요점이다. 따라서 손실 함수의 값을 잘 선정해야한다. MSE(Mean Squared Error) 평균 제곱 오차는 연속형 변수를 예측할 때 사용한다. model.compile(optimizer='adam', loss='mse', metrics=['mse']) 이진 크로스 엔트로피 출력층에서 시그모이드 함수를 사용하는 이진 분류에서 사용한다. model.compile(loss='binary_cros..
입력층에서 출력층으로 연산을 진행하는 과정을 순전파라고 한다. 단순히 입력데이터가 출력층으로 출력되는 과정이다. 입력층이 3개, 출력층이 2개인 신경망에서 6개의 가중치가 나온다. 이를 행렬곱 관점에서 3차원 벡터에서 2차원 벡터가 되기 위해서 3*2 행렬을 곱했다고 생각하면 된다. y1에 연결되는 그래프는 주황색, y2에 연결되는 그래프는 초록색으로 표현했다. 여기서 편향 b는 생략되는 경우가 많다. 편향의 개수는 출력 차원의 개수와 동일하다. 가중치 6개와 편향의 개수 2개로 학습가능한 매개변수가 8개이다. from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense model = Sequential()..
피드 포워드 신경망(FFNN) 입력층에서 출력층 방향으로 연산이 앞으로 전개되는 신경망을 피드 포워드 신경망이라고한다. RNN은 은닉층의 출력값을 출력으로도 보내지만, 은닉층의 출력값이 다시 은닉층의 입력으로 사용되는 신경망이다. 전결합층(Dense layer) MLP의 은닉층과 출력층의 뉴런은 이전 층의 모든 뉴런과 연결이 되어있는 층을 전결합층이라고 한다. 위 사진 모두 은닉층과 출력층이 이전의 모든 뉴런과 연결되어 있는 전결합층이다. 활성화 함수 은닉층과 출력층의 뉴런에서 출력값을 결정하는 함수를 활성화 함수라고 한다. or, and, nand 게이트의 경우엔 계단 함수를 통해서 출력값을 0이나 1로 결정했다. 활성화 함수의 특징은 비선형 함수여야 한다. 선형 함수는 입력의 상수배만큼 출력값이 변하..
출처 : https://wikidocs.net/24958 01) 퍼셉트론(Perceptron) 인공 신경망은 수많은 머신 러닝 방법 중 하나입니다. 하지만 최근 인공 신경망을 복잡하게 쌓아 올린 딥 러닝이 다른 머신 러닝 방법들을 뛰어넘는 성능을 보여주는 사례가 늘면 ... wikidocs.net 딥러닝이랑 머신러닝은 차이가 있다. 딥러닝은 인공 신경망을 복잡하게 쌓아 올린 방법으로 머신러닝보다 뛰어난 성능을 보여준다. 먼저 초기의 인공 신경망인 퍼셉트론을 이해해야한다. 퍼셉트론(perceptron)은다수의 입력으로부터 하나의 결과를 내보내는 알고리즘이다. x는 입력값을 의미하며, w는 가중치, y는 출력값을 의미한다. 원은 인공 뉴런에 해당된다. 가중치는 신호를 전달하는 역할이다. 가중치의 값이 클수록..
- Total
- Today
- Yesterday
- porks
- 크로스 엔트로피
- HTML
- AE
- Ethernet
- AVB
- many-to-many
- Python
- 단순선형회귀
- many-to-one
- 회귀
- 케라스
- 로지스틱회귀
- json2html
- SOME/IP
- 차량용 이더넷
- 머신러닝
- PCA
- SVM
- 이상탐지
- 딥러닝
- one-to-many
- problem statement
- AVTP
- automotive ethernet
- 차량 네트워크
- automotive
- 논문 잘 쓰는법
- CAN-FD
- cuckoo
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 |