Untitled

$$ f(\sum_{i}w_ix_i+b) $$

$w_i$는 가중치, $x_i$는 input variable. output은 다음 neuron의 x값이 된다.

Untitled

Activation function (step function) : 0 이상이면 1, 0 이하이면 0을 출력

Untitled

  1. ($x_i,y_i$)로 이루어진 Set $D$가 있다고 하자.
  2. weight vector를 random value로 초기화한다.
  3. 각 ($x_i,y_i$)으로부터 기댓값 $\hat{y_i}^{k}$를 계산하라.
    1. 각 i단계의 weight $w_i$에 대해서
    2. $w_i^{k+1}=w_i^{k}+\lambda(y_i-\hat{y_i}^{k})x_{ij}$
    3. $x_{ij}$는 weight j에 대응되는 input 값 x의 feature. x[0][1], x[0][2] 같은거.
    4. 원래 k번째 레이어 weight에서 Learning rateError값input값 만큼 더해서 업데이트한다.
  4. stopping condition이 충족되면 멈춰라.

Untitled

만약에 예측이 정확하면 ($y_i-\hat{y_i}^{k}==0)$ weight의 변화 x

만약에 예측이 틀렸으면

Learning rate $\lambda$ : 0과 1사이의 값. 0에 가까울 수록 둔감하고 1에 가까울 수록 예민함