
$$
f(\sum_{i}w_ix_i+b)
$$
$w_i$는 가중치, $x_i$는 input variable. output은 다음 neuron의 x값이 된다.

Activation function (step function) : 0 이상이면 1, 0 이하이면 0을 출력

- ($x_i,y_i$)로 이루어진 Set $D$가 있다고 하자.
- weight vector를 random value로 초기화한다.
- 각 ($x_i,y_i$)으로부터 기댓값 $\hat{y_i}^{k}$를 계산하라.
- 각 i단계의 weight $w_i$에 대해서
- $w_i^{k+1}=w_i^{k}+\lambda(y_i-\hat{y_i}^{k})x_{ij}$
- $x_{ij}$는 weight j에 대응되는 input 값 x의 feature. x[0][1], x[0][2] 같은거.
- 원래 k번째 레이어 weight에서 Learning rateError값input값 만큼 더해서 업데이트한다.
- stopping condition이 충족되면 멈춰라.

만약에 예측이 정확하면 ($y_i-\hat{y_i}^{k}==0)$ weight의 변화 x
만약에 예측이 틀렸으면
- 예측값이 1만큼 작으면 ($y_i-\hat{y_i}^{k}=1)$ : 1만큼 더해주자
- 예측값이 1만큼 작으면 ($y_i-\hat{y_i}^{k}=-1)$ : 1만큼 빼주자
Learning rate $\lambda$ : 0과 1사이의 값. 0에 가까울 수록 둔감하고 1에 가까울 수록 예민함