배깅 : boostrap sample을 여러개 만들어서 병렬적으로 수행 후 합치는거
부스팅 : weak classifier를 여러개 이어서 sequential하게 점점 업그레이드 해나가나는거
랜덤 포레스트 : 배깅을 기본에 base model을 decision tree로 만든다.
앙상블 : 가능하면 서로 독립적일 수록 성능이 좋다
→ Tree의 모양이 다를수록 성능이 좋다
→ random하게 attribute를 골라서 splitting condition이 달라지게 만들어서 여러 다른 모양의 Tree를 만든다