ex) 훈련 세트로부터 무작위로 각기 다른 서브셋을 만들어 일련의 결정 트리 분류기를 훈련시킬 수 있음 ⇒ 랜덤 포레스트
각각의 약한 학습기(weak learner, 랜덤 추출보다 조금 더 높은 성능을 내는 분류기)일지라도 충분히 많고 다양하게 결합하여 강한 학습기(strong learner, 높은 정확도)로 발전할 수 있음
⇒ 큰 수의 법칙

각 분류기의 예측을 모아서 가장 많이 선택된 클래스로 최종 예측하는 방식
가정) 모든 분류기가 완벽하게 독립적이고 오차에 상관관계가 없다.
→ 앙상블은 예측기가 가능한 한 서로 독립적일 때 최고 성능 발휘
직접 투표 분류기(hard voting): 다수결 투표

간접 투표 분류기(soft voting)

sklearn.BaggingClassifier, sklearn.BaggingRegressor 를 통해 구현 가능앙상블은 비슷한 편향에서 더 작은 분산을 만듦
(훈련 세트의 오차 수가 거의 비슷하지만 결정 경계는 덜 불규칙함)

BaggingClassifier는 기본적으로 중복을 허용하여 훈련 세트 크기만큼 m개 샘플을 선택
(bootstrap=True)