Uitleg
Ensemble-learning combineert voorspellingen van meerdere modellen om sterke prestaties te bereiken. Het principe is dat een groep van verschillende modellen samen betere beslissingen neemt dan één model. Dit is vergelijkbaar met hoe een groep experts beter advies geeft dan één persoon.
Er zijn verschillende ensemble-strategieën: voting (stem), averaging (gemiddeld), stacking (trek modellen op elkaar), en bagging/boosting (traineer multiple modellen op data-subsets). Random forests, gradient boosting, en XGBoost zijn populaire ensemble-methoden.
Ensemble-methoden winnen regelmatig machine learning-competities omdat ze zeer nauwkeurig zijn. Het nadeel is dat ze rekenintensief kunnen zijn en minder interpreteerbaar zijn dan enkele modellen.
⚡ Voorbeelden
- •Kaggle-winnaars gebruiken ensemble-methoden die tientallen modellen combineren
- •Banksystemen gebruiken ensembles van modellen voor kredietbeslissingen om risico te minimaliseren
- •Streamingdiensten gebruiken ensemble-aanbevelingen van meerdere algoritmen