Ensemble-learning

Een techniek die veel modellen combineert om betere voorspellingen te maken dan elk model afzonderlijk.

Uitleg

Ensemble-learning combineert voorspellingen van meerdere modellen om sterke prestaties te bereiken. Het principe is dat een groep van verschillende modellen samen betere beslissingen neemt dan één model. Dit is vergelijkbaar met hoe een groep experts beter advies geeft dan één persoon.

Er zijn verschillende ensemble-strategieën: voting (stem), averaging (gemiddeld), stacking (trek modellen op elkaar), en bagging/boosting (traineer multiple modellen op data-subsets). Random forests, gradient boosting, en XGBoost zijn populaire ensemble-methoden.

Ensemble-methoden winnen regelmatig machine learning-competities omdat ze zeer nauwkeurig zijn. Het nadeel is dat ze rekenintensief kunnen zijn en minder interpreteerbaar zijn dan enkele modellen.

Voorbeelden

  • Kaggle-winnaars gebruiken ensemble-methoden die tientallen modellen combineren
  • Banksystemen gebruiken ensembles van modellen voor kredietbeslissingen om risico te minimaliseren
  • Streamingdiensten gebruiken ensemble-aanbevelingen van meerdere algoritmen

Trefwoorden

model-combinatievotingaveragingsynergie

Gerelateerde termen

Gerelateerde begrippen

Random Forest, Boosting, Bagging

Over deze term

Wat is Ensemble-learning?

Een techniek die veel modellen combineert om betere voorspellingen te maken dan elk model afzonderlijk.