Uitleg
Random Forest is een krachtige ensemble-leermethod die veel decision trees combineert en hun voorspellingen aggregeert. In plaats van één decision tree te vertrouwen (die gevoelig is voor overfitting), traint het algoritme veel verschillende bomen op willekeurige subsets van data en features.
Voor classificatie stemt elke boom en de meerderheid wint. Voor regressie worden alle voorspellingen gemiddeld. Deze benadering leidt tot betere generalisatie en lagere overfitting. Random forests zijn ook robuust tegen uitschieters en werken goed met veel features.
Random forests zijn wijd gebruikt in praktische toepassingen omdat ze goed presteren zonder veel hyperparameter-tuning. Ze bieden ook feature importance-scores die aantonen welke features het belangrijkst zijn.
⚡ Voorbeelden
- •Kaggle-competities gebruik random forests vaak vanwege hun sterke prestaties
- •Banken gebruiken random forests voor klantenverloop-voorspelling (wie gaat weggaan?)
- •Medische onderzoeken gebruiken random forests voor ziektediagnose met hoge nauwkeurigheid