Uitleg
Gedurende één epoch ziet het model elk trainingsvoorbeeld precies één keer. Na één epoch past het model zijn parameters aan op basis van alle voorbeelden.
Typisch moeten modellen meerdere epochs trainen: het model ziet dezelfde data herhaaldelijk, maar leert steeds beter omdat parameters worden aangepast na elk voorbeeld of batch.
Hoe veel epochs moet je trainen? Te weinig epochs = underfitting (niet genoeg leren), te veel = overfitting (ruis leren). Dit is waarom early stopping nuttig is: stop training als validatiefouten beginnen stijgen.
⚡ Voorbeelden
- •Een dataset met 10.000 voorbeelden: 1 epoch = 10.000 voorbeelden verwerkt
- •Je traint 100 epochs: elke trainingsdata wordt 100 keer gezien
- •Early stopping stopt training na 50 epochs als validatiefouten niet meer verbeteren