Uitleg
Het context window (ook wel contextvenster) is een van de belangrijkste technische eigenschappen van een taalmodel. Het bepaalt hoeveel informatie het model tegelijk kan "onthouden" en verwerken. Hoe groter het context window, hoe meer tekst het model in één keer kan meenemen.
Context windows worden gemeten in tokens (ruwweg driekwart woord per token). Vroege modellen hadden context windows van enkele duizenden tokens, maar moderne modellen gaan veel verder: Claude heeft een context window van 200.000 tokens (circa 150.000 woorden), terwijl Gemini zelfs tot 1 miljoen tokens kan verwerken.
Een groter context window maakt het mogelijk om hele boeken, codebases of lange gesprekken te analyseren. Het is cruciaal voor taken als het samenvatten van lange documenten, het werken met grote codebases en het voeren van uitgebreide gesprekken zonder dat het model eerdere context "vergeet".
⚡ Voorbeelden
- •Claude kan met 200.000 tokens een heel boek in één keer analyseren en samenvatten
- •Een klein context window betekent dat het model lange gesprekken op een gegeven moment begint te "vergeten"
- •Gemini's 1 miljoen token context window maakt het mogelijk om uren aan video te verwerken