Uitleg
Chain-of-Thought (CoT) is een prompting-strategie waarbij je een AI-model aanmoedigt zijn redenering stap-voor-stap uit te leggen. In plaats van alleen het uiteindelijke antwoord te geven, schrijft het model elke tussenstap op.
Deze methode verbetert aanzienlijk de nauwkeurigheid van taalmodellen, vooral bij logische en wiskundige problemen. Het blijkt dat modellen beter kunnen redeneren wanneer ze hun denken expliciet uitleggen.
Chain-of-Thought werkt met eenvoudige prompting - je voegt simpelweg "Denk hier stap voor stap over na" toe aan je vraag. Onderzoeken tonen aan dat dit de probleemoplossingsvermogen van AI-modellen kan verdubbelen.
⚡ Voorbeelden
- •In plaats van "Wat is 12 × 15?" te vragen, vraag je "Wat is 12 × 15? Denk stap voor stap" en het model geeft uitleg
- •Bij logische puzzels bereikt CoT prompting tot 70% betere nauwkeurigheid dan standaard prompting
- •Medische diagnose-AI geven beter advies wanneer ze hun redenering (symptomen → mogelijke ziektes → waarschijnlijkheid) uitleggen