Chain-of-Thought

Prompting-techniek die AI-modellen aanmoedigt hun denken stap-voor-stap uit te leggen voor betere resultaten.

Uitleg

Chain-of-Thought (CoT) is een prompting-strategie waarbij je een AI-model aanmoedigt zijn redenering stap-voor-stap uit te leggen. In plaats van alleen het uiteindelijke antwoord te geven, schrijft het model elke tussenstap op.

Deze methode verbetert aanzienlijk de nauwkeurigheid van taalmodellen, vooral bij logische en wiskundige problemen. Het blijkt dat modellen beter kunnen redeneren wanneer ze hun denken expliciet uitleggen.

Chain-of-Thought werkt met eenvoudige prompting - je voegt simpelweg "Denk hier stap voor stap over na" toe aan je vraag. Onderzoeken tonen aan dat dit de probleemoplossingsvermogen van AI-modellen kan verdubbelen.

Voorbeelden

  • In plaats van "Wat is 12 × 15?" te vragen, vraag je "Wat is 12 × 15? Denk stap voor stap" en het model geeft uitleg
  • Bij logische puzzels bereikt CoT prompting tot 70% betere nauwkeurigheid dan standaard prompting
  • Medische diagnose-AI geven beter advies wanneer ze hun redenering (symptomen → mogelijke ziektes → waarschijnlijkheid) uitleggen

Trefwoorden

prompting-strategiereasoningexplainabilitynlp-technique

Gerelateerde termen

Gerelateerde begrippen

Few-Shot Learning, Prompt Engineering

Over deze term

Wat is Chain-of-Thought?

Prompting-techniek die AI-modellen aanmoedigt hun denken stap-voor-stap uit te leggen voor betere resultaten.