Uitleg
Hallucinatie in AI verwijst naar het fenomeen waarbij taalmodellen verzonnen informatie genereren die overtuigend lijkt maar helemaal niet waar is. Het model ziet er zeker van uit en presenteert verzonnenheden als feiten.
Dit gebeurt omdat taalmodellen statistische patronen leren maar geen werkelijke kennis hebben. Ze voorspellen woorden die waarschijnlijk volgen gegeven voorgaande context, zonder te verifiëren of de informatie klopt.
Hallucinatie is een groot probleem voor bedrijfstoepassingen. Technieken om dit tegen te gaan zijn onder andere grounding met feiten (RAG), fact-checking, temperatuur-verlaging en expliciete instructies om onzekerheid uit te drukken wanneer het model niet zeker is.
⚡ Voorbeelden
- •ChatGPT genereert verzonnen papercitaties die klinken als echt maar niet bestaan
- •Een AI-model inventeert feiten over het weer van vorige maand omdat het geen toegang heeft tot actuele data
- •Taalmodellen genereren vaak "gefabriceerde bronnen" in juridische onderzoeken, wat kan leiden tot ernstige fouten