BERT

Bidirectional Encoder Representations from Transformers - een veel gebruikt taalmodel voor textclassificatie en begrip.

Uitleg

BERT is een revolutionair taalmodel dat in 2018 door Google werd gepubliceerd. Het verschilt van eerdere modellen door bidirectioneel contextueel begrip: het bekijkt woorden vanuit zowel linkse als rechtse context.

BERT was een doorbraak omdat het transfer learning toepaste op NLP. Pre-getraind op grote hoeveelheden tekst, kon BERT vervolgens fine-tuned worden voor specifieke taken met veel minder data dan vorheen nodig.

Hoewel modernere transformers zoals GPT-4 BERT hebben overtroffen, blijft BERT waardevol vanwege zijn efficiëntie en sterke prestaties bij klassieke NLP-taken als sentimentanalyse, tekstclassificatie en named entity recognition.

Voorbeelden

  • BERT-gebaseerde modellen domineren Kaggle-competities voor tekstclassificatie
  • Google gebruikte BERT intern om zoekopdrachten beter te begrijpen
  • RoBERTa en andere BERT-varianten zijn nog steeds de standaard voor veel bedrijfstoepassingen vanwege hun efficiëntie

Trefwoorden

transformerpre-trained-modelnlp-architectuurGoogle

Gerelateerde termen

Gerelateerde begrippen

Transfer Learning, Transformer, Taalmodel

Over deze term

Wat is BERT?

Bidirectional Encoder Representations from Transformers - een veel gebruikt taalmodel voor textclassificatie en begrip.