BERT is een geavanceerd taalmodel voor natuurlijke-taalverwerking dat is ontwikkeld door Google. Het maakt gebruik van de Transformer-architectuur en is vooraf getraind op grote hoeveelheden tekst om taalbegrip te leren. BERT kan gemakkelijk worden aangepast aan verschillende taken, zoals tekstclassificatie, vraag-antwoord-systemen en named entity recognition, door het model verder te trainen op taakspecifieke gegevens.