Adversarial examples zijn doelbewust gemanipuleerde invoergegevens die zijn ontworpen om een AI-model te misleiden en onjuiste voorspellingen of classificaties te veroorzaken. Ze benadrukken de kwetsbaarheden van machine learning-modellen en het belang van robuustheid en beveiliging.