Régurgitation


Dans le domaine de l’IA générative, la régurgitation est la situation dans laquelle un modèle génère des données très proches de ses données d’entraînement, de manière attendue (lorsque le modèle d’IA est conçu à cette fin),  inattendue ou suite à une attaque (on parle alors d’attaque en régurgitation).