Glossaire
Selectionnez une lettre
Apprentissage par renforcement
L’apprentissage par renforcement est un procédé d’apprentissage automatique consistant, pour un système autonome, à apprendre les actions à réaliser, à partir d'expériences, de façon à optimiser une récompense quantitative au cours du temps.
Le système est plongé au sein d'un environnement, et…
Apprentissage par renforcement
L’apprentissage par renforcement est un procédé d’apprentissage automatique consistant, pour un…
Apprentissage profond (deep learning)
L’apprentissage profond est un procédé d’apprentissage automatique utilisant des réseaux de neurones possédants plusieurs couches de neurones cachées. Ces algorithmes possédant de très nombreux paramètres, ils demandent un nombre très important de données afin d’être entraînés.
Apprentissage profond (deep learning)
L’apprentissage profond est un procédé d’apprentissage automatique utilisant des réseaux de…
Apprentissage supervisé
L’apprentissage supervisé est un procédé d’apprentissage automatique dans lequel l’algorithme s’entraîne à une tâche déterminée en utilisant un jeu de données assorties chacune d’une annotation indiquant le résultat attendu.
Apprentissage supervisé
L’apprentissage supervisé est un procédé d’apprentissage automatique dans lequel l’algorithme s…
Attaque par empoisonnement (data poisoning attack)
Les attaques par empoisonnement visent à modifier le comportement du système d’IA en introduisant des données corrompues en phase d’entraînement (ou d’apprentissage). Elles supposent que l’attaquant soit en mesures de soumettre des données à utiliser lors de l’entraînement du système d’IA.
Attaque par empoisonnement (data poisoning attack)
Les attaques par empoisonnement visent à modifier le comportement du système d’IA en introduisant…
Attaque par exemples contradictoires (adversarial examples attack)
Les attaques par exemples contradictoires visent à soumettre des entrées malicieuses ou corrompues au système d’IA en phase de production.
Exemple : une image qui aurait été modifiée de façon à tromper un classifieur d’image et ainsi attribuer à une image de panda, l’étiquette de singe.
Ces…
Attaque par exemples contradictoires (adversarial examples attack)
Les attaques par exemples contradictoires visent à soumettre des entrées malicieuses ou corrompues…
Attaque par exfiltration de modèle (model evasion attack)
Les attaques par exfiltration de modèle visent à permettre le vol d’un modèle d’IA et/ou de ses paramètres et hyperparamètres. Le modèle constitue un actif de grande valeur pour un système d’IA.
Attaque par exfiltration de modèle (model evasion attack)
Les attaques par exfiltration de modèle visent à permettre le vol d’un modèle d’IA et/ou de ses…