glossaire complet des termes et abréviations courants liés à l’Intelligence Artificielle (IA) :
Glossaire des Termes et Abréviations de l’Intelligence Artificielle (IA)

A

  • Activation Function (Fonction d’Activation): Fonction mathématique appliquée à la sortie d’un neurone dans un réseau de neurones pour introduire de la non-linéarité, permettant au réseau d’apprendre des motifs complexes. Exemples : ReLU, Sigmoïde, Tanh.
  • Agent: Dans l’apprentissage par renforcement, une entité qui interagit avec un environnement, prend des décisions et exécute des actions.
  • AI (Artificial Intelligence – Intelligence Artificielle): Le champ d’étude et de développement de systèmes informatiques capables d’effectuer des tâches qui nécessitent normalement l’intelligence humaine, telles1 que l’apprentissage, la résolution de problèmes, la perception et la compréhension du langage.
  • Algorithm (Algorithme): Un ensemble de règles ou d’instructions étape par étape conçues pour résoudre un problème ou effectuer une tâche spécifique. En IA, un algorithme est souvent utilisé pour apprendre des données.
  • ANN (Artificial Neural Network – Réseau de Neurones Artificiels): Modèle de calcul inspiré par la structure et le fonctionnement du cerveau humain, composé de neurones interconnectés organisés en couches.
  • Anomaly Detection (Détection d’Anomalies): Processus d’identification des événements ou des données qui ne correspondent pas à un comportement attendu ou normal.
  • API (Application Programming Interface): Un ensemble de définitions et de protocoles qui permet à différentes applications logicielles de communiquer entre elles. Souvent utilisées pour intégrer des modèles d’IA dans des systèmes existants.
  • Attention Mechanism (Mécanisme d’Attention): Technique utilisée principalement dans les réseaux de neurones (notamment les Transformers) pour permettre au modèle de “peser” l’importance de différentes parties de l’entrée lors de la production d’une sortie.Autoencoder (Autoencodeur): Type de réseau de neurones non supervisé conçu pour apprendre des représentations efficaces (encodages) des données d’entrée en les compressant dans une dimension inférieure puis en les reconstruisant.
  • Adversarial Attack (Attaque Adversaire): Technique visant à tromper un modèle d’apprentissage automatique en lui fournissant des données d’entrée délibérément modifiées (souvent de manière imperceptible pour un humain) afin de provoquer une prédiction incorrecte.
  • Accuracy (Exactitude): Une métrique de performance pour les modèles de classification, qui mesure la proportion de prédictions correctes sur l’ensemble des prédictions effectuées.

B

  • Backpropagation (Rétropropagation): Algorithme fondamental utilisé pour entraîner les réseaux de neurones en calculant le gradient de la fonction de perte par rapport aux poids du réseau, permettant ainsi d’ajuster les poids pour minimiser la perte.
  • Bias (Biais):Dans les données/modèles: Une erreur systématique ou une préférence dans les données d’entraînement ou le modèle lui-même, pouvant conduire à des prédictions injustes ou incorrectes.
    Dans les réseaux de neurones: Un paramètre ajustable ajouté à la somme pondérée des entrées d’un neurone, permettant au neurone d’activer même si toutes les entrées sont nulles.
  • Big Data: Volumes de données si vastes et complexes qu’ils dépassent les capacités des outils traditionnels de traitement de données, nécessitant des techniques et des technologies spécifiques pour leur analyse.
  • Black Box (Boîte Noire): Terme utilisé pour décrire un modèle d’IA dont le fonctionnement interne est difficile ou impossible à comprendre pour les humains, rendant difficile l’explication de ses décisions.
  • Bot (Robot Logiciel): Programme informatique conçu pour effectuer des tâches répétitives de manière automatisée, souvent en imitant le comportement humain.
    Bytes (Octets): Unité de stockage de données informatiques.
  • Batch Normalization (Normalisation par Lots): Technique utilisée dans les réseaux de neurones profonds qui normalise les entrées d’une couche pour stabiliser et accélérer le processus d’entraînement.
  • BERT (Bidirectional Encoder Representations from Transformers): Un modèle de traitement du langage naturel (NLP) développé par Google. Il a révolutionné le domaine en apprenant le contexte d’un mot en se basant sur tous les autres mots d’une phrase (bidirectionnalité), plutôt que de manière séquentielle.
  • Bayesian Inference (Inférence Bayésienne): Une méthode statistique basée sur le théorème de Bayes, utilisée pour mettre à jour la probabilité d’une hypothèse à mesure que de nouvelles données deviennent disponibles. En IA, elle est utilisée pour la modélisation de l’incertitude.

C

  • Chatbot: Programme informatique conçu pour simuler une conversation humaine, généralement via du texte ou de la voix, permettant une interaction automatisée avec les utilisateurs.
  • Classification: Tâche d’apprentissage automatique où le modèle apprend à assigner des étiquettes de catégorie à de nouvelles données (ex: classer un e-mail comme “spam” ou “non-spam”).
  • Clustering (Regroupement): Tâche d’apprentissage automatique non supervisée qui consiste à regrouper des points de données similaires en clusters ou groupes, sans étiquettes prédéfinies.
  • CNN (Convolutional Neural Network – Réseau de Neurones Convolutifs): Type de réseau de neurones profondément efficace pour le traitement d’images et d’autres données structurées, utilisant des couches de convolution.
  • Computer Vision (Vision par Ordinateur): Domaine de l’IA qui permet aux ordinateurs de “voir”, d’interpréter et de comprendre le contenu d’images et de vidéos.
  • Confusion Matrix (Matrice de Confusion): Tableau utilisé pour évaluer la performance d’un modèle de classification, affichant le nombre de vrais positifs, faux positifs, vrais négatifs et faux négatifs.
  • CRISP-DM (Cross Industry Standard Process for Data Mining): Méthodologie standard de gestion de projet pour les projets de fouille de données (data mining) et d’apprentissage automatique.
  • Cross-Validation (Validation Croisée): Une technique de rééchantillonnage utilisée pour évaluer la performance d’un modèle d’apprentissage automatique et s’assurer de sa capacité à généraliser sur des données inconnues. La méthode la plus courante est la k-fold cross-validation, où les données sont divisées en k sous-ensembles.

D

  • Data Augmentation (Augmentation des Données): Techniques utilisées pour augmenter la quantité et la diversité des données d’entraînement en créant de nouvelles données à partir des données existantes (ex: rotations d’images, synonymes de texte).
  • Data Mining (Fouille de Données): Processus de découverte de motifs, de tendances et de connaissances utiles à partir de grands ensembles de données.
  • Data Scientist: Professionnel qui utilise des compétences en statistiques, informatique et expertise métier pour extraire des informations et des connaissances à partir des données.
  • Dataset (Jeu de Données): Collection de données structurées ou non structurées utilisées pour entraîner, valider ou tester un modèle d’IA.
  • Deep Learning (DL – Apprentissage Profond): Sous-domaine de l’apprentissage automatique qui utilise des réseaux de neurones artificiels avec de nombreuses couches (profondes) pour apprendre des représentations complexes à partir de grandes quantités de données.
  • Dimensionality Reduction (Réduction de Dimensionnalité): Techniques pour réduire le nombre de variables aléatoires (dimensions) considérées dans un problème, tout en conservant autant d’informations pertinentes que possible.
  • DQN (Deep Q-Network): Algorithme d’apprentissage par renforcement qui combine le Q-Learning avec les réseaux de neurones profonds.
  • Dropout: Technique de régularisation utilisée dans les réseaux de neurones pour prévenir le surapprentissage en désactivant aléatoirement un certain pourcentage de neurones lors de l’entraînement.
  • Data Preprocessing (Prétraitement des Données): L’ensemble des étapes de nettoyage, de transformation et de mise en forme des données brutes avant de les utiliser pour entraîner un modèle. Cela inclut la gestion des valeurs manquantes, la normalisation, l’encodage, etc.
  • Decision Tree (Arbre de Décision): Un modèle d’apprentissage automatique supervisé qui utilise une structure arborescente pour prendre des décisions. Chaque nœud interne représente un test sur un attribut, chaque branche représente le résultat du test et chaque feuille représente une étiquette de classe.
  • Diffusion Models (Modèles de Diffusion): Une classe de modèles génératifs, particulièrement puissants pour la génération d’images, qui créent des données en inversant progressivement un processus de « bruitage ». Ils partent d’un bruit aléatoire et le raffinent pas à pas pour produire une image ou un autre artefact de haute qualité.

E

  • Early Stopping: Technique de régularisation utilisée pendant l’entraînement des modèles d’IA, où l’entraînement est arrêté lorsque la performance du modèle sur un ensemble de validation cesse de s’améliorer ou commence à se dégrader.
  • Embeddings: Représentations vectorielles denses de mots, d’images ou d’autres entités, où la similarité sémantique ou structurelle est encodée par la proximité des vecteurs dans l’espace.
  • Epoch (Époque): Une passe complète de l’ensemble du jeu de données d’entraînement à travers le modèle d’apprentissage.
  • Explainable AI (XAI – IA Explicable): Domaine de l’IA qui vise à développer des modèles dont les décisions peuvent être comprises et interprétées par les humains, plutôt que d’être des “boîtes noires”.
  • Ensemble Learning (Apprentissage d’Ensemble): Une méthode d’apprentissage automatique où plusieurs modèles (souvent appelés « apprenants faibles ») sont entraînés pour résoudre le même problème et leurs prédictions sont combinées pour obtenir une meilleure performance et une plus grande robustesse que n’importe quel modèle individuel. Exemples : Random Forest, Gradient Boosting.

F

  • Feature Engineering (Ingénierie des Fonctionnalités): Processus de création de nouvelles fonctionnalités (variables) à partir de données brutes, afin d’améliorer la performance d’un modèle d’apprentissage automatique.
  • Feature (Fonctionnalité / Caractéristique): Une variable d’entrée ou un attribut dans un jeu de données qui est utilisé par un modèle pour faire une prédiction.
  • Federated Learning (Apprentissage Fédéré): Approche d’apprentissage automatique qui permet d’entraîner des modèles sur des ensembles de données distribués et décentralisés sans que les données brutes ne quittent leur source d’origine.
  • Fine-tuning (Réglage Fin): Processus d’adaptation d’un modèle d’IA pré-entraîné (généralement un modèle de Deep Learning) à une nouvelle tâche ou à un nouveau jeu de données spécifique, en ajustant ses poids avec un petit ensemble de données spécifique.
  • Fuzzy Logic (Logique Floue): Une extension de la logique booléenne qui permet d’exprimer des valeurs de vérité partielles (entre 0 et 1), plutôt que des valeurs binaires strictes (vrai/faux).

G

  • GAN (Generative Adversarial Network – Réseau Génératif Antagoniste): Type de réseau de neurones où deux réseaux (un générateur et un discriminateur) sont entraînés simultanément et s’affrontent, l’un générant des données, l’autre tentant de distinguer les données réelles des données générées.
  • General AI (AGI – Artificial General Intelligence – IA Générale): Forme d’IA hypothétique qui posséderait l’intelligence humaine et la capacité de comprendre, d’apprendre et d’appliquer l’intelligence à un large éventail de problèmes, contrairement à l’IA spécialisée.
  • Generative AI (IA Générative): Catégorie de modèles d’IA capables de générer de nouvelles données qui ressemblent aux données sur lesquelles ils ont été entraînés (texte, images, audio, etc.).
  • Gradient Descent (Descente de Gradient): Algorithme d’optimisation utilisé pour minimiser une fonction de coût en ajustant itérativement les paramètres du modèle dans la direction du gradient négatif. 
  • GPT (Generative Pre-trained Transformer): Une famille de grands modèles de langage (LLM) développés par OpenAI, basés sur l’architecture Transformer. Ces modèles sont pré-entraînés sur de vastes corpus de texte et peuvent être affinés pour une grande variété de tâches de traitement du langage naturel.
  • Gradient Boosting: Une technique d’apprentissage d’ensemble (Ensemble Learning) où de nouveaux modèles sont ajoutés séquentiellement pour corriger les erreurs des modèles précédents, créant ainsi un modèle final très performant.

H

  • Hallucination (Hallucination): Terme utilisé en IA générative (notamment pour les LLM) pour décrire le phénomène où le modèle génère des informations qui semblent plausibles mais sont factuellement incorrectes ou sans fondement.
  • Hyperparameters (Hyperparamètres): Paramètres qui contrôlent le processus d’apprentissage d’un modèle d’IA, et qui sont définis avant l’entraînement (ex: taux d’apprentissage, nombre de couches, taille des lots).

I

  • Inference (Inférence): Le processus d’utilisation d’un modèle d’IA entraîné pour faire des prédictions ou des décisions sur de nouvelles données jamais vues auparavant.
  • Intelligence Artificielle (IA): Voir AI.

K

  • K-Means: Un algorithme d’apprentissage non supervisé populaire pour le clustering. Il vise à partitionner un ensemble de données en k clusters, où chaque point de données appartient au cluster dont le centre (moyenne) est le plus proche.
  • K-Nearest Neighbors (KNN – k Plus Proches Voisins): Un algorithme d’apprentissage supervisé simple mais efficace, utilisé pour la classification et la régression. Pour classer un nouveau point, il regarde les k points les plus proches dans les données d’entraînement et attribue la classe la plus fréquente parmi ces voisins.

 

L

  • Large Language Model (LLM – Grand Modèle de Langage): Type de modèle de Deep Learning (souvent basé sur l’architecture Transformer) entraîné sur d’énormes quantités de données textuelles pour comprendre, générer et manipuler le langage humain.
  • Latent Space (Espace Latent): Un espace de représentation à plus faible dimension où les données complexes sont encodées de manière à capturer leurs caractéristiques essentielles. Souvent utilisé dans les autoencodeurs et les GANs.
  • Loss Function (Fonction de Perte / Fonction de Coût): Mesure de l’erreur ou de la divergence entre les prédictions d’un modèle et les valeurs réelles. L’objectif de l’entraînement est de minimiser cette fonction.
  • LSTM (Long Short-Term Memory): Type de réseau de neurones récurrent (RNN) conçu pour traiter et prédire des séquences, particulièrement efficace pour capturer des dépendances à long terme dans les données.
  • Learning Rate (Taux d’Apprentissage): Un hyperparamètre crucial dans l’entraînement des modèles d’IA (en particulier avec la descente de gradient) qui contrôle la taille des pas effectués pour ajuster les poids du modèle. Un taux trop élevé peut empêcher la convergence, tandis qu’un taux trop bas peut rendre l’entraînement très lent.

M

  • Machine Learning (ML – Apprentissage Automatique): Sous-domaine de l’IA qui se concentre sur le développement de systèmes qui peuvent apprendre à partir de données sans être explicitement programmés pour chaque tâche.
  • Metrics (Métriques): Mesures quantitatives utilisées pour évaluer la performance d’un modèle d’IA (ex: précision, rappel, F1-score, MSE).
  • Model (Modèle): En IA, une représentation mathématique ou informatique des relations apprises à partir des données d’entraînement, utilisée pour faire des prédictions ou des décisions.
  • MLOps (Machine Learning Operations): Une culture et une pratique d’ingénierie logicielle qui visent à unifier le développement de systèmes d’apprentissage automatique (ML) et leur déploiement (Operations). L’objectif est d’automatiser et de rationaliser le cycle de vie complet du ML, de l’entraînement à la surveillance en production.
  • Mean Squared Error (MSE – Erreur Quadratique Moyenne): Une fonction de perte couramment utilisée dans les tâches de régression. Elle mesure la moyenne des carrés des différences entre les valeurs prédites et les valeurs réelles.

N

  • Natural Language Processing (NLP – Traitement du Langage Naturel): Domaine de l’IA qui se concentre sur l’interaction entre les ordinateurs et le langage humain, permettant aux machines de comprendre, d’interpréter et de générer2 du langage.
  • Neural Network (Réseau de Neurones): Voir ANN.
    Neuron (Neurone): L’unité de calcul de base dans un réseau de neurones, qui reçoit des entrées, les pondère, les somme et applique une fonction d’activation pour produire une sortie.
  • Normalization (Normalisation / Standardisation): Une étape de prétraitement des données qui consiste à mettre à l’échelle les différentes caractéristiques (features) sur une plage commune (par exemple, de 0 à 1 pour la normalisation, ou avec une moyenne de 0 et un écart-type de 1 pour la standardisation) pour améliorer la performance et la stabilité de l’entraînement.

O

  • Optimizer (Optimiseur): Algorithme utilisé pour ajuster les poids d’un réseau de neurones pendant l’entraînement afin de minimiser la fonction de perte (ex: SGD, Adam, RMSprop).
  • Overfitting (Surapprentissage): Phénomène où un modèle d’IA apprend trop spécifiquement les données d’entraînement, y compris le bruit, ce qui le rend incapable de généraliser correctement à de nouvelles données.

P

  • Perceptron: Le plus simple type de réseau de neurones artificiels, un classificateur linéaire binaire.
  • Prompt Engineering: L’art et la science de concevoir les meilleures instructions ou requêtes (“prompts”) pour obtenir les résultats souhaités de modèles d’IA générative, en particulier les LLM.
  • Prompt: L’entrée textuelle ou l’instruction donnée à un modèle d’IA générative pour le guider dans la génération d’une sortie.
  • Precision and Recall (Précision et Rappel): Deux métriques essentielles pour évaluer les modèles de classification, souvent utilisées ensemble.
  • Précision: Mesure la pertinence des résultats positifs prédits.
  • Rappel (Sensibilité): Mesure la capacité du modèle à trouver tous les résultats positifs réels.
  • PyTorch: Une bibliothèque open-source d’apprentissage automatique basée sur la bibliothèque Torch, très populaire pour la recherche et le développement en deep learning. Elle est connue pour sa flexibilité, son interface « pythonique » et son graphe de calcul dynamique.

R

  • RAG (Retrieval Augmented Generation): Une approche pour les LLM qui combine la génération de texte avec la récupération d’informations pertinentes à partir d’une base de données externe pour améliorer la précision et la pertinence des réponses et réduire les hallucinations.
  • Reinforcement Learning (RL – Apprentissage par Renforcement): Type d’apprentissage automatique où un agent apprend à prendre des décisions en interagissant avec un environnement et en recevant des récompenses ou3 des pénalités.
  • Regression (Régression): Tâche d’apprentissage automatique où le modèle prédit une valeur de sortie continue (ex: prédire le prix d’une maison).
  • RNN (Recurrent Neural Network – Réseau de Neurones Récurrent): Type de réseau de neurones conçu pour traiter des séquences de données (ex: texte, séries temporelles) en maintenant une mémoire interne de l’information précédente.
  • RPA (Robotic Process Automation – Automatisation des Processus Robotiques): Technologie qui permet de configurer des “robots logiciels” pour automatiser des tâches répétitives et basées sur des règles, souvent sans impliquer l’IA avancée.
  • Random Forest (Forêt d’Arbres Décisionnels): Un algorithme d’apprentissage d’ensemble qui construit une multitude d’arbres de décision lors de l’entraînement et produit la classe qui est le mode des classes (classification) ou la prédiction moyenne (régression) des arbres individuels.
  • Regularization (Régularisation): Un ensemble de techniques utilisées pour prévenir le surapprentissage (overfitting) dans les modèles d’IA en ajoutant une pénalité à la complexité du modèle. Le Dropout et l’Early Stopping sont des formes de régularisation.

S

  • Self-Supervised Learning (Apprentissage Auto-Supervisé): Type d’apprentissage automatique où le modèle génère ses propres étiquettes à partir des données non étiquetées, puis utilise ces étiquettes pour s’entraîner via des tâches auxiliaires.
  • Semantic Segmentation (Segmentation Sémantique): Tâche de vision par ordinateur où chaque pixel d’une image est classé en fonction de la catégorie de l’objet auquel il appartient.
  • Shadow AI: Utilisation non autorisée ou non supervisée d’outils et d’applications d’IA par des employés ou des départements au sein d’une organisation, en dehors des canaux officiels et sans la connaissance du service informatique central.
  • Supervised Learning (Apprentissage Supervisé): Type d’apprentissage automatique où le modèle est entraîné sur un jeu de données étiquetées, c’est-à-dire des paires d’entrée-sortie connues.
  • Strong AI (IA Forte): Voir General AI.
  • Scikit-learn: Une bibliothèque Python open-source très populaire pour l’apprentissage automatique « classique » (non-profond). Elle fournit des outils simples et efficaces pour l’analyse prédictive des données, incluant de nombreux algorithmes de classification, régression, clustering et réduction de dimensionnalité.
  • Support Vector Machine (SVM – Machine à Vecteurs de Support): Un algorithme d’apprentissage supervisé puissant utilisé pour la classification et la régression. Il fonctionne en trouvant l’hyperplan qui sépare le mieux les différentes classes dans l’espace des caractéristiques.

T

  • Tensor: Une structure de données multidimensionnelle (un tableau avec un nombre arbitraire de dimensions) utilisée pour représenter les données dans les frameworks de Deep Learning.
  • TensorFlow: Une bibliothèque open-source de Google pour l’apprentissage automatique et le Deep Learning.
  • Tokenization (Tokenisation): Le processus de découpage d’un texte en unités plus petites appelées “tokens” (mots, sous-mots, caractères).
  • Transfer Learning (Apprentissage par Transfert): Technique d’apprentissage automatique où un modèle pré-entraîné sur une grande quantité de données pour une tâche spécifique est réutilisé comme point de départ pour une nouvelle tâche connexe.
  • Transformer: Architecture de réseau de neurones révolutionnaire, basée sur le mécanisme d’attention, qui a conduit à des avancées majeures en NLP et, plus récemment, en vision par ordinateur.
  • Training (Entraînement): Le processus par lequel un modèle d’IA apprend à partir de données, ajustant ses paramètres pour minimiser une fonction de perte.
  • Test Set (Jeu de Test): Un sous-ensemble des données, distinct des jeux d’entraînement et de validation, qui est utilisé pour évaluer la performance finale et la capacité de généralisation d’un modèle après la fin de son entraînement. Il ne doit être utilisé qu’une seule fois.

U

  • Underfitting (Sous-apprentissage): Phénomène où un modèle d’IA est trop simple et ne parvient pas à capturer les motifs sous-jacents dans les données d’entraînement, ce qui le rend incapable de bien performer sur de nouvelles données.
  • Unsupervised Learning (Apprentissage Non Supervisé): Type d’apprentissage automatique où le modèle apprend à partir de données non étiquetées, en découvrant des motifs ou des structures cachées.

V

  • Validation Set (Jeu de Validation): Un sous-ensemble des données utilisées pour évaluer la performance d’un modèle pendant l’entraînement et pour ajuster les hyperparamètres, afin de prévenir le surapprentissage.
  • Vector Database (Base de Données Vectorielle): Un type de base de données spécialement conçu pour stocker, gérer et interroger des données sous forme de vecteurs de haute dimension, comme les embeddings. Elle est essentielle pour des applications telles que la recherche sémantique, la reconnaissance d’images et les systèmes RAG.

W

  • Weak AI (IA Faible): Synonyme de “Narrow AI”, désigne les systèmes d’IA conçus et entraînés pour une tâche spécifique (ex: un système de reconnaissance vocale, un programme de jeu d’échecs).
  • Weight (Poids): Un paramètre ajustable dans un réseau de neurones qui détermine l’importance d’une connexion entre deux neurones.

X
XAI: Voir Explainable AI.

Copyright © 2025JM GAILLON . All Rights Reserved.