glossaire complet des termes et abréviations courants liés à l’Intelligence Artificielle (IA) :
Glossaire des Termes et Abréviations de l’Intelligence Artificielle (IA)
A
Activation Function (Fonction d’Activation): Fonction mathématique appliquée à la sortie d’un neurone dans un réseau de neurones pour introduire de la non-linéarité, permettant au réseau d’apprendre des motifs complexes. Exemples : ReLU, Sigmoïde, Tanh.
Agent: Dans l’apprentissage par renforcement, une entité qui interagit avec un environnement, prend des décisions et exécute des actions.
AI (Artificial Intelligence – Intelligence Artificielle): Le champ d’étude et de développement de systèmes informatiques capables d’effectuer des tâches qui nécessitent normalement l’intelligence humaine, telles1 que l’apprentissage, la résolution de problèmes, la perception et la compréhension du langage.
Algorithm (Algorithme): Un ensemble de règles ou d’instructions étape par étape conçues pour résoudre un problème ou effectuer une tâche spécifique. En IA, un algorithme est souvent utilisé pour apprendre des données.
ANN (Artificial Neural Network – Réseau de Neurones Artificiels): Modèle de calcul inspiré par la structure et le fonctionnement du cerveau humain, composé de neurones interconnectés organisés en couches.
Anomaly Detection (Détection d’Anomalies): Processus d’identification des événements ou des données qui ne correspondent pas à un comportement attendu ou normal.
API (Application Programming Interface): Un ensemble de définitions et de protocoles qui permet à différentes applications logicielles de communiquer entre elles. Souvent utilisées pour intégrer des modèles d’IA dans des systèmes existants.
Attention Mechanism (Mécanisme d’Attention): Technique utilisée principalement dans les réseaux de neurones (notamment les Transformers) pour permettre au modèle de “peser” l’importance de différentes parties de l’entrée lors de la production d’une sortie.
Autoencoder (Autoencodeur): Type de réseau de neurones non supervisé conçu pour apprendre des représentations efficaces (encodages) des données d’entrée en les compressant dans une dimension inférieure puis en les reconstruisant.
B
Backpropagation (Rétropropagation): Algorithme fondamental utilisé pour entraîner les réseaux de neurones en calculant le gradient de la fonction de perte par rapport aux poids du réseau, permettant ainsi d’ajuster les poids pour minimiser la perte.
Bias (Biais):
Dans les données/modèles: Une erreur systématique ou une préférence dans les données d’entraînement ou le modèle lui-même, pouvant conduire à des prédictions injustes ou incorrectes.
Dans les réseaux de neurones: Un paramètre ajustable ajouté à la somme pondérée des entrées d’un neurone, permettant au neurone d’activer même si toutes les entrées sont nulles.
Big Data: Volumes de données si vastes et complexes qu’ils dépassent les capacités des outils traditionnels de traitement de données, nécessitant des techniques et des technologies spécifiques pour leur analyse.
Black Box (Boîte Noire): Terme utilisé pour décrire un modèle d’IA dont le fonctionnement interne est difficile ou impossible à comprendre pour les humains, rendant difficile l’explication de ses décisions.
Bot (Robot Logiciel): Programme informatique conçu pour effectuer des tâches répétitives de manière automatisée, souvent en imitant le comportement humain.
Bytes (Octets): Unité de stockage de données informatiques.
C
Chatbot: Programme informatique conçu pour simuler une conversation humaine, généralement via du texte ou de la voix, permettant une interaction automatisée avec les utilisateurs.
Classification: Tâche d’apprentissage automatique où le modèle apprend à assigner des étiquettes de catégorie à de nouvelles données (ex: classer un e-mail comme “spam” ou “non-spam”).
Clustering (Regroupement): Tâche d’apprentissage automatique non supervisée qui consiste à regrouper des points de données similaires en clusters ou groupes, sans étiquettes prédéfinies.
CNN (Convolutional Neural Network – Réseau de Neurones Convolutifs): Type de réseau de neurones profondément efficace pour le traitement d’images et d’autres données structurées, utilisant des couches de convolution.
Computer Vision (Vision par Ordinateur): Domaine de l’IA qui permet aux ordinateurs de “voir”, d’interpréter et de comprendre le contenu d’images et de vidéos.
Confusion Matrix (Matrice de Confusion): Tableau utilisé pour évaluer la performance d’un modèle de classification, affichant le nombre de vrais positifs, faux positifs, vrais négatifs et faux négatifs.
CRISP-DM (Cross Industry Standard Process for Data Mining): Méthodologie standard de gestion de projet pour les projets de fouille de données (data mining) et d’apprentissage automatique.
D
Data Augmentation (Augmentation des Données): Techniques utilisées pour augmenter la quantité et la diversité des données d’entraînement en créant de nouvelles données à partir des données existantes (ex: rotations d’images, synonymes de texte).
Data Mining (Fouille de Données): Processus de découverte de motifs, de tendances et de connaissances utiles à partir de grands ensembles de données.
Data Scientist: Professionnel qui utilise des compétences en statistiques, informatique et expertise métier pour extraire des informations et des connaissances à partir des données.
Dataset (Jeu de Données): Collection de données structurées ou non structurées utilisées pour entraîner, valider ou tester un modèle d’IA.
Deep Learning (DL – Apprentissage Profond): Sous-domaine de l’apprentissage automatique qui utilise des réseaux de neurones artificiels avec de nombreuses couches (profondes) pour apprendre des représentations complexes à partir de grandes quantités de données.
Dimensionality Reduction (Réduction de Dimensionnalité): Techniques pour réduire le nombre de variables aléatoires (dimensions) considérées dans un problème, tout en conservant autant d’informations pertinentes que possible.
DQN (Deep Q-Network): Algorithme d’apprentissage par renforcement qui combine le Q-Learning avec les réseaux de neurones profonds.
Dropout: Technique de régularisation utilisée dans les réseaux de neurones pour prévenir le surapprentissage en désactivant aléatoirement un certain pourcentage de neurones lors de l’entraînement.
E
Early Stopping: Technique de régularisation utilisée pendant l’entraînement des modèles d’IA, où l’entraînement est arrêté lorsque la performance du modèle sur un ensemble de validation cesse de s’améliorer ou commence à se dégrader.
Embeddings: Représentations vectorielles denses de mots, d’images ou d’autres entités, où la similarité sémantique ou structurelle est encodée par la proximité des vecteurs dans l’espace.
Epoch (Époque): Une passe complète de l’ensemble du jeu de données d’entraînement à travers le modèle d’apprentissage.
Explainable AI (XAI – IA Explicable): Domaine de l’IA qui vise à développer des modèles dont les décisions peuvent être comprises et interprétées par les humains, plutôt que d’être des “boîtes noires”.
F
Feature Engineering (Ingénierie des Fonctionnalités): Processus de création de nouvelles fonctionnalités (variables) à partir de données brutes, afin d’améliorer la performance d’un modèle d’apprentissage automatique.
Feature (Fonctionnalité / Caractéristique): Une variable d’entrée ou un attribut dans un jeu de données qui est utilisé par un modèle pour faire une prédiction.
Federated Learning (Apprentissage Fédéré): Approche d’apprentissage automatique qui permet d’entraîner des modèles sur des ensembles de données distribués et décentralisés sans que les données brutes ne quittent leur source d’origine.
Fine-tuning (Réglage Fin): Processus d’adaptation d’un modèle d’IA pré-entraîné (généralement un modèle de Deep Learning) à une nouvelle tâche ou à un nouveau jeu de données spécifique, en ajustant ses poids avec un petit ensemble de données spécifique.
Fuzzy Logic (Logique Floue): Une extension de la logique booléenne qui permet d’exprimer des valeurs de vérité partielles (entre 0 et 1), plutôt que des valeurs binaires strictes (vrai/faux).
G
GAN (Generative Adversarial Network – Réseau Génératif Antagoniste): Type de réseau de neurones où deux réseaux (un générateur et un discriminateur) sont entraînés simultanément et s’affrontent, l’un générant des données, l’autre tentant de distinguer les données réelles des données générées.
General AI (AGI – Artificial General Intelligence – IA Générale): Forme d’IA hypothétique qui posséderait l’intelligence humaine et la capacité de comprendre, d’apprendre et d’appliquer l’intelligence à un large éventail de problèmes, contrairement à l’IA spécialisée.
Generative AI (IA Générative): Catégorie de modèles d’IA capables de générer de nouvelles données qui ressemblent aux données sur lesquelles ils ont été entraînés (texte, images, audio, etc.).
Gradient Descent (Descente de Gradient): Algorithme d’optimisation utilisé pour minimiser une fonction de coût en ajustant itérativement les paramètres du modèle dans la direction du gradient négatif.
H
Hallucination (Hallucination): Terme utilisé en IA générative (notamment pour les LLM) pour décrire le phénomène où le modèle génère des informations qui semblent plausibles mais sont factuellement incorrectes ou sans fondement.
Hyperparameters (Hyperparamètres): Paramètres qui contrôlent le processus d’apprentissage d’un modèle d’IA, et qui sont définis avant l’entraînement (ex: taux d’apprentissage, nombre de couches, taille des lots).
I
Inference (Inférence): Le processus d’utilisation d’un modèle d’IA entraîné pour faire des prédictions ou des décisions sur de nouvelles données jamais vues auparavant.
Intelligence Artificielle (IA): Voir AI.
L
Large Language Model (LLM – Grand Modèle de Langage): Type de modèle de Deep Learning (souvent basé sur l’architecture Transformer) entraîné sur d’énormes quantités de données textuelles pour comprendre, générer et manipuler le langage humain.
Latent Space (Espace Latent): Un espace de représentation à plus faible dimension où les données complexes sont encodées de manière à capturer leurs caractéristiques essentielles. Souvent utilisé dans les autoencodeurs et les GANs.
Loss Function (Fonction de Perte / Fonction de Coût): Mesure de l’erreur ou de la divergence entre les prédictions d’un modèle et les valeurs réelles. L’objectif de l’entraînement est de minimiser cette fonction.
LSTM (Long Short-Term Memory): Type de réseau de neurones récurrent (RNN) conçu pour traiter et prédire des séquences, particulièrement efficace pour capturer des dépendances à long terme dans les données.
M
Machine Learning (ML – Apprentissage Automatique): Sous-domaine de l’IA qui se concentre sur le développement de systèmes qui peuvent apprendre à partir de données sans être explicitement programmés pour chaque tâche.
Metrics (Métriques): Mesures quantitatives utilisées pour évaluer la performance d’un modèle d’IA (ex: précision, rappel, F1-score, MSE).
Model (Modèle): En IA, une représentation mathématique ou informatique des relations apprises à partir des données d’entraînement, utilisée pour faire des prédictions ou des décisions.
N
Natural Language Processing (NLP – Traitement du Langage Naturel): Domaine de l’IA qui se concentre sur l’interaction entre les ordinateurs et le langage humain, permettant aux machines de comprendre, d’interpréter et de générer2 du langage.
Neural Network (Réseau de Neurones): Voir ANN.
Neuron (Neurone): L’unité de calcul de base dans un réseau de neurones, qui reçoit des entrées, les pondère, les somme et applique une fonction d’activation pour produire une sortie.
O
Optimizer (Optimiseur): Algorithme utilisé pour ajuster les poids d’un réseau de neurones pendant l’entraînement afin de minimiser la fonction de perte (ex: SGD, Adam, RMSprop).
Overfitting (Surapprentissage): Phénomène où un modèle d’IA apprend trop spécifiquement les données d’entraînement, y compris le bruit, ce qui le rend incapable de généraliser correctement à de nouvelles données.
P
Perceptron: Le plus simple type de réseau de neurones artificiels, un classificateur linéaire binaire.
Prompt Engineering: L’art et la science de concevoir les meilleures instructions ou requêtes (“prompts”) pour obtenir les résultats souhaités de modèles d’IA générative, en particulier les LLM.
Prompt: L’entrée textuelle ou l’instruction donnée à un modèle d’IA générative pour le guider dans la génération d’une sortie.
R
RAG (Retrieval Augmented Generation): Une approche pour les LLM qui combine la génération de texte avec la récupération d’informations pertinentes à partir d’une base de données externe pour améliorer la précision et la pertinence des réponses et réduire les hallucinations.
Reinforcement Learning (RL – Apprentissage par Renforcement): Type d’apprentissage automatique où un agent apprend à prendre des décisions en interagissant avec un environnement et en recevant des récompenses ou3 des pénalités.
Regression (Régression): Tâche d’apprentissage automatique où le modèle prédit une valeur de sortie continue (ex: prédire le prix d’une maison).
RNN (Recurrent Neural Network – Réseau de Neurones Récurrent): Type de réseau de neurones conçu pour traiter des séquences de données (ex: texte, séries temporelles) en maintenant une mémoire interne de l’information précédente.
RPA (Robotic Process Automation – Automatisation des Processus Robotiques): Technologie qui permet de configurer des “robots logiciels” pour automatiser des tâches répétitives et basées sur des règles, souvent sans impliquer l’IA avancée.
S
Self-Supervised Learning (Apprentissage Auto-Supervisé): Type d’apprentissage automatique où le modèle génère ses propres étiquettes à partir des données non étiquetées, puis utilise ces étiquettes pour s’entraîner via des tâches auxiliaires.
Semantic Segmentation (Segmentation Sémantique): Tâche de vision par ordinateur où chaque pixel d’une image est classé en fonction de la catégorie de l’objet auquel il appartient.
Shadow AI: Utilisation non autorisée ou non supervisée d’outils et d’applications d’IA par des employés ou des départements au sein d’une organisation, en dehors des canaux officiels et sans la connaissance du service informatique central.
Supervised Learning (Apprentissage Supervisé): Type d’apprentissage automatique où le modèle est entraîné sur un jeu de données étiquetées, c’est-à-dire des paires d’entrée-sortie connues.
Strong AI (IA Forte): Voir General AI.
T
Tensor: Une structure de données multidimensionnelle (un tableau avec un nombre arbitraire de dimensions) utilisée pour représenter les données dans les frameworks de Deep Learning.
TensorFlow: Une bibliothèque open-source de Google pour l’apprentissage automatique et le Deep Learning.
Tokenization (Tokenisation): Le processus de découpage d’un texte en unités plus petites appelées “tokens” (mots, sous-mots, caractères).
Transfer Learning (Apprentissage par Transfert): Technique d’apprentissage automatique où un modèle pré-entraîné sur une grande quantité de données pour une tâche spécifique est réutilisé comme point de départ pour une nouvelle tâche connexe.
Transformer: Architecture de réseau de neurones révolutionnaire, basée sur le mécanisme d’attention, qui a conduit à des avancées majeures en NLP et, plus récemment, en vision par ordinateur.
Training (Entraînement): Le processus par lequel un modèle d’IA apprend à partir de données, ajustant ses paramètres pour minimiser une fonction de perte.
U
Underfitting (Sous-apprentissage): Phénomène où un modèle d’IA est trop simple et ne parvient pas à capturer les motifs sous-jacents dans les données d’entraînement, ce qui le rend incapable de bien performer sur de nouvelles données.
Unsupervised Learning (Apprentissage Non Supervisé): Type d’apprentissage automatique où le modèle apprend à partir de données non étiquetées, en découvrant des motifs ou des structures cachées.
V
Validation Set (Jeu de Validation): Un sous-ensemble des données utilisées pour évaluer la performance d’un modèle pendant l’entraînement et pour ajuster les hyperparamètres, afin de prévenir le surapprentissage.
W
Weak AI (IA Faible): Synonyme de “Narrow AI”, désigne les systèmes d’IA conçus et entraînés pour une tâche spécifique (ex: un système de reconnaissance vocale, un programme de jeu d’échecs).
Weight (Poids): Un paramètre ajustable dans un réseau de neurones qui détermine l’importance d’une connexion entre deux neurones.
X
XAI: Voir Explainable AI.

Copyright © 2025JM GAILLON . All Rights Reserved.