Comment fonctionne l'intelligence artificielle ? Guide de démystification

Par Thibault Montoya, fondateur de Smalaxy — Mis à jour en 2025

L'intelligence artificielle est partout dans les discussions, mais rares sont ceux qui comprennent vraiment comment elle fonctionne. Ce guide démystifie l'IA sans jargon inutile, en partant des principes fondamentaux jusqu'aux applications concrètes. Que vous soyez dirigeant, manager ou simplement curieux, vous repartirez avec une compréhension claire de ce que l'IA peut (et ne peut pas) faire.

Ce contenu est issu des conférences et masterclass dispensées par Thibault Montoya, fondateur de Smalaxy, auprès de dirigeants, étudiants et équipes opérationnelles. L'objectif : vous donner les clés pour prendre des décisions éclairées sur l'IA dans votre organisation, et distinguer les promesses marketing de la réalité technique.

IA vs informatique classique : un changement de paradigme

Pour comprendre l'IA, il faut d'abord comprendre ce qui la distingue de l'informatique traditionnelle. La différence est fondamentale et explique à la fois les capacités impressionnantes et les limites de l'IA actuelle.

Informatique classique

Règles déterministes
Le programmeur écrit des instructions précises : "si le client a plus de 3 ans d'ancienneté ET un panier moyen supérieur à 100 euros, appliquer 10% de remise." Le résultat est toujours prévisible et identique pour les mêmes données d'entrée. Chaque cas doit être anticipé et codé manuellement.

VS

Intelligence artificielle

Modèles probabilistes
Le système apprend des patterns à partir de données : "voici 10 millions de transactions clients et les remises qui ont maximisé la rétention." Le modèle découvre lui-même les règles optimales. Le résultat est une prédiction avec un degré de confiance, jamais une certitude absolue.

Cette distinction est cruciale pour comprendre pourquoi l'IA peut donner des réponses différentes à la même question (elle échantillonne parmi les réponses probables), pourquoi elle fait parfois des erreurs (les hallucinations sont des prédictions statistiquement cohérentes mais factuellement fausses), et pourquoi elle excelle dans des tâches que l'informatique classique ne pouvait pas résoudre (reconnaissance d'image, traduction, génération de texte). Pour explorer les outils concrets qui utilisent ces principes, consultez notre guide dédié.

Le cerveau comme inspiration : réseaux de neurones

L'architecture fondamentale de l'IA moderne est le réseau de neurones, directement inspiré du fonctionnement du cerveau humain. Mais l'analogie a ses limites, et les chiffres sont vertigineux.

86 Mrd
Neurones dans le cerveau humain
175 Mrd
Paramètres de GPT-3
20 W
Consommation du cerveau humain

Le cerveau humain contient environ 86 milliards de neurones, chacun connecté à des milliers d'autres, formant un réseau d'une complexité vertigineuse. Les réseaux de neurones artificiels simulent ce fonctionnement avec des couches de "neurones" numériques. GPT-3, le modèle derrière les premières versions de ChatGPT, utilise 175 milliards de paramètres, des nombres ajustables qui déterminent comment le réseau traite l'information.

Cependant, la comparaison s'arrête là. Un neurone biologique est infiniment plus complexe qu'un neurone artificiel. Le cerveau apprend continuellement avec très peu d'exemples (un enfant apprend à reconnaître un chat après en avoir vu quelques-uns), alors qu'un modèle d'IA nécessite des millions d'images. Et surtout, le cerveau fonctionne avec seulement 20 watts, l'équivalent d'une ampoule LED, là où l'entraînement de GPT-3 a consommé l'énergie de centaines de foyers pendant des mois.

Comment fonctionne un LLM : la prédiction du prochain mot

Les LLM (Large Language Models) comme ChatGPT, Claude ou Mistral fonctionnent sur un principe étonnamment simple : prédire le prochain mot le plus probable dans une séquence. Cette simplicité apparente masque une sophistication technique considérable.

Étape 1 : Tokenisation

Le texte est découpé en tokens, des unités élémentaires qui ne correspondent pas toujours à des mots entiers. Le mot "intelligence" peut être découpé en "intelli" et "gence". Le mot "le" est un token unique. Un espace est souvent un token à part. Ce découpage permet au modèle de gérer un vocabulaire théoriquement infini avec un dictionnaire de 30 000 à 100 000 tokens.

Étape 2 : Embeddings (vecteurs)

Chaque token est converti en un vecteur numérique de haute dimension (typiquement 768 à 12 288 dimensions). Ce vecteur capture le "sens" du token. Les mots sémantiquement proches ont des vecteurs proches dans cet espace. Par exemple, les vecteurs de "roi" et "reine" sont proches, tout comme ceux de "Paris" et "France". Cette représentation vectorielle permet au modèle de manipuler le sens des mots mathématiquement.

Étape 3 : Transformers et attention

Le modèle passe les vecteurs à travers des couches de transformers, l'architecture révolutionnaire introduite par Google en 2017. Le mécanisme d'attention permet au modèle de pondérer l'importance de chaque mot dans le contexte global. Quand vous demandez "Quel est le président de la France ?", le mécanisme d'attention relie "président" à "France" pour produire la bonne réponse, même si d'autres mots séparent ces deux termes.

Étape 4 : Prédiction

En sortie, le modèle calcule une probabilité pour chaque token possible. Il sélectionne le token le plus probable (ou échantillonne parmi les plus probables pour introduire de la variété) et l'ajoute à la séquence. Puis il recommence avec la nouvelle séquence. C'est ainsi que le texte est généré mot par mot, chaque nouveau mot dépendant de tout ce qui précède. Ce qui nous semble être de la "compréhension" est en réalité de la prédiction statistique extrêmement sophistiquée.

L'analogie Smalaxy : Un LLM est comme un étudiant qui a lu tout Internet et qui, pour chaque question, produit la réponse la plus probable qu'il aurait trouvée dans ses lectures. Il ne "comprend" pas au sens humain, mais ses prédictions sont si précises qu'elles simulent la compréhension de manière bluffante.

Le deep learning illustré : AlphaGo et au-delà

Le deep learning (apprentissage profond) est la branche du machine learning qui utilise des réseaux de neurones avec de nombreuses couches. C'est la technologie derrière les avancées spectaculaires de l'IA depuis 2012. Son moment de gloire : AlphaGo.

En 2016, AlphaGo de DeepMind (Google) a battu Lee Sedol, champion du monde de Go. Ce n'était pas un simple jeu : le Go possède 10^200 configurations possibles, un nombre si astronomique qu'il dépasse le nombre d'atomes dans l'univers observable (environ 10^80). Il était mathématiquement impossible d'explorer toutes les possibilités. AlphaGo a appris à jouer en analysant des millions de parties humaines, puis en jouant contre lui-même des millions de fois. Il a développé des stratégies que même les experts humains n'avaient jamais envisagées.

Le deep learning fonctionne par extraction progressive de caractéristiques. Dans la reconnaissance d'image, les premières couches détectent les contours et les textures, les couches intermédiaires reconnaissent les formes et les patterns, et les couches profondes identifient les objets complexes. Chaque couche apprend automatiquement les caractéristiques pertinentes, sans que le programmeur ait besoin de les définir. C'est cette capacité d'apprentissage autonome qui rend le deep learning si puissant et si différent de la programmation classique.

La puissance de calcul : de Voyager à Frontier

L'évolution de la puissance de calcul est le moteur silencieux de la révolution IA. Sans cette croissance exponentielle, les algorithmes modernes resteraient de belles théories mathématiques inapplicables.

1977

Voyager 1

0,08 MIPS

La sonde spatiale Voyager 1, encore active à 24 milliards de km de la Terre, fonctionne avec un processeur de 0,08 MIPS. Elle a traversé le système solaire avec moins de puissance de calcul qu'une carte SIM moderne.

2007

iPhone 1er

412 MHz

Le premier iPhone embarquait un processeur ARM à 412 MHz, plus puissant que les ordinateurs ayant envoyé l'Homme sur la Lune. Aujourd'hui, chaque smartphone dépasse les supercalculateurs des années 2000.

2022

Frontier

1,1 Exaflop

Le supercalculateur Frontier atteint 1,1 exaflop, soit 1,1 milliard de milliards d'opérations par seconde. Il consomme 21 MW et occupe 680 m2. Il est utilisé pour l'entraînement des plus grands modèles d'IA.

Cette explosion de la puissance de calcul a rendu possible l'entraînement de modèles avec des centaines de milliards de paramètres. Mais cette puissance a un coût : les datacenters mondiaux consomment environ 2% de l'électricité mondiale, soit environ 460 TWh en 2022, l'équivalent de la consommation électrique de la France entière. Et cette consommation augmente de 20 à 30% par an avec la demande croissante en IA.

L'impact environnemental de l'IA : les chiffres qui interpellent

La question environnementale de l'IA est un sujet que tout dirigeant devrait maîtriser, d'autant plus que l'IA Act européen encourage la transparence sur l'empreinte environnementale des systèmes d'IA.

ChatGPT vs Google

Une question posée à ChatGPT consomme 10 à 100 fois plus d'énergie qu'une recherche Google classique. Un échange de 10 questions avec ChatGPT consomme autant qu'une ampoule allumée pendant une heure. À l'échelle des 100 millions d'utilisateurs quotidiens, la facture énergétique est colossale.

💧

Consommation d'eau

Les datacenters nécessitent d'énormes quantités d'eau pour le refroidissement. L'entraînement de GPT-3 a consommé environ 700 000 litres d'eau. Microsoft a vu sa consommation d'eau augmenter de 34% en un an, en grande partie à cause de l'IA.

🏭

Datacenters = France

Les datacenters mondiaux consomment 460 TWh par an (2022), soit l'équivalent de la consommation électrique de la France entière. Cette consommation devrait doubler d'ici 2030 avec l'essor de l'IA générative et des modèles toujours plus grands.

🧠

Le cerveau champion

Le cerveau humain reste un modèle d'efficacité énergétique. Avec seulement 20 watts, il gère simultanément toutes les fonctions cognitives : vision, langage, mémoire, raisonnement, émotions, motricité. Aucun système artificiel ne s'en approche.

Ces chiffres ne doivent pas décourager l'utilisation de l'IA, mais encourager une utilisation raisonnée et efficace. Chez Smalaxy, nous recommandons de privilégier les outils les plus adaptés à chaque tâche plutôt que d'utiliser systématiquement les modèles les plus puissants (et les plus énergivores). Un modèle plus petit et spécialisé est souvent suffisant et bien plus économe.

Les ordinateurs quantiques : la prochaine frontière

L'informatique quantique représente un changement de paradigme encore plus radical que l'IA. Là où un ordinateur classique manipule des bits (0 ou 1), un ordinateur quantique utilise des qubits qui peuvent être dans les deux états simultanément (superposition quantique).

En 2019, Google Sycamore a réalisé un calcul en 200 secondes qu'un supercalculateur classique aurait mis 10 000 ans à effectuer. C'est ce qu'on appelle la "suprématie quantique". Cependant, les ordinateurs quantiques actuels sont encore extrêmement fragiles : ils nécessitent des températures proches du zéro absolu (-273 degC), sont sensibles aux moindres vibrations, et le nombre de qubits stables reste limité.

L'impact potentiel sur l'IA est considérable : les algorithmes quantiques pourraient accélérer exponentiellement l'entraînement des modèles d'IA, résoudre des problèmes d'optimisation aujourd'hui intractables, et ouvrir la voie à de nouveaux types de réseaux de neurones quantiques. L'horizon pratique pour des applications IA réelles reste estimé à 5-10 ans, mais les avancées récentes de Google, IBM et des startups comme IonQ accélèrent la feuille de route.

Les mythes de l'IA : séparer la fiction de la réalité

Le cinéma et la science-fiction ont façonné notre imaginaire de l'IA bien avant que la technologie ne devienne réalité. Il est essentiel de distinguer les capacités réelles de l'IA des projections fictionnelles pour prendre des décisions rationnelles.

  • Mythe "I, Robot" (Asimov / film 2004) : Des robots autonomes dotés de conscience et de volonté propre qui se retournent contre l'humanité. La réalité : l'IA actuelle n'a ni conscience, ni volonté, ni objectifs propres. Elle exécute des tâches pour lesquelles elle a été entraînée, point final.
  • Mythe "Her" (Spike Jonze, 2013) : Une IA qui développe des émotions, tombe amoureuse et fait preuve d'empathie authentique. La réalité : les LLM simulent la compréhension émotionnelle (ils peuvent écrire des textes émouvants) mais ne ressentent rien. La simulation est convaincante, pas authentique.
  • Mythe de la "Singularité" : Le moment où l'IA dépasse l'intelligence humaine et s'auto-améliore exponentiellement. La réalité : c'est une hypothèse théorique sans fondement scientifique actuel. Les LLM sont des modèles statistiques puissants mais fondamentalement limités. Le passage à une Intelligence Artificielle Générale (AGI) reste un défi ouvert sans solution en vue.
  • Mythe de la conscience artificielle : L'idée que l'IA pourrait devenir "consciente" si on la rend assez complexe. La réalité : la conscience reste l'un des mystères les plus profonds de la science. Nous ne comprenons même pas comment la conscience émerge dans le cerveau humain, il est donc prématuré de parler de conscience artificielle.

Ce qui est réel et impressionnant : L'IA actuelle excelle dans les tâches spécifiques (rédaction, analyse, code, création visuelle) avec des performances parfois surhumaines. Les systèmes multi-agents orchestrent ces capacités pour automatiser des processus complexes. C'est déjà révolutionnaire sans avoir besoin de conscience artificielle.

Ce que cela signifie pour votre entreprise

Comprendre le fonctionnement de l'IA n'est pas un exercice académique. C'est une compétence stratégique qui permet aux dirigeants de :

  • Évaluer les promesses des fournisseurs : Quand un commercial vous promet une IA qui "comprend" vos clients, vous savez que c'est une approximation marketing d'un modèle statistique. Cela ne diminue pas l'utilité de l'outil, mais cela calibre vos attentes.
  • Identifier les bons cas d'usage : L'IA excelle dans les tâches avec des patterns récurrents et beaucoup de données. Elle est moins pertinente pour les décisions uniques avec peu d'historique. Savoir cela oriente vos investissements.
  • Anticiper les risques : Les hallucinations, les biais des données d'entraînement, la consommation énergétique : ces limites ne sont pas des bugs mais des caractéristiques inhérentes à la technologie. Les connaître permet de les gérer.
  • Former vos équipes : Des équipes qui comprennent le fonctionnement de l'IA sont des équipes qui l'utilisent mieux, plus efficacement et plus prudemment. C'est le fondement de nos formations Smalaxy.

L'IA n'est ni magique ni dangereuse en soi. C'est un outil puissant dont la valeur dépend entièrement de la manière dont il est compris, déployé et supervisé. Chez Smalaxy, nous aidons les PME et ETI à intégrer l'IA de manière pragmatique, en commençant par la compréhension avant de passer à l'action.

Questions fréquentes sur le fonctionnement de l'IA

L'informatique classique fonctionne avec des règles déterministes : le programmeur écrit des instructions précises (si X alors Y) et l'ordinateur les exécute de manière prévisible, toujours identique pour les mêmes données d'entrée. L'intelligence artificielle, et particulièrement le machine learning, fonctionne avec des modèles probabilistes : le système apprend des patterns à partir de données et produit des résultats avec un degré de confiance. C'est pourquoi l'IA peut donner des réponses différentes à la même question, contrairement à un logiciel classique. Cette nature probabiliste est à la fois sa force (flexibilité, créativité) et sa faiblesse (hallucinations, imprévisibilité).
Un LLM (Large Language Model) fonctionne essentiellement par prédiction du prochain mot. Le processus se déroule en quatre étapes. D'abord, la tokenisation : le texte est découpé en tokens (morceaux de mots). Ensuite, les embeddings : chaque token est converti en un vecteur numérique qui capture son sens dans un espace de haute dimension. Puis, les transformers : le modèle analyse la séquence via des couches de transformers avec un mécanisme d'attention qui pondère l'importance de chaque mot dans le contexte. Enfin, la prédiction : le modèle calcule la probabilité de chaque mot possible pour la suite et sélectionne le plus probable. GPT-3 utilise 175 milliards de paramètres pour affiner ces prédictions.
L'IA actuelle ne possède ni conscience, ni compréhension au sens humain du terme. Les LLM sont des systèmes statistiques extrêmement sophistiqués qui produisent des textes cohérents en prédisant les séquences de mots les plus probables. Ils simulent la compréhension sans véritablement comprendre. C'est ce que certains chercheurs appellent le "perroquet stochastique". Cependant, cette distinction philosophique n'enlève rien à leur utilité pratique considérable : un GPS ne comprend pas la géographie, mais il vous guide efficacement. De même, un LLM ne comprend pas le français, mais il rédige des textes de qualité professionnelle.
Les réseaux de neurones artificiels sont directement inspirés du fonctionnement du cerveau humain. Le cerveau contient 86 milliards de neurones interconnectés qui traitent l'information en parallèle via des connexions synaptiques. Les réseaux de neurones artificiels simulent ce fonctionnement avec des couches de neurones numériques reliés par des poids (paramètres). Cependant, l'analogie a des limites importantes : le cerveau humain fonctionne avec seulement 20 watts et apprend de manière continue avec très peu d'exemples, alors que l'entraînement de GPT-3 a nécessité des mois de calcul intensif et des milliards d'exemples textuels.
Le deep learning (apprentissage profond) est une branche du machine learning qui utilise des réseaux de neurones avec de nombreuses couches, d'où le terme "deep" (profond). Chaque couche extrait des caractéristiques de plus en plus abstraites des données. Dans la reconnaissance d'image, les premières couches détectent les contours et les textures, les couches suivantes les formes géométriques, et les dernières reconnaissent les objets complets. AlphaGo de DeepMind est un exemple emblématique du deep learning : il a battu le champion du monde de Go, un jeu avec 10^200 configurations possibles, soit plus que le nombre d'atomes dans l'univers observable (10^80).
La consommation énergétique de l'IA est un enjeu croissant. Les datacenters mondiaux consomment environ 2% de l'électricité mondiale, soit 460 TWh en 2022, l'équivalent de la consommation de la France entière. Une seule question posée à ChatGPT consomme 10 à 100 fois plus d'énergie qu'une recherche Google classique. L'entraînement des modèles les plus grands nécessite des mois de calcul sur des milliers de GPU, consommant l'énergie de centaines de foyers. Cette empreinte environnementale croissante pousse l'industrie vers des puces plus efficientes, des modèles plus compacts et des sources d'énergie renouvelable pour les datacenters.
Les ordinateurs quantiques exploitent les propriétés de la mécanique quantique (superposition, intrication) pour effectuer certains calculs exponentiellement plus vite que les ordinateurs classiques. Google Sycamore a démontré cette suprématie en réalisant un calcul en 200 secondes qui aurait pris 10 000 ans à un supercalculateur classique. Leur impact potentiel sur l'IA est considérable : accélération de l'entraînement des modèles, résolution de problèmes d'optimisation intractables, nouveaux types de réseaux de neurones quantiques. Cependant, les ordinateurs quantiques nécessitent des conditions extrêmes et restent limités en qubits stables. L'horizon pratique pour des applications IA grand public est estimé à 5-10 ans.
Les scénarios de science-fiction (I Robot, Her, Ex Machina) dépeignent une IA consciente et autonome, ce qu'on appelle l'Intelligence Artificielle Générale (AGI). L'IA actuelle est une IA étroite : elle excelle dans des tâches spécifiques mais n'a ni conscience, ni volonté, ni compréhension du monde. Le passage de l'IA étroite à l'AGI reste un défi théorique fondamental dont personne ne sait s'il sera relevé ni quand. Les LLM actuels, malgré leurs capacités impressionnantes de génération de texte, restent des modèles statistiques sans conscience, sans émotions et sans objectifs propres. La conscience reste l'un des mystères les plus profonds de la science.
La tokenisation est le processus par lequel un LLM découpe le texte en unités élémentaires appelées tokens. Un token n'est pas nécessairement un mot entier : il peut être un mot courant ("le", "de"), une partie de mot ("intelli" + "gence"), un signe de ponctuation ou un caractère spécial. Les modèles utilisent typiquement un vocabulaire de 30 000 à 100 000 tokens. Cette décomposition permet au modèle de gérer un vocabulaire théoriquement infini. Comprendre la tokenisation est utile en pratique : elle détermine le coût d'utilisation des API (facturé au token), la taille maximale des prompts, et peut expliquer certains comportements inattendus du modèle avec des mots rares ou des langues moins représentées.
Les hallucinations sont une conséquence directe du fonctionnement des LLM. Puisque le modèle prédit le mot le plus probable à chaque étape, il peut générer des séquences qui semblent cohérentes linguistiquement mais qui sont factuellement fausses. Le modèle n'a pas de mécanisme intégré pour distinguer le vrai du faux : il optimise la vraisemblance statistique, pas la véracité. Par exemple, il peut inventer une citation plausible d'un auteur réel ou mélanger des faits de manière convaincante mais incorrecte. C'est pourquoi la supervision humaine reste essentielle, surtout pour les tâches critiques. Les systèmes multi-agents atténuent ce problème en faisant vérifier les résultats par des agents de contrôle qualité.
Le cerveau humain reste le champion incontesté de l'efficacité. Avec seulement 20 watts de puissance, l'équivalent d'une ampoule LED, il gère simultanément la vision, l'audition, le langage, les émotions, la motricité, la mémoire et le raisonnement abstrait. Un supercalculateur comme Frontier, qui atteint 1,1 exaflop, consomme 21 mégawatts (un million de fois plus) et ne peut traiter qu'une tâche spécifique à la fois. Le cerveau est massivement parallèle, capable de s'auto-réparer, et apprend continuellement avec très peu d'exemples, là où les LLM nécessitent des milliards d'exemples pour leur entraînement initial. L'IA nous surpasse en vitesse de calcul brute, mais le cerveau reste supérieur en efficacité et en polyvalence.

Envie de démystifier l'IA pour vos équipes ?

Nos conférences et formations rendent l'IA accessible à tous les profils : CODIR, managers, équipes support. Du concret, des démos live, zéro jargon inutile.

Organiser une conférence