Chronique : L'illusion de l'IA de bureau et la véritable guerre de l'ère agentique
Par Jean-Marc Gaillon
Je vois encore beaucoup trop de monde utiliser ChatGPT ou Gemini comme on interrogeait un moteur de recherche il y a dix ans : on tape une requête, on copie la réponse, et on recommence. Depuis mes premiers pas dans l'écosystème high-tech dans les années 90, j'ai vu passer pas mal de changements de paradigmes, mais ce qui se joue en ce moment en coulisses est d'une autre ampleur.
Pendant qu'on s'émerveille devant des générateurs de texte, Google a discrètement étouffé le projet open source le plus prometteur du marché pour imposer sa propre vision : un agent qui ne se contente plus de vous répondre, mais qui agit à votre place, en permanence.
Il faut d'abord revenir sur le cas d'OpenClaw. Fin 2025, c'était l'outil dont tout le monde parlait. La promesse était séduisante, surtout pour ceux d'entre nous qui défendent une approche décentralisée : un agent multimodèle, agnostique, qui tourne en local sans pomper votre budget en abonnements. Seulement voilà, la théorie se heurte souvent au principe de réalité.
Les chercheurs ont vite mis le doigt sur ce qu'ils ont appelé la « fallacité de l'environnement de confiance ». Les utilisateurs, voulant que leur IA tourne H24, l'ont exposée sur des serveurs publics. Résultat ? Une faille critique (la fameuse CVE-2026-253) a transformé ce bel outil de productivité en une passoire monumentale. Des centaines d'extensions vérolées ont envahi le système.
Mais l'erreur de sécurité n'a pas été le seul fossoyeur d'OpenClaw. C'est l'asphyxie financière et technique organisée par Google qui a porté le coup de grâce. Voyant des milliers d'utilisateurs détourner leurs accès Gemini pour alimenter OpenClaw — hors de son propre environnement monétisé « Antigravity » —, la firme a massivement coupé les vannes.
Des comptes suspendus du jour au lendemain, sans appel. La version officielle parlait de sécurité, mais la manœuvre était claire : il fallait vider le terrain avant l'arrivée de leur propre solution.
Et cette solution, c'est Remy.
Ce nom, tiré du latin Remigius (le rameur), annonce la couleur.
On n'est plus du tout dans la logique d'un énième chatbot. L'ambition de Google est claire : il ne s'agit plus de parler à une machine, mais de lui déléguer des actions. Lors des conférences que je donne sur l'acculturation à l'IA, j'insiste lourdement sur cette bascule paradigmatique. L'enjeu n'est plus de générer du texte, mais de confier l'exécution de processus complexes et asynchrones à un agent proactif qui opère en tâche de fond, 24 heures sur 24.
Prenons un exemple concret des capacités d'exécution de Remy : la recherche immobilière ou la planification de projets. Vous ne demandez plus à l'IA de vous trouver une liste de liens. Via une surcouche appelée "Mariner Project ", Remy ouvre lui-même un navigateur, écume les sites d'annonces, ajuste les filtres selon vos critères de budget ou de temps de trajet, réserve des créneaux de visite qui s'insèrent parfaitement dans votre agenda, et vous envoie un récapitulatif net et précis pendant que vous dormez. C'est l'exécution autonome poussée à l'extrême.
Mais là où Remy marque une véritable rupture – et c'est ce qui capte particulièrement mon attention de spécialiste en intelligence artificielle et numérique –, c'est dans sa gestion des "hallucinations", le talon d'Achille de tous les systèmes actuels.
Jusqu'ici, l'industrie bricolait avec le RAG (Retrieval-Augmented Generation), qui consiste à pêcher des morceaux de données pour les injecter dans le prompt.
Ça dépanne, mais dès que la requête devient complexe ou implique des volumes massifs, le système s'effondre.
Google a balayé cela avec son "Knowledge Catalog", une évolution fulgurante de son infrastructure Dataplex. Pour faire simple, Remy construit un graphe sémantique ultra-dynamique qui englobe l'intégralité de votre écosystème informationnel.
Il vient aspirer et structurer les métadonnées de bases lourdes comme BigQuery, Spanner ou AlloyDB. Grâce à l'Object Context AI, il "lit" et extrait les entités de vos PDF et de vos images, tout en cartographiant les relations invisibles entre votre messagerie Gmail, vos Google Docs, et des progiciels tiers comme Salesforce ou Palantir.
Concrètement, quand vous demandez à Remy d'isoler la clause de responsabilité dans le dernier contrat d'un prestataire, il ne fait pas une "estimation probabiliste". Il interroge une "vérité organisationnelle vérifiée". Google appelle ça la précision déterministe.
Si la firme peut se permettre de déployer une puissance d'analyse pareille sans faire exploser ses serveurs, c'est grâce à une rupture architecturale majeure : le Mixture of Recursions (MOR). Contrairement aux modèles classiques qui gaspillent une énergie folle à traiter un mot simple avec la même intensité qu'une équation complexe, le système MOR alloue sa puissance cognitive de façon dynamique via un micro-routeur. Il réfléchit plus en profondeur sur ce qui est difficile, et expédie ce qui est trivial. L'économie de mémoire vive, qui chute de près de 50 %, rend le modèle économiquement viable à grande échelle.
Aujourd'hui, trois visions s'affrontent sur le marché. OpenAI joue la carte de l'intelligence brute avec ses modèles de raisonnement capables de performances fulgurantes en code. Anthropic vise les développeurs et la sécurité avec des environnements interopérables. Mais Google a l'avantage absolu du terrain : Remy est connecté aux meilleurs index de recherche mondiaux, et il sera demain matin déployé par défaut dans vos boîtes mail et vos téléphones Android.
C'est ici que la question devient éminemment politique, et c'est ce qui m'interpelle au quotidien dans mes fonctions de maire de la commune de La Haye (76), ou lors de nos travaux au sein de la commission numérique de l'Association des Maires de France et avec Normandie IA.
Les gains de productivité de ces nouveaux agents sont indéniables. Des processus administratifs chronophages pourraient être compressés en quelques secondes.
Mais à quel prix ? Nous sommes en train de passer d'un monde où nous possédions nos outils numériques à un modèle où nous sous-traitons notre capacité d'agir à trois ou quatre méga-corporations.
La fin d'OpenClaw nous rappelle que l'open source sans infrastructure sécurisée est un rêve dangereux.
Mais l'hégémonie d'outils ultra-intégrés comme Remy pose un défi direct à notre souveraineté numérique.
L'ère de l'IA agentique n'est plus à venir, elle est là. Reste à savoir si nous voulons tenir la barre de nos propres infrastructures, ou nous contenter d'être les passagers confortablement installés de systèmes qui nous échappent.