Budget 2026 – Des briques d’IA mais quelle boîte de LEGO ?


Alors que l’Intelligence Artificielle continue à se développer de façon exponentielle, les entreprises, quelles que soient leurs activités semblent courir après le temps. L’I.A. est partout et chacun veut avoir sa part du gâteau.

Les éditeurs SaaS mettent les bouchées doubles pour être parmi eux qui auront la meilleure offre technologique ; les standards eux-mêmes se mettent aussi à la page, comme le montre la future version ITIL5 ; les intégrateurs multiplient les actions de formation autour des outils d’IA. ; les entreprises de leur côté souhaite être les premières à les mettre en œuvre.

Cependant, ne confondons nous pas vitesse et précipitation ?

Les outils d’I.A. comme des briques de LEGO

Ce rapprochement a été fréquemment proposé dans différents articles de références. Le côté modulaire de l’Intelligence Artificielle est fréquemment mis en avant dans ses qualités intrinsèques. A l’instar de la célèbre brique, qui permet à chaque pièce d’être compatible avec les autres, les I.A. peuvent interopérer en s’appuyant sur des APIs.

Elles ont des capacités qui, en cumulé, sont de réels accélérateurs opérationnels :

  • Le NLU (Natural Language Undertanding) est la brique qui va permettre de comprendre l’intention derrière les mots,
  • Le LLM (Large Language Model) va permettre de construire la réponse
  • Le RAG (Retrieval-Augmented Generation) permettra de se référer à VOS données pour éviter le phénomène d’hallucination.

Si vous vous posez la question de l’hallucination, je l’aborderai assez simplement en comparant l’I.A. à un élève qui n’a pas la réponse. Plutôt que de dire qu’il ne peut vous répondre, il donnera la réponse la plus statistiquement probable… Au risque de faire un contre-sens. Bien entendu, ce n’est pas une volonté de mensonge : plutôt une impossibilité pour elle de ne pas donner de réponse.

Pour conclure sur cette partie, l’architecture modulaire de l’I.A. présente des similitudes avec les jeux de LEGO, comme leurs implémentations dans les organisations peuvent aussi s’y référer.

Un outil d’expérimentation, pour un risque de dette technique

Je pense que nous nous souvenons toutes et tous de la première boîte que nous avons reçu. Nous l’avons ouverte, nous avons testé les imbrications, les couleurs. Nous avons fait des tours, des maisons, des objets qui ne ressemblaient à rien.

C’est un des principaux risques que nous avons autour du développement et du déploiement des outils de GenIA : décider d’acheter la boîte de LEGO avant de savoir qu’en faire, de dépenser des sommes assez conséquentes sans mesurer les usages.

Alors, on va se le dire, il est totalement intéressant d’avoir notre fameuse caisse pour expérimenter, tester et de ces tentatives pourront naître les usages. Pour faire simple, ne tombons pas dans le piège de je dois connaître l’usage pour avoir l’outil non plus.

Pour autant, cette question de la gouvernance de l’expérimentation est importante. Acheter une boîte de LEGO « généraliste » pour s’entraîner avant d’acheter le Millenium Falcon est totalement pertinent. Je me souviens aussi m’être retrouvé « bloqué » dans la construction d’un nouvel objet parce qu’une partie des pièces nécessaires étaient utilisées dans une construction expérimentale !

Vous pourriez penser que la gouvernance est un frein et qu’en 2026, l’agilité prime sur le plan et que du chaos naîtra la solution. C’est tellement séduisant mais tellement risqué ! Sans cadre, l’expérimentation devient un gouffre financier et une impasse technique. La vraie agilité n’est pas de courir sans plan, c’est de construire des fondations assez solides pour pouvoir pivoter sans tout casser.

Le risque derrière est d’avoir un outil qui se développe sans aucun contrôle, sans aucune gouvernance, entraînant un risque de perte de sens, de lassitude de la part des utilisateurs et surtout de dette technique (pour continuer l’analogie, un tas de briques que personne n’ose démonter). Gardez en tête que le coût du re-do reste important et que l’AI Act, ainsi que les réglementations européennes peuvent mener à des amendes sévères si la « chaos créatif » n’est pas suffisamment contrôlé.

Connaître les limites pour un usage sain et raisonnable

Si je devais prendre l’exemple sur les limites et l’importance de la gouvernance associée, je parlerai d’une présentation que j’ai pu voir autour de l’IA et d’un cas d’usage.

La présentation s’appuyait sur un cas d’usage d’une collaboratrice qui voudrait en savoir plus sur les droits associés à la maternité. Elle s’adresse à l’IA de son entreprise qui lui partage un certain nombre d’informations pratiques… Et qui en profite, du fait des questionnements, pour prévenir les RH qui pourraient l’aider. On est tous d’accord que cette dernière partie, sur la base d’une volonté bienveillante peut se révéler dangereuse.

Alors, loin d’une technophobie ou d’une volonté de minimiser les apports de l’IA, que j’utilise moi-même, il me semble indispensable que notre réflexion pour le développement de l’IA en entreprise s’appuie sur des leviers de gouvernance forts :

  • Quels sont les cas d’usage qui apportent de la valeur réelle ?
  • Quelles sont les limites à la mise en place ?
  • Quels contrôles pour s’assurer de la bonne réponse aux sollicitations ?

En guise de conclusion

Avant de vous laisser mijoter sur ces quelques phrases, je voulais rappeler que d’autres questions doivent venir titiller vos décisions d’investissement et orienter votre stratégie. Je vais vous en partager 3 complémentaires :

  • La maintenance opérationnelle : contrairement aux briques de LEGO, qui restent sous une forme constante et depuis de très nombreuses années, les IA évoluent en permanence. Leur Maintien en Conditions Opérationnelles a un coût qui n’est pas négligeable. Associé au fait que de nombreux modèles de facturation sont à la transaction, avec des coûts pas toujours maîtrisables ;
  • La qualité des données : s’il est vrai qu’il est possible de s’appuyer sur les données propres à l’organisation, cela ne garantit pas la qualité des résultats. Si la base n’est pas saine, la réponse sera alignée sur la base. Une information fausse reste toujours plus dangereuse qu’une information manquante,
  • La souveraineté des données : sujet éminemment d’actualité au vu de la réalité géopolitique actuelle, il doit entrer fortement en ligne de compte dans les prises de décision… Quitte à aggraver le coût.

Et vous, quelles sont vos leviers de décisions et points d’attention ?


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

This site uses Akismet to reduce spam. Learn how your comment data is processed.