Le service informatique : là où l’IA va mourir [Ethan Mollick : The Economist 01/04/2026]

Le service informatique : là où l’IA va mourir

Ethan Mollick explique pourquoi les employeurs devraient traiter l’IA pour ce qu’elle est réellement : étrange

Illustration : Dan Williams – 1er avril 2026 – Temps de lecture : 5 minutes

The IT department_ Where AI goes to die_Fr

The IT department_ Where AI goes to die

Un système conçu pour prédire le mot le plus probable suivant dans une phrase peut aussi écrire du code informatique de qualité, proposer des conseils stratégiques et répondre avec une empathie remarquable à des problèmes humains. Nous ne comprenons pas entièrement pourquoi. Pourtant, l’instinct dominant dans le monde de l’entreprise est de traiter l’intelligence artificielle comme un simple logiciel de gestion : l’intégrer dans les processus existants, lui assigner des indicateurs de performance (KPI) et la confier au service informatique pour qu’il la gère.

C’est une erreur stratégique profonde. Les entreprises s’efforcent de « dés-étrangifier » l’IA et, ce faisant, dilapident ce qui fait son caractère transformateur, la réduisant à une nouvelle vague d’automatisation des tâches de bureau. Soyons clairs : rendre l’IA facile à utiliser est important, et l’intégrer dans des outils et des flux de travail familiers relève d’une ingénierie intelligente. L’erreur consiste à laisser ces interfaces lisses aplatir votre compréhension des possibilités réelles de la technologie.

L’envie de dés-étrangifier est compréhensible. Les dirigeants sont formés à normaliser les nouvelles technologies et à les faire entrer dans des catégories connues. L’IA devient alors un moteur de logique floue intégré dans un processus ou un outil qui fait gagner quelques minutes sur une tâche. Une technologie « normale » appelle des plans de déploiement « normaux », comme exiger que 90 % des employés utilisent chaque semaine un nouveau logiciel.

Mais que se passe-t-il lorsque l’on fixe cet objectif pour l’IA ? Les employés l’utilisent pour transcrire des réunions ou pour produire un flot incessant de « bouillie de travail » sous forme de dizaines de mémos ou de présentations PowerPoint supplémentaires. Traiter cette technologie comme un simple déploiement logiciel revient à recevoir un mystérieux artefact extraterrestre et à l’utiliser immédiatement comme presse-papiers.

Cette volonté de dés-étrangifier produit un second échec, plus profond encore : elle conduit les entreprises à privilégier l’automatisation plutôt que l’augmentation des capacités humaines. Lorsque les dirigeants voient des études annonçant des gains de productivité de 30 % grâce à l’IA, leur réflexe est de supprimer 30 % des effectifs. L’arithmétique est simple. Ce qui est difficile — et demande une véritable imagination —, c’est de se poser une autre question : que signifie reconstruire une organisation autour du fait qu’un seul développeur peut désormais écrire cent fois plus de code ? Quels nouveaux produits deviennent possibles ? Quels nouveaux marchés s’ouvrent ?

Aucun éditeur ne peut répondre à ces questions pour vous. Aucun cabinet de conseil ne dispose d’un mode d’emploi (même s’ils prétendent parfois le contraire). Le travail stratégique difficile consistant à réinventer ce que votre organisation pourrait devenir est précisément ce que la dés‑étrangification de l’IA permet d’éviter.

Et il existe un endroit naturel où l’IA dés‑étrangifiée va mourir : le service informatique. Ce n’est pas une critique envers les professionnels de l’IT, qui accomplissent un travail essentiel. Mais, dans la plupart des entreprises, leur mission est de minimiser les risques. S’ils pouvaient vous retirer vos claviers, ils dormiraient mieux la nuit. Chaque acte créatif réalisé par un employé sur un ordinateur rend potentiellement l’entreprise vulnérable. L’IA, au contraire, exige que les organisations acceptent le risque en expérimentant largement, en tolérant l’échec et en acceptant que personne ne sache encore quelle est la bonne manière d’utiliser ces outils. Confier le contrôle exclusif de l’IA à un département dont la mission fondamentale est l’élimination des risques relève d’une erreur de catégorie.

Que devraient donc faire les entreprises à la place ? Dans mes travaux sur le sujet, j’en suis venu à défendre un modèle en trois volets : Leadership, la Foule et le Laboratoire.

Le Leadership suppose que l’impulsion vienne du sommet. Le PDG et les autres dirigeants ne peuvent déléguer la stratégie IA au management intermédiaire ou à l’IT. Ils doivent formuler une vision de la manière dont l’IA transforme ce que l’organisation est, et pas seulement la façon dont elle fonctionne, et créer des incitations rendant l’expérimentation sans danger. Ils doivent aussi montrer l’exemple en utilisant eux‑mêmes ces systèmes.

S’ils le font, ils peuvent inspirer la Foule, c’est‑à‑dire les employés de l’entreprise, qui, lorsqu’ils disposent d’outils d’IA et d’une véritable autorisation d’expérimenter, découvriront des cas d’usage auxquels même les entreprises d’IA n’avaient pas pensé. Comme l’IA est la plus efficace entre les mains d’experts, c’est au sein de cette foule que naissent les meilleures idées.

Ces idées sont ensuite transmises au Laboratoire, où une équipe d’employés techniques et non techniques travaille à plein temps sur l’IA générative. Leur rôle est de repousser les limites, de développer de nouveaux modes de travail et de diffuser leurs découvertes dans toute l’organisation. Je suis stupéfait de constater combien de grandes entreprises n’ont toujours rien de tel. Sans cela, elles n’ont aucun moyen d’apprendre concrètement ce que l’IA peut faire pour elles. Elles avancent à l’aveugle, se fiant aux démonstrations des fournisseurs et aux conférences, plutôt que de construire un savoir organisationnel.

Il existe encore un autre problème, peut-être le plus lourd de conséquences, engendré par la dés‑étrangification. Lorsque les entreprises ne créent pas les bonnes incitations, les employés réagissent de façon rationnelle : ils cachent leur usage de l’IA. Certains craignent des sanctions. D’autres ne croient pas que les gains de productivité leur seront partagés plutôt que captés par l’entreprise. Certains travaillent discrètement 90 % de moins et ne voient aucune raison de le signaler. Il en résulte un énorme déficit d’information. Les managers ne peuvent pas percevoir l’impact réel que l’IA a déjà à l’intérieur de leur propre organisation, ce qui rend l’élaboration d’une véritable stratégie encore plus difficile.


IA étrange, la scène est à vous

Résister à la tendance à la dés‑étrangification ne garantit pas que l’IA apportera de bons résultats. Il n’existe pas d’issue positive par défaut. Mais ne pas voir l’IA pour ce qu’elle est — une technologie profondément étrange, risquée et puissante — garantit, en revanche, de mauvais résultats. Les entreprises qui polissent les aspérités de l’IA se dirigeront vers l’automatisation et les licenciements, car c’est tout ce qu’elles sauront envisager. Celles qui acceptent d’affronter la technologie de front peuvent découvrir quelque chose de bien plus intéressant : des moyens d’aider leurs collaborateurs, et leurs organisations, à devenir capables de choses qui étaient impossibles il y a un an et impossibles à prédire pour l’an prochain. Personne ne sait exactement où tout cela nous mènera. Mais on ne s’aventure pas sur un territoire inconnu en prétendant que les anciennes cartes feront l’affaire. ■

Ethan Mollick est professeur associé à la Wharton School et auteur de « Co‑Intelligence : vivre et travailler avec l’IA ».