Repenser l’intégration de l’intelligence artificielle dans les organisations: une approche centrée sur les réalités métier
Repenser l’intégration de l’intelligence artificielle dans les organisations : une approche centrée sur les réalités métier Publié par Pedro Gomes Lopes le 30 mars 2025 Figure héritée du « transmetteur du feu », Prométhée est surtout connu pour avoir dérobé le feu sacré de l’Olympe pour en faire don aux humains. Courroucé par cet acte déloyal, Zeus le condamne à être attaché à un rocher sur le mont Caucase, son foie dévoré par l’Aigle du Caucase chaque jour, et repoussant la nuit. Par Pedro Gomes Lopes, directeur conseil et doctorant à l’Ecole Polytechnique et Quentin Panissod, directeur conseil Intelligence Artificielle Introduction – Une question simple, des enjeux complexes « Pensez-vous que l’IA pourrait vous aider dans votre métier ? » Posée ainsi, cette question semble anodine. Pourtant, elle ouvre un vaste champ de réflexion. Derrière les promesses technologiques de l’IA – productivité, efficacité, contrôle, personnalisation – se dessinent des tensions profondes : entre attentes et faisabilité, entre injonctions à innover et besoins réels du métier, entre imaginaires projetés et expériences vécues. Dans ce billet, nous nous appuyons sur le schéma du “Guide premiers pas IA”, conçu comme un outil de médiation, pour explorer les conditions d’un déploiement réfléchi et situé de l’IA dans les organisations. Cette réflexion s’inscrit dans la continuité de nos travaux sur l’intelligence artificielle, ses imaginaires et les conditions pour concevoir et utiliser cette technologie de manière réellement responsable. L’IA ne doit pas être un point de départ, mais un prétexte à la réflexion L’une des erreurs les plus fréquentes dans les projets d’IA consiste à traiter la technologie comme une solution en quête de problèmes à résoudre. Le “Guide Premiers Pas IA”, conçu comme une démarche dialogique, commence ainsi par une question simple mais fondamentale : “Pensez-vous que cela pourrait vous aider dans votre métier ?” Cette entrée en matière engage les professionnels dans une posture réflexive. Elle les pousse à expliciter les dimensions de leur activité qu’ils souhaiteraient préserver, automatiser ou transformer. Ce questionnement renverse la logique d’implémentation descendante et place les acteurs de terrain au cœur de la conception et de la démarche du projet. En adoptant une posture de responsabilité, vous renforcez aussi les chances d’adoption de vos nouveaux logiciels à base d’IA. Point de vigilance : l’appropriation de l’IA ne peut être réduite à une logique d’acculturation technique. Elle suppose un travail de mise en récit des usages potentiels qui soit connectée aux réalités et besoins du terrain. Conclusion : Plutôt que d’engager des projets IA en réponse à des promesses venues de toutes parts, il est essentiel de créer des espaces d’interrogation authentique au sein des équipes. Ce détour réflexif permet de reconnecter la technologie aux réalités du travail et d’éviter les écueils d’une innovation hors-sol, en posant d’emblée la question du sens. L’arrivée de l’IA comme révélateur des imaginaires professionnels et des tensions liées aux nouvelles technologies dans les organisations L’IA n’arrive pas dans un vide. Elle s’introduit dans des mondes professionnels structurés, porteurs d’imaginaires propres sur ce que signifie bien faire son travail, sur le rôle du jugement humain, sur la temporalité ou la place des relations humaines. Ces imaginaires, loin d’être anecdotiques, influencent fortement les conditions d’adoption ou de rejet de l’IA. Comme le rappelle Quentin Panissod (FP21, 2025), l’IA est parfois mobilisée davantage pour “incarner une posture politique de modernisation” que pour résoudre des problèmes concrets liés au travail de tous les jours. Ce décalage entre l’intention stratégique descendante et les pratiques de terrain crée des dissonances qu’il convient de prendre au sérieux si on ne veut pas gaspiller de précieuses ressources qui auraient pu être employées par ailleurs. Conseil pour conduire le changement : organiser des ateliers narratifs ou des entretiens exploratoires pour recueillir les représentations de l’IA des salariés, positives comme négatives, évaluer le chemin à parcourir entre la culture d’entreprise et les nouvelles valeurs portées par cette technologie, penser la conduite du changement en intégrant le chemin à parcourir pour résorber la distance culturelle. Conclusion : Explorer l’IA, c’est aussi faire émerger les valeurs implicites qui sous-tendent les métiers. Ces imaginaires doivent être reconnus comme des ressources pour guider les choix technologiques. Ne pas les intégrer, c’est risquer de produire des fractures culturelles et un rejet silencieux ou non de l’innovation. L’innovation responsable : un cadre d’analyse pour guider l’action Dans notre recherche (Vuarin, Gomes Lopes & Massé, 2023), nous avons analysé la multiplication des concepts éthiques liés à l’IA et leur contribution à une démarche d’innovation responsable : IA explicable, IA juste, IA durable, etc. Si cette profusion traduit une volonté d’encadrer le développement de l’IA, elle soulève une difficulté majeure : la plus ou moins faible articulation entre ces concepts et les réalités organisationnelles. Nous proposons d’évaluer ces approches à partir du concept de “performativité” : dans quelle mesure les concepts éthiques deviennent-ils des leviers réels de transformation des pratiques ? Cela suppose l’activation d’une “boucle performative” entre : Un concept porteur de sens (ex : “IA digne de confiance”), Des acteurs identifiés qui s’en emparent et qui le défendent, Des dispositifs techniques et organisationnels qui l’opérationnalisent. Exemple concret : tout au long des projets d’innovation avec l’IA, en parallèle du développement technologique, nous recommandons de penser et de mettre en œuvre un comité d’éthique IA (acteur) qui s’appuie sur une charte de principes (concept) afin de guider l’innovation dans une démarche responsable (AI for good par exemple) dès la phase de conception et éviter les risques éthiques, de non-adoption, de notoriété, etc. qui pourront arriver en exploitation. Conclusion : La responsabilité ne s’improvise pas. Elle se structure à travers des boucles réflexives et des dispositifs concrets. Ce n’est qu’en liant les concepts (justice, transparence, etc.), les acteurs qui les portent, et les outils (chartes, comités, audits, xAI, etc.) que l’IA peut devenir un levier d’action durable et alignée sur les finalités sociales. Le secteur public : un exemple de terrain d’expérimentation sous contraintes Les administrations publiques offrent un terrain d’expérimentation riche mais exigeant pour l’IA. Comme le souligne Pedro Gomes Lopes …