Repenser l’intégration de l’intelligence artificielle dans les organisations: une approche centrée sur les réalités métier

Figure héritée du « transmetteur du feu », Prométhée est surtout connu pour avoir dérobé le feu sacré de l’Olympe pour en faire don aux humains. Courroucé par cet acte déloyal, Zeus le condamne à être attaché à un rocher sur le mont Caucase, son foie dévoré par l’Aigle du Caucase chaque jour, et repoussant la nuit.

Par Pedro Gomes Lopes, directeur conseil et doctorant à l’Ecole Polytechnique et Quentin Panissod, directeur conseil Intelligence Artificielle

Introduction – Une question simple, des enjeux complexes

« Pensez-vous que l’IA pourrait vous aider dans votre métier ? »

Posée ainsi, cette question semble anodine. Pourtant, elle ouvre un vaste champ de réflexion. Derrière les promesses technologiques de l’IA – productivité, efficacité, contrôle, personnalisation – se dessinent des tensions profondes : entre attentes et faisabilité, entre injonctions à innover et besoins réels du métier, entre imaginaires projetés et expériences vécues.

Dans ce billet, nous nous appuyons sur le schéma du “Guide premiers pas IA”, conçu comme un outil de médiation, pour explorer les conditions d’un déploiement réfléchi et situé de l’IA dans les organisations. Cette réflexion s’inscrit dans la continuité de nos travaux sur l’intelligence artificielle, ses imaginaires et les conditions pour concevoir et utiliser cette technologie de manière réellement responsable.

L’IA ne doit pas être un point de départ, mais un prétexte à la réflexion

L’une des erreurs les plus fréquentes dans les projets d’IA consiste à traiter la technologie comme une solution en quête de problèmes à résoudre. Le “Guide Premiers Pas IA”, conçu comme une démarche dialogique, commence ainsi par une question simple mais fondamentale : “Pensez-vous que cela pourrait vous aider dans votre métier ?”

Cette entrée en matière engage les professionnels dans une posture réflexive. Elle les pousse à expliciter les dimensions de leur activité qu’ils souhaiteraient préserver, automatiser ou transformer. Ce questionnement renverse la logique d’implémentation descendante et place les acteurs de terrain au cœur de la conception et de la démarche du projet. En adoptant une posture de responsabilité, vous renforcez aussi les chances d’adoption de vos nouveaux logiciels à base d’IA.

Point de vigilance : l’appropriation de l’IA ne peut être réduite à une logique d’acculturation technique. Elle suppose un travail de mise en récit des usages potentiels qui soit connectée aux réalités et besoins du terrain.

Conclusion : Plutôt que d’engager des projets IA en réponse à des promesses venues de toutes parts, il est essentiel de créer des espaces d’interrogation authentique au sein des équipes. Ce détour réflexif permet de reconnecter la technologie aux réalités du travail et d’éviter les écueils d’une innovation hors-sol, en posant d’emblée la question du sens.

L’arrivée de l’IA comme révélateur des imaginaires professionnels et des tensions liées aux nouvelles technologies dans les organisations

L’IA n’arrive pas dans un vide. Elle s’introduit dans des mondes professionnels structurés, porteurs d’imaginaires propres sur ce que signifie bien faire son travail, sur le rôle du jugement humain, sur la temporalité ou la place des relations humaines. Ces imaginaires, loin d’être anecdotiques, influencent fortement les conditions d’adoption ou de rejet de l’IA. Comme le rappelle Quentin Panissod (FP21, 2025), l’IA est parfois mobilisée davantage pour “incarner une posture politique de modernisation” que pour résoudre des problèmes concrets liés au travail de tous les jours. Ce décalage entre l’intention stratégique descendante et les pratiques de terrain crée des dissonances qu’il convient de prendre au sérieux si on ne veut pas gaspiller de précieuses ressources qui auraient pu être employées par ailleurs.

Conseil pour conduire le changement : organiser des ateliers narratifs ou des entretiens exploratoires pour recueillir les représentations de l’IA des salariés, positives comme négatives, évaluer le chemin à parcourir entre la culture d’entreprise et les nouvelles valeurs portées par cette technologie, penser la conduite du changement en intégrant le chemin à parcourir pour résorber la distance culturelle.

Conclusion : Explorer l’IA, c’est aussi faire émerger les valeurs implicites qui sous-tendent les métiers. Ces imaginaires doivent être reconnus comme des ressources pour guider les choix technologiques. Ne pas les intégrer, c’est risquer de produire des fractures culturelles et un rejet silencieux ou non de l’innovation.

L’innovation responsable : un cadre d’analyse pour guider l’action

Dans notre recherche (Vuarin, Gomes Lopes & Massé, 2023), nous avons analysé la multiplication des concepts éthiques liés à l’IA et leur contribution à une démarche d’innovation responsable : IA explicable, IA juste, IA durable, etc. Si cette profusion traduit une volonté d’encadrer le développement de l’IA, elle soulève une difficulté majeure : la plus ou moins faible articulation entre ces concepts et les réalités organisationnelles.

Nous proposons d’évaluer ces approches à partir du concept de “performativité” : dans quelle mesure les concepts éthiques deviennent-ils des leviers réels de transformation des pratiques ? Cela suppose l’activation d’une “boucle performative” entre :

  • Un concept porteur de sens (ex : “IA digne de confiance”),
  • Des acteurs identifiés qui s’en emparent et qui le défendent,
  • Des dispositifs techniques et organisationnels qui l’opérationnalisent.

Exemple concret : tout au long des projets d’innovation avec l’IA, en parallèle du développement technologique, nous recommandons de penser et de mettre en œuvre un comité d’éthique IA (acteur) qui s’appuie sur une charte de principes (concept) afin de guider l’innovation dans une démarche responsable (AI for good par exemple) dès la phase de conception et éviter les risques éthiques, de non-adoption, de notoriété, etc. qui pourront arriver en exploitation.

Conclusion : La responsabilité ne s’improvise pas. Elle se structure à travers des boucles réflexives et des dispositifs concrets. Ce n’est qu’en liant les concepts (justice, transparence, etc.), les acteurs qui les portent, et les outils (chartes, comités, audits, xAI, etc.) que l’IA peut devenir un levier d’action durable et alignée sur les finalités sociales.

Le secteur public : un exemple de terrain d’expérimentation sous contraintes

Les administrations publiques offrent un terrain d’expérimentation riche mais exigeant pour l’IA. Comme le souligne Pedro Gomes Lopes (FP21, 2025), la tension entre obligation de résultats et d’autres valeurs telles que la transparence ou le respect des libertés des citoyens y est particulièrement forte.

Trois spécificités doivent être prises en compte pour penser une adoption réussie dans le secteur public:

  • une culture professionnelle ancrée dans le service à l’usager, peu compatible avec des logiques de rationalisation mécanique ;
  • des contraintes juridiques et réglementaires fortes (protection des données, contrôle des l’algorithmes, etc.) ;
  • des capacités techniques et humaines hétérogènes d’une administration à l’autre.

Recommandation : éviter les démarches de “proof of concept” techno-centrées, au profit de cycles itératifs impliquant les agents publics dans un mode de co-construction dès les premières phases. Cela peut se relever plus coûteux à court terme mais économiser beaucoup d’argent public à long terme.

Conclusion : Le secteur public incarne un laboratoire exigeant pour l’IA. Sa complexité juridique, humaine et symbolique impose de sortir d’une logique de démonstration technologique pour privilégier des démarches itératives et participatives. La réussite ne réside pas dans l’adoption de solutions toutes faites, mais dans la co-construction de sens et de valeur publique.

Une démarche pas à pas : vers une exploration responsable de l’IA

Mener des projets d’innovation de manière responsable avec l’IA ne relève pas d’une simple checklist. Cela suppose une progression maîtrisée, articulée autour de moments de doute, d’expérimentation, de reformulation, jusqu’à aboutir à des résultats qui font sens et créent un impact positif sur les organisations et les métiers. Le « Guide Premiers Pas IA« , conçu comme un outil de médiation visuelle et conversationnelle, constitue ici un précieux fil conducteur. Ici nous proposons de structurer cette démarche en six étapes clés, enrichies à partir des matériaux du guide, des retours d’expériences des projets avec nos clients et nos recherches académiques. Ces étapes peuvent être traités au sein d’ateliers dédiés avec les métiers et/ou parties prenantes concernées par la question.


Étape 1 : Instaurer un moment de suspension

Question-clé : Pensez-vous que l’IA pourrait vous aider dans votre métier ?

Objectif : Créer un espace de réflexion libre, sans injonction technologique.

Méthode :

  • Organisation d’un temps collectif de questionnement ouvert (atelier 1h ou 1h30).
  • Animation par une tierce personne (chargé d’innovation, chercheur, facilitateur) pour garantir un cadre non prescriptif.
  • Invitation à exprimer ce que chacun(e) attend (ou redoute) de l’IA.
  • À éviter : Lancer la réunion avec des cas d’usage préétablis ou des outils déjà choisis.
  • Effet attendu : Faire émerger des préoccupations situées dans cas concrets et activer des imaginaires.

Étape 2 : Cartographier les idées d’usage (même vagues)

Invitation : Vous avez des idées d’usages de l’IA ?

Objectif : Valoriser les intuitions, même imprécises, des professionnel(les).

Méthode :

  • Techniques de remue-méninges guidées : “l’IA dans ma journée type”, “ce que j’aimerais qu’un assistant intelligent fasse pour moi”, etc.
  • Classement des idées selon leur proximité avec les tâches réelles.
  • Identification de tensions : entre automatisations possibles et tâches pour lesquelles une évolution est non négociable, entre métier vécu et missions prescrites.
  • À éviter : Chercher la “bonne idée” tout de suite.
  • Effet attendu : Mettre à plat les représentations fonctionnelles et affectives de l’IA.

Étape 3 : Mettre à l’épreuve la valeur ajoutée réelle

Relance : Pensez-vous que cela pourrait vraiment vous aider ?

Objectif : Dépasser l’effet “waouh” pour revenir à l’utilité métier réelle.

Méthode : Analyse en petit groupe de quelques cas concrets : quelles seraient les implications d’un tel usage ?

Introduction de scénarios contrastés : “et si cela fonctionnait mal ?”, “et si cela modifiait vos relations avec les collègues ?”

Utilisation d’outils pour cartographier les tensions à gérer : impacts sur l’autonomie, la qualité, l’éthique, l’identité professionnelle, la nature du travail.

À éviter : Réduire la discussion à un coût/bénéfice technico-économique.

Effet attendu : Dépasser l’effet « waouh » pour avoir une réelle perspective des impacts de la technologie sur l’organisation et le management et imaginer les logiciels d’IA de manière responsable afin de créer de la valeur globale lors de leur déploiement.


Étape 4 : Confronter les promesses à la réalité technologique

Avertissement du guide : Se précipiter est une erreur commune.

Objectif : Évaluer la faisabilité et les implications concrètes des promesses.

Méthode :

  • Réunion exploratoire avec un ou deux interlocuteurs techniques (DSI, prestataire IA, start-up locale).
  • Démonstration de prototypes ou outils existants proches de l’idée formulée.
  • Diagnostic des écarts entre l’usage imaginé et les conditions réelles de mise en œuvre.
  • À éviter : Laisser la technique imposer seule ses normes de faisabilité.
  • Effet attendu : Ouvrir un dialogue entre métiers, stratégie et technologie afin d’avoir une compréhension commune des tenants et aboutissants de ces projets et des usages auxquels ils donnent lieu.

Étape 5 : Expérimenter à petite échelle pour créer des apprentissages utiles

Cadre méthodologique : construire un “bac à sable” de test responsable.

Objectif : Passer du concept à l’expérience sans s’engager sur un déploiement global.

Méthode :

  • Sélection d’un micro-usage testable sur 2 à 4 semaines.
  • Mise en place d’un protocole léger de suivi (journal simplifié des fonctionnalités, cahier de tests, entretiens rapides avec de potentiels utilisateurs, etc.).
  • Organisation d’un retour collectif avec reformulation des attentes : qu’a-t-on appris ? Que retient-on ? Que faut-il abandonner ?
  • À éviter : Imposer des indicateurs prédéfinis ou une grille d’évaluation descendante.
  • Effet attendu : Passer de l’expérimentation à l’apprentissage organisationnel.

Étape 6 : Ouvrir un débat collectif sur le sens du métier et l’avenir du travail

Clé du guide : Ce n’est pas que l’outil, mais la discussion qu’il ouvre et les apprentissages qu’il génère qui comptent.

Objectif : Faire de l’IA un objet-frontière pour questionner les finalités collectives.

Méthode :

  • Organisation d’un séminaire croisé avec des collègues d’autres services.
  • Présentation croisée de plusieurs idées/expériences aux salariés qui n’ont pas participé aux projets, avec un animateur externe ou chercheur.
  • Intégration des questions de responsabilité, d’équité, d’impact environnemental et social, etc.

À éviter : Réduire le débat à un arbitrage budget/efficacité.

Effet attendu : Faire de l’IA un levier de transformation organisationnelle partagée.

Conclusion : L’exploration de l’IA ne peut se résumer à une feuille de route technologique. Elle nécessite un cheminement progressif, qui articule les doutes, les expérimentations locales, et les débats collectifs. En ce sens, le « Guide Premiers Pas IA » n’est pas un outil d’acculturation, mais un déclencheur de transformation organisationnelle centrée sur les métiers et leurs finalités.

Conclusion générale – L’intelligence artificielle comme catalyseur de réflexivité collective

Explorer les usages de l’intelligence artificielle de manière responsable, ce n’est pas simplement tester une technologie prometteuse. C’est accepter de mettre à l’épreuve nos certitudes professionnelles, nos routines organisationnelles et nos représentations du progrès. L’IA, en tant que technologie symboliquement puissante, agit comme un miroir grossissant des tensions qui traversent les organisations : entre efficacité et équité, entre autonomie et contrôle, entre logique métier et logique managériale.

Plutôt que de chercher à “intégrer l’IA” dans les processus existants, il s’agit de reconsidérer ces processus à la lumière de ce que l’IA permet, mais aussi de ce qu’elle menace. Cela suppose de mettre en place des espaces hybrides, mêlant acteurs techniques, acteurs de terrain, décideurs et chercheurs, capables de dialoguer sur les usages souhaitables plutôt que sur les seules performances techniques possibles.

Nous plaidons ainsi pour une gouvernance située de l’IA, fondée sur l’écoute, l’expérimentation, le droit à l’erreur, et la mise en débat des enjeux sociaux et éthiques. L’innovation véritable ne réside pas dans l’adoption de technologies de pointe, mais dans la capacité des organisations à s’interroger collectivement sur leur avenir à travers elles et à agir en conséquence.

En définitive, une IA responsable n’est pas celle qui respecte simplement des normes. C’est celle qui ouvre des possibles sans refermer le débat, qui augmente le pouvoir d’agir sans dissoudre la responsabilité, et qui alimente l’intelligence collective plutôt que de la remplacer.

Pour aller plus loin

Article de recherche : Vuarin, L., Gomes Lopes, P., & Massé, D. (2023). L’intelligence artificielle peut-elle être une innovation responsable ? Innovations, 72(3), 101–129. DOI : 10.3917/inno.072.0101
Livre blanc : FP21 – Fonction publique du XXIe siècle. (2025). Chat GPT ne fera pas le café. Lien PDF

Et vous, prêt à passer à l’action ?

Au-delà de l’ensemble des ateliers décrits ci-dessus, voici quelques leviers concrets pour maitriser et dérisquer vos projets IA & data et les rendre plus responsables:

  • Diag data et IA Bpifrance : ce dispositif co-finance une étude du potentiel data et IA pour les PME.
  • Appels à projets France 2030 : de nombreux appels à projets co-financent des projets d’IA au service de la transition écologique, des projets de communs numériques, etc. Nous avons déjà accompagné une dizaine de clients et partenaires sur des dossiers IA France 2030.
  • Accompagnement à la labellisation numérique responsable : l’ADEME co-finance l’accompagnement de la préparation au label numérique responsable pour les PME.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *