Vérité et intelligence artificielle : ce que les dirigeants doivent retenir de l’intervention de Jacques Pommeraud à Big 2025

Le 23 septembre 2025, sur la scène Bang du salon Big 2025, Jacques Pommeraud, président‑directeur général du groupe Inetum, a consacré son intervention à un thème aussi simple qu’explosif : la « vérité » à l’ère de l’intelligence artificielle. Derrière ce mot en apparence philosophique, il a repositionné un sujet très concret pour les entreprises : la confiance.

Dans un contexte où les modèles d’IA générative s’invitent dans tous les métiers, la question n’est plus seulement de savoir ce que l’IA est capable de produire, mais dans quelle mesure les dirigeants et leurs équipes peuvent s’y fier. Biais algorithmiques, hallucinations, usages malveillants : ces risques ne sont plus théoriques, ils sont opérationnels. Pour y répondre, Jacques Pommeraud appelle à une posture aussi lucide qu’ambitieuse : sceptique, responsable, et ancrée dans les valeurs de l’entreprise.

Pourquoi la « vérité » de l’IA devient un enjeu stratégique pour les dirigeants

Pendant longtemps, l’IA a été abordée sous l’angle de la performance : gains de productivité, automatisation, nouveaux services. Désormais, un autre axe s’impose : la qualité et la fiabilité des réponses produites, autrement dit la capacité des systèmes d’IA à se rapprocher d’une forme de vérité opérationnelle, exploitable par les métiers.

Pour un dirigeant, cette « vérité » n’est pas un absolu philosophique : c’est la cohérence entre trois dimensions:

  • La réalité des données utilisées et leur représentativité.
  • Les objectifs business poursuivis par le projet IA (efficacité, satisfaction client, réduction des risques, etc.).
  • Les valeurs de l’organisation (respect, équité, transparence, responsabilité, conformité…).

Lorsque ces trois dimensions s’alignent, la confiance dans l’IA devient un actif stratégique: les collaborateurs osent l’utiliser, les clients acceptent d’y être exposés, les régulateurs voient l’entreprise comme un acteur responsable. À l’inverse, une IA perçue comme opaque ou risquée devient un frein à l’adoption et à l’innovation.

Des risques bien réels : biais, hallucinations, usages malveillants

Sur scène, Jacques Pommeraud a insisté sur trois familles de risques qui doivent être prises au sérieux par les décideurs. Ils ne sont pas nouveaux dans la littérature sur l’IA, mais ils prennent une ampleur inédite avec la généralisation des modèles génératifs.

Biais algorithmiques : quand la donnée déforme la réalité

Un biais algorithmique apparaît lorsque les données ou les modèles reflètent de manière déséquilibrée une partie de la réalité. Cela peut concerner :

  • Des biais démographiques (genre, âge, origine, territoire…).
  • Des biais économiques (sur-représentation de certains secteurs ou comportements clients).
  • Des biais métiers (un historique de décisions internes déjà biaisé, que l’IA vient amplifier).

Pour une entreprise, les conséquences peuvent être lourdes :

  • Décisions injustes (recrutement, scoring crédit, tarification, priorisation de dossiers…).
  • Atteinte à l’image de marque si des cas flagrants sont révélés publiquement.
  • Risques juridiques et réglementaires en cas de discrimination avérée.

Du point de vue stratégique, la bonne nouvelle est que la lutte contre les biais peut devenir un avantage compétitif: les organisations qui investissent dans des données mieux gouvernées, des audits réguliers et des équipes pluridisciplinaires (tech, juridique, métier, RH) bâtissent des systèmes plus justes et plus robustes.

Hallucinations de modèles : quand l’IA invente avec aplomb

Les modèles d’IA générative peuvent produire des réponses fausses, mais formulées avec une grande assurance. On parle alors d’« hallucinations ». Cela peut se traduire par :

  • Des références inventées (sources, dates, noms, citations).
  • Des interprétations erronées de données métiers.
  • Des conseils inapplicables, voire dangereux dans certains contextes sensibles.

Pour les entreprises, le risque est double :

  • En interne, des décisions prises sur de fausses informations si les collaborateurs ne remettent pas en question la réponse de la machine.
  • En externe, une perte de crédibilité si des contenus générés automatiquement se révèlent inexacts ou trompeurs aux yeux des clients ou partenaires.

D’où l’importance de ne pas traiter l’IA comme un oracle, mais comme un assistant puissant, intrinsèquement faillible. La capacité à détecter, encadrer et corriger les hallucinations devient un pilier de la confiance.

Usages malveillants : quand la technologie démultiplie les attaques

Enfin, Jacques Pommeraud a rappelé que l’IA peut être utilisée de manière délibérément malveillante:

  • Création de faux contenus crédibles (deepfakes, faux e-mails, faux documents, faux profils).
  • Automatisation et personnalisation de tentatives de fraude ou de phishing.
  • Exploitation de modèles internes pour exfiltrer des informations sensibles si les accès ne sont pas sécurisés.

Ces usages malveillants imposent une vision élargie de la cybersécurité : il ne s’agit plus seulement de protéger les systèmes et les données, mais aussi les modèles d’IA eux-mêmes, leurs interfaces et leurs usages.

Risque IAImpact potentielRéponse stratégique
Biais algorithmiquesDécisions injustes, atteinte à l’image, risque de non‑conformitéGouvernance des données, audits réguliers, équipes pluridisciplinaires
HallucinationsInformations fausses, décisions erronées, perte de crédibilitéProcessus de validation humaine, limites d’usage, formation des équipes
Usages malveillantsFraudes, manipulation, fuite de données, crise de réputationRenforcement de la cybersécurité, contrôle des accès, veille et sensibilisation

Adopter une posture sceptique : réhabiliter le « je ne sais pas »

Face à ces risques, l’un des messages forts de Jacques Pommeraud est l’appel à réhabiliter le « je ne sais pas ». Dans des organisations habituées à valoriser les réponses rapides et affirmées, cette posture peut sembler contre‑intuitive. Pourtant, elle est essentielle pour instaurer une relation saine à l’IA.

Concrètement, cela veut dire encourager :

  • Des équipes capables de dire : « Le modèle propose cela, mais je ne suis pas sûr, je vais vérifier. »
  • Des managers qui acceptent que le doute fasse partie du processus de décision lorsqu’une recommandation est issue d’un système automatisé.
  • Des projets IA conçus avec des mécanismes explicites de revue humaine, surtout sur les décisions à fort impact.

Loin de freiner l’innovation, cette culture du doute constructif permet de :

  • Réduire les erreurs graves avant qu’elles ne se transforment en incidents visibles.
  • Renforcer la confiance des collaborateurs qui se sentent autorisés à questionner l’outil.
  • Piloter l’IA comme un levier stratégique, et non comme une boîte noire incontrôlable.

Pour les dirigeants, le message est clair : la confiance dans l’IA ne vient pas d’une foi aveugle dans la technologie, mais de la combinaison d’un scepticisme assumé et d’une gouvernance solide.

Mettre la confiance au coeur de la stratégie IA de l’entreprise

Au‑delà du constat, l’intervention de Jacques Pommeraud invite les entreprises à structurer leurs projets IA autour de quelques axes clés : valeurs, gouvernance, transparence, et alignement métier. Ce sont ces piliers qui transforment un sujet technique en avantage stratégique durable.

1. Clarifier la finalité et les valeurs de vos projets IA

Avant même de choisir une technologie ou un modèle, une question doit être posée : « Pourquoi voulons‑nous déployer cette IA, et selon quelles valeurs ? »

Quelques points de passage utiles pour un comité de direction :

  • Définir la finalité principale: améliorer l’expérience client, augmenter la productivité, réduire les risques, soutenir la décision, etc.
  • Identifier les principes non négociables: équité, non‑discrimination, respect de la vie privée, transparence minimale à garantir aux utilisateurs.
  • Traduire ces principes en critères concrets: quels types de données ne seront jamais utilisés, quels usages sont proscrits, quels seuils de performance ou de risque sont acceptables.

Lorsque ces éléments sont explicites, ils servent de boussole pour orienter les produits, la communication et la conformité. L’IA n’est plus un bloc technique ajouté à la marge, mais un prolongement cohérent de la stratégie d’entreprise.

2. Renforcer la gouvernance et l’éthique de l’IA

La gouvernance ne doit pas être perçue comme un frein, mais comme le cadre qui permet à l’IA de se déployer à grande échelle sans casser la confiance. Quelques leviers concrets :

  • Mettre en place une instance de gouvernance de l’IA (comité IA, comité éthique, etc.) rassemblant métiers, IT, juridique, conformité, RH.
  • Définir des règles d’engagement: qui peut lancer un projet IA, selon quel processus de validation, avec quels garde‑fous.
  • Prévoir des revues régulières des modèles en production : performance, biais, incidents, retours des utilisateurs.
  • Documenter les projets (données utilisées, objectifs, limites connues) pour renforcer la traçabilité.

Dans un environnement réglementaire qui se structure autour de l’IA, cette gouvernance permet aussi de préparer l’entreprise aux exigences de conformité et de dialoguer plus sereinement avec les autorités, les clients et les partenaires.

3. Outiller la transparence et l’explicabilité

Pour bâtir la confiance, il ne suffit pas d’annoncer que l’IA est « fiable » : il faut donner aux utilisateurs, internes comme externes, la capacité de comprendre ce qu’elle fait, dans une mesure adaptée à leur rôle.

Quelques pistes opérationnelles :

  • Proposer des explications simples sur les recommandations clés de l’IA (facteurs pris en compte, niveau de confiance, alternatives possibles).
  • Afficher clairement les limites d’usage: dans quels cas le modèle ne doit pas être utilisé seul, quand l’avis d’un expert est indispensable.
  • Fournir des interfaces de retour permettant aux utilisateurs de signaler une erreur, un biais, une réponse inadaptée.

Cette transparence ne consiste pas forcément à dévoiler toute la complexité technique, mais à donner des points d’appui concrets pour un usage éclairé. C’est un puissant facteur d’appropriation et de responsabilité partagée.

4. Surveiller en continu les performances et les dérives

Un modèle d’IA n’est pas figé : les données, les usages et les contextes évoluent. La vérité d’hier peut devenir l’erreur de demain. D’où l’importance d’une surveillance continue.

Pour les dirigeants, cela implique d’exiger des équipes IA :

  • Des indicateurs de performance suivis dans le temps (précision, taux d’erreurs, temps de réponse, etc.).
  • Des indicateurs de risque (signaux de biais, augmentation des contestations utilisateurs, incidents déclarés).
  • La capacité à corriger ou désactiver rapidement un modèle en cas de dérive avérée.

Cette logique de « monitoring » rapproche l’IA d’autres fonctions critiques de l’entreprise (cybersécurité, finance, opérations) : on ne s’y fie pas par principe, on s’y fie parce qu’on la mesure, la pilote et la corrige.

IA, communication et conformité : aligner le discours et les pratiques

L’un des apports majeurs de la vision défendue par Jacques Pommeraud est de rappeler que l’IA ne concerne pas seulement la DSI ou les data scientists. Elle impacte aussi la communication externe, la marque employeur et la relation avec les régulateurs.

Ancrer les messages dans la réalité des projets

Pour rester crédible, la communication sur l’IA doit être :

  • Factuelle: décrire clairement ce que fait l’IA, sans exagération ni dramatisation.
  • Honnête sur les limites: reconnaître qu’un système peut se tromper et expliquer comment l’entreprise gère ces erreurs.
  • Cohérente avec les valeurs affichées: si l’on prône l’éthique, il faut pouvoir illustrer cette ambition par des processus concrets.

En alignant le discours sur la réalité des pratiques, l’entreprise renforce sa légitimité auprès de ses clients, de ses talents et de ses partenaires. La vérité, ici, devient un véritable levier de différenciation.

Faire de la conformité un catalyseur, pas un obstacle

Les cadres réglementaires autour de l’IA et des données imposent des exigences fortes. Mais plutôt que de les subir, les organisations peuvent les transformer en accélérateur de maturité:

  • En structurant leur cartographie des systèmes d’IA et de leurs risques associés.
  • En documentant dès le départ les projets pour faciliter les audits et les échanges avec les autorités.
  • En intégrant les contraintes légales dans la conception même des solutions, plutôt qu’en fin de parcours.

Cette approche « by design » permet d’éviter les retours en arrière coûteux et de montrer que l’entreprise ne cherche pas seulement à être conforme, mais à être exemplaire.

Plan d’action pour les dirigeants : passer de la prise de conscience à l’exécution

L’intervention de Jacques Pommeraud sur la scène Bang de Big 2025 offre un cadre intellectuel puissant, mais son intérêt maximal réside dans sa traduction opérationnelle. Voici un plan d’action synthétique pour les comités de direction et les décideurs métiers.

Étape 1 : Faire un état des lieux honnête de vos usages d’IA

  • Recenser les projets et outils d’IA déjà déployés ou en cours.
  • Identifier les usages critiques (impact fort sur les clients, la réputation, les décisions sensibles).
  • Évaluer rapidement le niveau de maîtrise: données, biais potentiels, gouvernance, documentation.

Étape 2 : Définir votre boussole de confiance

  • Clarifier au niveau du comité exécutif les valeurs que vos IA ne doivent jamais trahir.
  • Fixer des principes directeurs (par exemple : validation humaine obligatoire au‑delà d’un certain seuil d’impact).
  • Communiquer ces principes en interne pour aligner tous les projets.

Étape 3 : Installer une gouvernance IA transverse

  • Nommer des référents IA dans les principales directions métiers.
  • Mettre en place un comité chargé de valider, prioriser et suivre les projets IA.
  • Définir des processus de revue pour les modèles en production (performance, biais, incidents).

Étape 4 : Outiller et former les équipes

  • Former les collaborateurs à l’usage responsable de l’IA: bénéfices, risques, bonnes pratiques.
  • Mettre à disposition des guides d’utilisation clairs pour les assistants ou agents IA internes.
  • Encourager la culture du « je ne sais pas » et du questionnement constructif.

Étape 5 : Mesurer, ajuster, communiquer

  • Définir des indicateurs de succès (ROI, adoption, satisfaction, incidents évités, etc.).
  • Ajuster régulièrement les modèles et les processus à partir du retour d’expérience.
  • Partager en interne et en externe vos succès et vos apprentissages pour renforcer la confiance dans votre démarche.

En conclusion : une IA puissante, mais sous condition de vérité

En plaçant la « vérité » au coeur de son intervention à Big 2025, Jacques Pommeraud rappelle une évidence que l’enthousiasme technologique a parfois tendance à faire oublier : une IA n’a de valeur stratégique que si l’on peut lui faire confiance. Cette confiance ne se décrète pas, elle se construit.

Pour les dirigeants, trois convictions se dégagent :

  • Reconnaître les risques (biais, hallucinations, usages malveillants) n’est pas du pessimisme, c’est le point de départ d’une exploitation sereine de l’IA.
  • Adopter une posture sceptique et responsable, qui réhabilite le « je ne sais pas », protège les décisions clés et encourage l’intelligence humaine autant que l’intelligence artificielle.
  • Ancrer chaque projet IA dans des valeurs claires et une gouvernance solide, pour aligner technologie, business, communication et conformité.

Les entreprises qui sauront conjuguer puissance de l’IA et exigence de vérité ne seront pas seulement celles qui iront le plus vite, mais celles qui iront le plus loin, avec leurs collaborateurs, leurs clients et la société. C’est là que se joue, désormais, la véritable compétition.

Most current publications

jpg-consultants.fr