Le 23 septembre 2025, sur la scène Bang de Big 2025, l’événement phare de Bpifrance consacré à l’innovation, à la deeptech et à l’intelligence artificielle, Jacques Pommeraud, président-directeur général du Groupe Inetum, a choisi un thème aussi simple en apparence que décisif pour l’avenir : la vérité.
En quelques minutes seulement, entre 10 h 37 et 10 h 44, son intervention a posé un cadre clair et sans concession : l’IA ouvre des perspectives immenses pour les entreprises, mais elle charrie aussi des risques majeurs. Biais algorithmiques, hallucinations, usages malveillants… autant de menaces qui ne sont plus théoriques. Face à cela, il a défendu une posture rare dans un contexte d’engouement technologique : une attitude sceptique, éthique, fondée sur le courage de dire « je ne sais pas », sur la vérification systématique des sources et sur des valeurs d’entreprise assumées.
Cet article revient sur les grands enseignements que l’on peut tirer de cette prise de parole et les traduit en leviers concrets pour les dirigeants, comités de direction, responsables innovation, data et IT qui souhaitent faire de l’IA un atout fiable, transparent et responsable.
1. Big 2025 et la scène Bang : un contexte ultra-innovant pour parler de vérité
Big 2025 réunit chaque année des milliers d’entrepreneurs, décideurs et experts autour des grands défis économiques, technologiques et sociétaux. En 2025, l’IA, la deeptech, l’innovation industrielle, la transition écologique ou encore les nouveaux modèles de financement sont au cœur du programme.
La scène Bang, où est intervenu Jacques Pommeraud, est dédiée à des prises de parole courtes, percutantes, portées par des décideurs de premier plan : dirigeants de grands groupes, entrepreneurs reconnus, responsables d’institutions… Le thème commun de cette série de talks : la vérité.
Dans un environnement où l’on célèbre volontiers la performance, la vitesse et la disruption, choisir de parler de vérité à propos de l’IA revient à poser une question fondamentale : à quoi sert une technologie si l’on ne peut pas lui faire confiance, ni comprendre sur quoi reposent ses recommandations ou ses décisions ?
2. La vérité à l’ère de l’IA : un enjeu business, pas seulement philosophique
On pourrait croire que la « vérité » relève surtout de la philosophie, de la science ou du débat public. Pourtant, dans un monde où l’IA s’invite dans les décisions opérationnelles, financières, industrielles ou RH, la vérité devient un actif stratégique pour l’entreprise.
Pour un dirigeant, se poser la question de la vérité à l’ère de l’IA, c’est en réalité se poser plusieurs questions très concrètes :
- Peut-on se fier aux réponses et aux recommandations produites par les systèmes d’IA ?
- Comment éviter qu’une décision clé (crédit, recrutement, diagnostic, prévision, tarification) soit fondée sur une donnée fausse ou un raisonnement biaisé ?
- Comment expliquer et assumer, en tant que responsable, une décision dans laquelle une IA a joué un rôle ?
- Comment conserver la confiance des collaborateurs, des clients, des régulateurs et du grand public ?
Derrière ces interrogations se trouve le cœur du message porté sur la scène Bang : l’IA ne dispense pas les organisations d’une exigence de vérité, elle les oblige au contraire à la renforcer.
3. Trois risques majeurs pointés par Jacques Pommeraud
L’intervention de Jacques Pommeraud met en lumière trois catégories de risques qui, pris ensemble, menacent directement la qualité des décisions prises avec ou grâce à l’IA.
3.1. Les biais algorithmiques : des modèles qui amplifient nos angles morts
Un biais algorithmique apparaît lorsque le fonctionnement d’un système d’IA produit systématiquement des résultats défavorables, partiels ou discriminatoires pour certains profils ou certaines situations. Ces biais ne sortent pas de nulle part : ils reflètent et amplifient souvent les biais présents dans les données historiques ou dans la manière dont les modèles ont été conçus et entraînés.
Conséquences possibles pour une entreprise :
- Décisions RH inéquitables (recrutement, promotion, rémunération) qui fragilisent la marque employeur.
- Offres commerciales mal calibrées, qui excluent des segments de clientèle à fort potentiel.
- Décisions de crédit, d’assurance ou de tarification qui créent un risque de discrimination et de contentieux.
- Perte de confiance des collaborateurs et des partenaires face à des décisions jugées opaques ou injustes.
L’enjeu n’est pas seulement moral. Il est aussi économique et juridique : des systèmes biaisés peuvent détruire de la valeur, entraîner des sanctions réglementaires ou nuire durablement à la réputation.
3.2. Les hallucinations d’IA : quand la machine « invente » une vérité crédible mais fausse
Les grands modèles de langage, qui se sont démocratisés en entreprise, ont une propriété essentielle : ils sont conçus pour produire des réponses plausibles, pas pour garantir qu’elles soient exactes. C’est ce que l’on appelle les hallucinations.
Une hallucination se produit lorsque le système génère une réponse :
- factuellement erronée,
- incomplète ou trompeuse,
- ou encore non vérifiable, présentée pourtant avec un haut niveau de confiance apparente.
Dans un contexte professionnel, les conséquences peuvent être sérieuses :
- Documents contractuels ou juridiques comportant des erreurs majeures.
- Analyses de marché ou rapports d’aide à la décision basés sur des données inexistantes.
- Réponses erronées fournies aux clients via un chatbot, avec impact direct sur la satisfaction et la confiance.
C’est ici que l’appel à la vigilance de Jacques Pommeraud prend tout son sens : adopter une posture sceptique, et non de confiance aveugle, est devenu une compétence clé pour tous les utilisateurs d’IA.
3.3. Les usages malveillants : quand l’IA devient un accélérateur de risques
Au-delà des erreurs involontaires, un troisième risque majeur tient aux usages malveillants de l’IA :
- Génération automatisée de faux contenus (deepfakes, faux documents, fausses preuves) pouvant déstabiliser une organisation.
- Automatisation de tentatives de phishing ou de fraudes ciblées, plus sophistiquées et plus difficiles à détecter.
- Exfiltration ou détournement de données sensibles alimentant des modèles non maîtrisés.
Pour les entreprises, l’IA devient alors un enjeu de cybersécurité, de conformité et de gestion de crise. Là encore, la question de la vérité est centrale : comment s’assurer qu’un message, une image, une vidéo, une donnée ou une signature numérique correspondent bien à une réalité vérifiable ?
4. Réhabiliter le « je ne sais pas » : un réflexe sain à l’ère de l’IA
Un des points forts de l’intervention de Jacques Pommeraud est la réhabilitation assumée du « je ne sais pas ». Dans un environnement où tout semble devoir être instantané, où l’IA donne l’illusion de tout savoir, oser dire que l’on ne sait pas est un acte de lucidité et de responsabilité.
4.1. Pourquoi c’est une force, pas une faiblesse
Dire « je ne sais pas » permet :
- d’ouvrir la porte à la vérification, au débat et à la collaboration ;
- d’éviter des décisions hâtives basées sur une seule réponse d’IA ;
- de créer une culture où le doute méthodique est valorisé, plutôt que stigmatisé ;
- de former les équipes à confronter leurs intuitions, leurs expertises et les sorties de l’IA.
Pour un dirigeant, instaurer ce droit, voire ce devoir, de dire « je ne sais pas » face à une réponse générée par une IA, c’est envoyer un message clair : les collaborateurs ne sont pas là pour obéir à la machine, mais pour juger, interpréter, valider, compléter.
4.2. Exemples de bonnes pratiques à diffuser en interne
Concrètement, cela peut se traduire par des réflexes simples à diffuser dans l’organisation :
- Former tous les utilisateurs à considérer toute réponse d’IA comme une hypothèse de travail, jamais comme une vérité définitive.
- Intégrer systématiquement un temps de relecture humaine et de contrôle croisé sur les livrables créés avec l’IA (prévisions, rapports, contenus, décisions automatisées).
- Encourager les questions suivantes : d’où vient cette information, est-elle sourcée, recoupée, datée, cohérente avec ce que nous savons déjà ?
- Valoriser les retours d’expérience où une erreur d’IA a été repérée grâce à l’esprit critique d’un collaborateur.
5. Vérifier les sources : faire de la traçabilité un standard
Autre message clé mis en avant lors de cette intervention : la nécessité de vérifier les sources. À l’ère de l’IA générative, la frontière entre production de contenu et vérification de l’information doit être clairement redessinée.
5.1. Séparer la génération de contenu de la validation
Une bonne pratique structurante consiste à distinguer deux étapes :
- Étape 1 : génération par l’IA d’une première version, d’un brouillon, d’une analyse brute,.
- Étape 2 : validation par un expert métier, un juriste, un contrôleur interne ou un responsable d’équipe.
Cela évite de confondre vitesse de production et fiabilité. L’IA devient alors un formidable accélérateur, mais l’entreprise garde la maîtrise de la qualité et de la conformité.
5.2. Mettre en place des règles de vérification systématiques
Pour ancrer ce réflexe, les organisations peuvent définir des règles claires, par exemple :
- Exiger au moins deux sources fiables et indépendantes pour valider un chiffre ou une affirmation critique.
- Identifier clairement, dans les documents internes, les éléments fournis par l’IA et ceux validés par un humain.
- Documenter les sources utilisées lorsqu’une décision importante s’appuie, même en partie, sur des analyses issues de l’IA.
- Limiter les usages d’IA en autonomie totale dans les domaines sensibles (juridique, médical, financier, sécurité, etc.).
6. S’appuyer sur des valeurs et une gouvernance éthique de l’IA
Jacques Pommeraud insiste également sur un point souvent sous-estimé : une IA de confiance ne repose pas uniquement sur la technologie, mais sur des valeurs et sur des pratiques de gouvernance claires.
6.1. Des principes à traduire en décisions concrètes
Les valeurs ne doivent pas rester au stade des déclarations d’intention. Pour devenir un cadre de référence utile, elles doivent être traduites en règles opérationnelles :
- Transparence: expliciter les cas d’usage de l’IA, les données utilisées, les limites des modèles.
- Responsabilité: identifier clairement qui porte la responsabilité finale des décisions automatisées ou assistées par IA.
- Équité: mettre en place des tests réguliers pour détecter et corriger les biais.
- Respect de la vie privée: minimiser les données utilisées, protéger les données sensibles, contrôler les accès.
6.2. Une gouvernance adaptée à la taille et à la maturité de l’organisation
Chaque entreprise peut adapter sa gouvernance IA à sa réalité, mais quelques briques sont particulièrement utiles :
- Un référent ou un comité IA, chargé de suivre les projets, d’évaluer les risques et d’arbitrer les cas sensibles.
- Des processus de revue éthique pour les nouveaux cas d’usage à fort impact (sur les collaborateurs, les clients, la société).
- Une politique claire sur l’usage de l’IA générative par les collaborateurs (outils autorisés, données à ne jamais saisir, bonnes pratiques de sécurité).
- Des indicateurs de suivi : nombre de projets IA, incidents, retours utilisateurs, gains de performance, etc.
7. Posture naïve vs posture sceptique et éthique : le match
L’un des apports majeurs de ce type de prise de parole est de montrer qu’il existe deux manières de déployer l’IA en entreprise : une approche naïve, centrée uniquement sur la promesse de gain rapide, et une approche sceptique et éthique, plus exigeante mais aussi plus créatrice de valeur durable.
| Dimension | Posture naïve face à l’IA | Posture sceptique et éthique |
|---|---|---|
| Rapport à la vérité | On suppose que l’IA a raison | On considère chaque sortie comme une hypothèse à vérifier |
| Gestion des biais | Les biais sont découverts après coup, lors d’incidents | Les biais sont recherchés, testés, suivis dès la conception |
| Culture interne | Pression pour aller vite, peu d’espace pour le doute | Valorisation du « je ne sais pas » et du débat argumenté |
| Relation aux collaborateurs | Crainte de substitution par la machine | Positionnement de l’IA comme outil d’augmentation et de soutien |
| Image externe | Risques de crise de réputation en cas d’erreurs visibles | Renforcement de la confiance grâce à une communication transparente |
| Création de valeur | Gains à court terme, risques élevés à moyen terme | Gains durables, alignés avec les attentes des clients et des régulateurs |
8. Vers une IA fiable, transparente et responsable : feuille de route pour les entreprises
L’intervention de Jacques Pommeraud ne se limite pas à une alerte. Elle ouvre surtout la voie à une démarche positive : faire de l’IA un levier de performance aligné avec la vérité, les valeurs et la responsabilité.
8.1. Étape 1 : cartographier les usages actuels et à venir
Première question pour toute organisation : où utilise-t-on déjà l’IA, explicitement ou non, et à quels endroits souhaite-t-on l’introduire demain ? Cette cartographie permet de :
- repérer les zones à fort impact (clients, finances, conformité, sécurité, santé, etc.) ;
- identifier les processus les plus exposés aux biais ou aux hallucinations ;
- prioriser les actions de sécurisation et de gouvernance.
8.2. Étape 2 : définir un cadre éthique et opérationnel
Sur la base de cette cartographie, il devient possible de définir un cadre adapté :
- principes éthiques propres à l’entreprise ;
- règles d’usage pour les collaborateurs ;
- niveaux d’exigence spécifiques selon la criticité des cas d’usage (du simple assistant de productivité à la décision automatisée à fort enjeu).
8.3. Étape 3 : former et accompagner les équipes
Une IA de confiance n’existe pas sans des utilisateurs bien formés. Il s’agit de :
- sensibiliser l’ensemble des collaborateurs aux risques de biais, d’hallucinations et d’usages malveillants ;
- développer la culture du doute constructif et de la vérification des sources ;
- former plus spécifiquement les métiers les plus exposés (juridique, finance, data, RH, communication, relation client).
8.4. Étape 4 : mesurer, auditer, améliorer en continu
L’IA n’est jamais figée. Modèles, données, usages, réglementations évoluent. Pour rester fidèle à l’exigence de vérité et de responsabilité, il est nécessaire de :
- suivre régulièrement la performance réelle des systèmes d’IA, au-delà des promesses initiales ;
- auditer les modèles sur des scénarios critiques pour détecter dérives et biais ;
- mettre à jour les règles internes en fonction des retours d’expérience et des évolutions réglementaires.
9. Pourquoi cette posture devient un avantage compétitif
À court terme, adopter une posture sceptique et éthique peut donner l’impression de ralentir les projets d’IA. À moyen et long terme, c’est l’inverse qui se produit : les entreprises qui investissent dans la fiabilité, la transparence et la responsabilité de leurs systèmes d’IA construisent un avantage durable.
Cette approche permet notamment de :
- renforcer la confiance des clients, qui savent que l’IA est utilisée avec discernement ;
- attirer et fidéliser les talents, en particulier les profils tech et data sensibles aux enjeux éthiques ;
- réduire le risque de crise de réputation liée à un mauvais usage de l’IA ;
- anticiper les exigences réglementaires croissantes plutôt que les subir.
En ce sens, le message porté sur la scène Bang dépasse largement le cadre d’un simple avertissement technique : il trace la voie d’une stratégie IA ambitieuse, alignée sur les attentes de la société et sur les réalités du business.
Conclusion : faire de la vérité un pilier de votre stratégie IA
En choisissant de consacrer son intervention de Big 2025 à la vérité à l’ère de l’intelligence artificielle, Jacques Pommeraud souligne un point décisif pour toutes les organisations : la course à l’IA ne se gagnera pas seulement à coups de puissance de calcul, de volumes de données ou de modèles toujours plus performants.
Elle se gagnera aussi, et peut-être surtout, sur un terrain moins spectaculaire mais beaucoup plus structurant :
- la capacité à reconnaître ce que l’on sait et ce que l’on ne sait pas ;
- la rigueur dans la vérification des sources et des résultats ;
- la fidélité à des valeurs claires, incarnées dans la gouvernance et les pratiques quotidiennes ;
- la volonté d’assumer, en tant que dirigeants, la responsabilité ultime des décisions assistées par l’IA.
Pour les entreprises, c’est une excellente nouvelle : loin d’être une contrainte, cette exigence de vérité peut devenir un formidable levier de différenciation. Elle permet de bâtir des systèmes d’IA qui inspirent confiance, des équipes plus fortes, des décisions plus robustes et une performance qui dure.
À l’ère de l’intelligence artificielle, la vérité n’est pas un luxe. C’est un choix stratégique.
