IA générative et emploi : un an après, entre transformation accélérée et nouveaux défis cognitifs

L’IA ne remplace pas l’intelligence humaine — elle en révèle les limites et les potentialités. La vraie révolution de cette décennie ne sera pas technologique, mais cognitive : il s’agit d’apprendre à penser avec et contre les machines, pour rester maîtres de nos choix. Dans ce contexte, la formation n’est plus une option de confort, mais la condition sine qua non de notre résilience collective.

Mai 2025 – Mai 2026.
En l’espace de douze mois, l’intelligence artificielle générative (IAG) est passée du statut de curiosité technologique à celui de réalité opérationnelle incontournable. Lors du dîner-débat du Club de la Transformation Numérique organisé le 5 mai 2025, Laure Baquero, économiste à l’UNEDIC, dressait un panorama prudent, soulignant autant le potentiel de « destruction créatrice » que les risques de fractures sociales. Un an plus tard, le bilan est sans équivoque : la transformation s’avère extrèmement  rapide , mais elle révèle des asymétries préoccupantes. Entre adoption massive, inégalités croissantes et urgence de la formation, retour sur une année charnière.

L’IA générative dans le quotidien professionnel : une adoption plus rapide que prévu

Contexte et accélération : du scénario à la réalité

En mai 2025, les travaux prospectifs synthétisés par Laure Baquero évoquaient une transition progressive. Le Baromètre UNEDIC de janvier 2026 vient balayer cette hypothèse de progressivité s’agissant de certaines activités économiques : l’adoption a été foudroyante. Aujourd’hui, 40 % des demandeurs d’emploi utilisent déjà l’IA pour rédiger leurs CV, personnaliser leurs lettres de motivation ou simuler des entretiens. Ce qui était perçu comme un avantage concurrentiel marginal est devenu une norme implicite du marché du travail.

Côté recrutement, 40 % des entreprises ont intégré des outils d’IA dans leurs processus de tri et d’analyse de candidatures. Cette généralisation s’accompagne d’une diversification de l’offre : si les géants historiques restent présents, l’année 2025-2026 a vu l’émergence forte de modèles spécialisés comme Claude (Anthropic), plébiscité pour sa nuance rédactionnelle, et une multiplication d’outils « verticaux » dédiés à des métiers précis (analyse contractuelle pour les juristes, aide au diagnostic pour les médecins, optimisation de code pour les ingénieurs). L’IA n’est plus un outil transversal vague ; elle s’incarne dans des assistants métiers capables d’exécuter des tâches complexes avec une précision croissante.

Secteurs pionniers et résistances

La carte de l’adoption de l’IA en 2026 dessine une France à deux vitesses.

  • Les secteurs en avance : la tech, la finance, le marketing et la santé (pour la partie administrative et l’aide au diagnostic) ont franchi le cap de l’industrialisation. Dans la finance, l’analyse de risques est désormais assistée en temps réel ; dans le marketing, la production de contenu a été multipliée par dix grâce à l’automatisation. (Roland Berger. (2023). L’impact de l’IA générative sur l’emploi en France et Hatzius, J. et al. (2023). The potentially large effects of artificial intelligence on economic growth. Goldman Sachs.)
  • Les secteurs en résistance : à l’inverse, l’adoption est pour l’heure moins répandue dans l’artisanat, une partie de l’éducation et certains métiers manuels . Ceci s’explique moins par une inaptitude technique que par des barrières culturelles, un manque de formations adaptées aux spécificités du terrain, et parfois des verrous réglementaires protégeant le jugement humain, ou encore une inadéquation des outils d’IAG aux usages de ces professions.

Cependant, cette accélération ouvre la boîte de Pandore de la cybersécurité. L’émergence des IA agentiques (capables d’agir de manière autonome) et la sophistication des deepfakes ont introduit de nouveaux risques. En 2026, la manipulation de données sensibles et l’usurpation d’identité lors de processus de recrutement à distance sont devenues des menaces crédibles, obligeant les entreprises à investir massivement dans des protocoles de vérification que les plus petites structures peinent à suivre.

Inégalités et fractures : qui paie le prix de la transformation ?

Confirmations des craintes de 2025

Les mises en garde de Laure Baquero lors de la rétrospective de mai 2025 se sont malheureusement en partie vérifiées. Le rapport annuel de l’UNEDIC « Transitions : quel marché du travail demain ? » confirme que les femmes et les seniors sont les premiers exposés aux effets de substitution de l’IA.

  • Les seniors, souvent concentrés sur des postes intermédiaires aux tâches répétitives (secrétariat, comptabilité de base, gestion administrative), font face à une obsolescence accélérée de leurs compétences si elles ne sont pas mises à jour.
  • Les femmes, surreprésentées dans les secteurs administratifs et de service client (télévente, accueil), subissent de plein fouet l’automatisation de ces fonctions.

Les données de 2026 montrent une disparition tangible de postes d’exécution, tandis que la création de rôles hybrides (comme les « prompt engineers » ou les gestionnaires de conformité éthique) reste pour l’instant insuffisante pour absorber les flux de sorties. Le chômage dit « technologique » commence à apparaître dans les statistiques, non pas comme un phénomène de masse immédiat, mais comme une érosion silencieuse des opportunités pour les profils non adaptés.

Nouveaux clivages : la fracture cognitive et territoriale

Au-delà des catégories socioprofessionnelles, une nouvelle ligne de fracture s’est dessinée en 2026 : la fracture cognitive. Elle ne sépare plus seulement ceux qui ont un emploi de ceux qui n’en ont pas, mais ceux qui maîtrisent l’IA (pour automatiser, analyser, créer) de ceux qui la subissent (exécutant les tâches résiduelles que l’IA ne peut pas encore faire, souvent moins valorisées).

Cette fracture a aussi une dimension géographique. Les opportunités liées à l’IA se concentrent massivement dans les métropoles disposant d’infrastructures numériques robustes et d’écosystèmes d’innovation, laissant les territoires périphériques et les « déserts numériques » en marge de la dynamique de création de valeur. Enfin, un clivage de sécurité émerge : les grands groupes s’équipent d’IA souveraines et sécurisées, tandis que les PME, faute de moyens, s’exposent davantage aux risques de fuites de données et de dépendance envers des fournisseurs externes non maîtrisés.

Formation et adaptation : le grand retard français et européen

L’urgence de la formation

Si l’adoption des outils a été fulgurante, l’accompagnement humain accuse un retard structurel. Le constat est amer : la diffusion des usages via des MOOC ou des certifications en ligne ne suffit pas. Il manque cruellement de structures d’accompagnement profond pour la reconversion des seniors et la requalification des métiers menacés.

Comparée à des modèles internationaux comme Singapour (avec son programme « SkillsFuture »), la Corée du Sud ou même l’Allemagne, la France apparaît en retrait. Les délais de déploiement des dispositifs publics, comme un hypothétique « Compte Personnel de Formation IA » généralisé, restent trop longs face à la vitesse d’obsolescence des compétences. De plus, l’impératif de la transition écologique complexifie la donne : les entreprises recherchent désormais des profils doubles, capables de maîtriser l’IA tout en intégrant les enjeux de décarbonation, une combinaison de compétences encore rare sur le marché.

Nouvelles compétences clés

Face à ce défi, le référentiel de compétences évolue radicalement.

  • Compétences techniques : La maîtrise du prompt engineering, de l’analyse de données et les bases de la cybersécurité deviennent le nouveau socle commun, au même titre que la bureautique hier.
  • Compétences cognitives : Plus fondamentalement, c’est l’esprit critique, l’éthique de l’IA et la capacité à collaborer avec des systèmes intelligents qui deviennent discriminantes. Savoir vérifier une information générée par une IA, comprendre ses biais et décider en dernier ressort sont des qualités purement humaines que la machine ne peut simuler.

Des programmes pilotes commencent à émerger, notamment via des partenariats écoles-entreprises pour former aux IA sectorielles, mais ils restent à l’état d’expérimentation face à l’ampleur du besoin.

Prudence, humilité et impératif de formation

Un an après les analyses prospectives de mai 2025, l’IA générative a tenu ses promesses de disruption, mais son impact reste profondément asymétrique. Elle crée de la valeur considérable pour ceux qui savent l’exploiter, tandis qu’elle marginalise ceux qui en sont exclus, accentuant les inégalités existantes. Les risques cognitifs (dépendance aux outils, perte de savoir-faire fondamentaux) et cybersécuritaires (manipulation, deepfakes) appellent une vigilance accrue, bien au-delà de la simple optimisation de processus.

Pour 2027 et au-delà, trois impératifs se dégagent :

  1. Former massivement : il ne s’agit plus seulement d’apprendre à utiliser des outils, mais de comprendre leur complémentarité avec l’expertise humaine. Un médecin doit utiliser l’IA pour affiner son diagnostic, mais rester le décideur ultime ; un juriste doit s’en servir pour analyser la jurisprudence, mais garder la maîtrise de la stratégie judiciaire.
  2. Anticiper les fractures : les politiques publiques doivent se cibler prioritairement sur les populations vulnérables identifiées par l’UNEDIC : seniors, femmes, et territoires périphériques. Des mesures concrètes comme des « chèques formation IA » ou le soutien à des incubateurs locaux pourraient corriger le tir.
  3. Encadrer sans étouffer : la régulation doit évoluer pour couvrir les usages à risque (IA agentique, deepfakes) sans freiner l’innovation. L’idée de « sandbox réglementaires », permettant de tester des outils en conditions réelles sous supervision, semble être une piste prometteuse.

L’IA ne remplace pas l’intelligence humaine — elle en révèle les limites et les potentialités. La vraie révolution de cette décennie ne sera pas technologique, mais cognitive : il s’agit d’apprendre à penser avec et contre les machines, pour rester maîtres de nos choix. Dans ce contexte, la formation n’est plus une option de confort, mais la condition sine qua non de notre résilience collective.

BIBLIOGRAPHIE

Documents et Rapports UNEDIC :

  • Baquero, Laure. Les effets attendus de l’Intelligence Artificielle Générative sur l’emploi. Présentation pour le Club de la Transformation Numérique, 5 mai 2025.
  • UNEDIC. Emploi et IA générative : panorama des travaux économiques existants. Publication, janvier 2025.
  • UNEDIC. Transitions : quel marché du travail demain ? Rapport annuel 2025. Janvier 2026.
  • UNEDIC. Baromètre UNEDIC : Intelligence artificielle et recherche d’emploi. Janvier 2026.
  • UNEDIC. Climat, numérique, IA : les employeurs à l’heure des transitions. Publication 2025.
  • UNEDIC TV & Longue vue.
    Interview sur les effets de l’IAG sur l’emploi (avec Laure Baquero).

Travaux académiques et études cités dans la présentation de Laure Baquero :

  • Bergeaud, A. (2024). Exposition à l’intelligence artificielle générative et emploi : une application à la classification socio-professionnelle française. INSEE.
  • Roland Berger. (2023). L’impact de l’IA générative sur l’emploi en France.
  • Cazzaniga, M. et al. (2024). Gen-AI: Artificial intelligence and the future of work. FMI (Fonds Monétaire International), Rapport SDN/2024/001.
  • Hatzius, J. et al. (2023). The potentially large effects of artificial intelligence on economic growth. Goldman Sachs.

Contexte et Événements :

Références générales et comparaisons internationales (citées dans l’analyse) :

  • Programmes internationaux de formation (ex: SkillsFuture à Singapour).
  • Dispositifs français (Compte Personnel de Formation – CPF).
  • Concepts théoriques : Joseph Schumpeter (« Destruction créatrice »).



LowCode : comment simplifier la complexité des organisations publiques et privées ?

Le 7 avril 2025, le Club de la Transformation Numérique organisait un dîner-débat sur l’intégration du LowCode dans les schémas globaux des organisations complexes, avec le capitaine de frégate Jean-François Bigot, officier de marine et expert en transformation numérique.

Un an plus tard, force est de constater que cette approche a gagné en maturité, répondant à des défis majeurs : agilité, souveraineté numérique, réduction des coûts, prise en compte des apports de l’intelligence artificielle et alignement des systèmes d’information avec les besoins métiers. Mais comment le principe d’une plateforme applicative LowCode s’adapte-t-il concrètement aux enjeux des grands acteurs publics et privés ?

Les défis des organisations complexes

Les organisations complexes — qu’il s’agisse d’administrations, d’armées, de grands groupes industriels ou d’institutions — font face à des contraintes multiples :

  • Hétérogénéité des systèmes : multiplicité des outils, des bases de données et des processus, souvent hérités et peu interopérables ;
  • Exigences de sécurité et de conformité : respect des réglementations (RGPD, SecNumCloud, etc.) et protection des données sensibles.
  • Pressions budgétaires et temporelles : besoin de déployer rapidement des solutions sans alourdir les coûts ou les délais.
  • Transformation numérique accélérée : nécessité de répondre aux attentes, d’innover tout en garantissant la stabilité des infrastructures existantes.
  • Défi des compétences : pouvoir piloter des projets complexes, maitriser l’ensemble des risques et contraintes. 

Dans ce contexte, le LowCode émerge comme une réponse pragmatique, permettant de d’accélérer et de démocratiser le développement d’applications tout en conservant un contrôle strict sur la gouvernance et la sécurité.

Le LowCode : une réponse adaptée aux organisations complexes

a) Agilité et rapidité de déploiement

Le LowCode permet de réduire significativement les cycles de développement :

  • Se concentrer sur l’essentiel – Une plateforme applicative simplifie l’hébergement, apporte et automatise tous les services communs courants. Le développeur se concentre sur les besoins métiers.
  • 80 % du travail peut être réalisé via des interfaces graphiques (glisser-déposer, blocs préprogrammés), limitant le recours au code traditionnel à 20 % pour les règles métiers les plus complexes.
  • Itérations rapides : les mises à jour et les ajustements sont facilités, permettant une adaptation continue aux besoins des utilisateurs, et surtout une capitalisation des connaissances.

Exemple : des applications de gestion des actifs, de suivi logistique ou de cybersécurité peuvent être conçues et déployées en quelques semaines, contre plusieurs mois avec des méthodes classiques.

b) Souveraineté et maîtrise des données

Dans un contexte où la souveraineté numérique est devenue un enjeu stratégique, le LowCode offre des avantages clés :

  • Hébergement flexible : les solutions peuvent être déployées en interne (on-premise) ou dans des clouds souverains, évitant ainsi les dépendances aux infrastructures extra-européennes.
  • Conformité renforcée sans surcharge : les plateformes LowCode modernes intègrent des gardes-fous pour respecter les exigences réglementaires (RGPD, SecNumCloud, etc.), tout en permettant une personnalisation fine et robuste des règles d’accès et de traçabilité.
  • Le maintien en condition de sécurité de la plateforme est assuré par l’éditeur limitant la charge de veille des vulnérabilités cyber à la charge de l’utilisateur.

La dynamique de la filière européenne et particulièrement française sur le low-code permet l’adoption de solutions maîtrisées, limitant des risques sur la souveraineté.

c) Alignement avec les besoins métiers

Le LowCode rapproche les équipes IT et métiers :

  • Collaboration accrue : les utilisateurs métiers peuvent participer activement à la conception des applications, réduisant les incompréhensions et les besoins de réajustement.
  • Personnalisation : le temps gagné sur le développement permet de se concentrer sur une plus grande spécificité aux différents processus spécifique. Il est néanmoins nécessaire d’accepter le cadre de la plateforme et de ne pas chercher une hyperpersonnalisation des interfaces dont l’apport de valeur peut être faible.
  • Réduction des coûts : les économies réalisées (jusqu’à 10 fois moins cher que des développements sur mesure) permettent de réallouer les budgets à des projets à plus forte valeur ajoutée.

L’adoption d’une plateforme applicative low-code permet d’engager une boucle d’amélioration continue au profit des processus métiers.

d) Intégration avec les écosystèmes existants

Contrairement aux idées reçues, le LowCode n’est pas réservé aux projets simples. Intégré dans une démarche d’architecture cohérente, il permet de :

  • Connecter des systèmes hérités (legacy) avec des applications modernes, via des API ou des connecteurs dédiés.
  • Refondre simplement les systèmes dont les coûts de maintenance sont prohibitifs et faciliter les migrations techniques.
  • Automatiser des processus transverses (ex. : gestion des ressources humaines, suivi des projets, conformité réglementaire).
  • S’intégrer aux architectures DevOps (Git, Docker, Kubernetes), garantissant une scalabilité et une maintenance optimisée.
  •  

e) Une base solide pour le développement d’application par l’IA

Les IA génératives permettent de développer simplement du code à partir d’un corpus documentaire ou d’un dialogue avec le développeur. Mais leur nature statistique induit des doutes dès qu’il s’agit d’un code critique, en production et devant être maintenu dans le temps.

Les plateformes applicatives low-code sont à ce titre un complément et un cadre précieux. L’outil d’IA apporte sa plus-value en paramétrant l’outil low-code, la plateforme applicative garantissant de son côté la conformité des traitements, l’exploitabilité et la maintenabilité de la solution.

Cas d’usage concrets dans les secteurs public et privé

a) Secteur public et défense

  • Modernisation des systèmes d’information : déploiement d’applications pour la gestion des actifs, la logistique ou la cybersécurité, en remplaçant des outils obsolètes par des solutions agiles et sécurisées.
  • Gestion des données sensibles : création de plateformes internes pour le traitement des données classifiées, avec un contrôle total sur l’hébergement et les accès.
  • Accélération des projets d’innovation : réduction des délais pour les proofs of value (PoV) et les expérimentations. Avec une charge de développement de quelques jours, le nombre de projets pouvant être testé est démultiplié sans appréhension des coûts d’un échec.

b) Santé et industrie

  • Applications métiers sur mesure : outils de suivi des patients, gestion des stocks ou maintenance industrielle, développés en collaboration avec les équipes terrain.
  • Conformité et traçabilité : automatisation des processus de reporting réglementaire (ex. : traçabilité des médicaments, normes environnementales).
  • Optimisation des coûts : remplacement de logiciels spécialisés coûteux par des solutions LowCode plus flexibles et moins onéreuses.

c) Grands groupes et institutions

  • Maîtrise des données : créer simplement des systèmes d’informations pour gérer des données qui n’étaient traitées que via des courriels ou des fichiers excel.
  • Transformation digitale accélérée : déploiement de portails internes, d’outils de pilotage ou de tableaux de bord analytiques, sans dépendre de prestataires externes.
  • Réduction de la dette technique : migration progressive des systèmes legacy vers des architectures modernes, sans rupture de service.
  • Autonomie des équipes : formation des collaborateurs à l’utilisation des plateformes LowCode, pour une montée en compétences interne.

Les limites et défis à relever

Si le LowCode offre des avantages majeurs, son adoption nécessite des prérequis :

  • Gouvernance et standardisation : une stratégie claire et des règles d’urbanisme IT sont indispensables. Le low-code ne crée pas de prolifération d’outils, il rend explicite et de mettre sous pilotage des pratiques jusque-là invisibilisées
  • Montée en compétences : les équipes doivent être formées pour tirer pleinement parti des outils LowCode. 
  • Acculturation : comme pour toute transformation, les bonnes pratiques numériques doivent infuser dans l’ensemble de l’organisation pour faciliter une transversalité maitrisée des échanges.
  • Sécurité et auditabilité : les solutions doivent être régulièrement auditées pour garantir leur conformité et leur résilience face aux cybermenaces. 
  • Choix des plateformes : toutes les solutions LowCode ne se valent pas. Il est crucial de sélectionner des outils interopérables, évolutifs et souverains qui s’intègrent au besoin

Perspectives pour 2026 et au-delà

Le LowCode s’impose comme un levier stratégique pour les organisations complexes, avec plusieurs tendances clés :

  • Intégration de l’IA : le couple IA/LowCode permet d’allier vitesse, conformité et résilience.
  • Renforcement de la souveraineté : les acteurs publics et privés privilégient des solutions européennes et sécurisées, pour réduire les dépendances aux géants technologiques extra-européens.
  • Expansion des cas d’usage : le LowCode s’étend à des domaines de plus en plus critiques, comme la gestion des crises, la planification stratégique ou la collaboration inter-organisations.
  • Écosystèmes ouverts : les plateformes évoluent vers des modèles collaboratifs, permettant aux développeurs et aux utilisateurs métiers de co-construire des applications.

Conclusion

Un an après notre dîner-débat, le LowCode a prouvé sa capacité à répondre aux enjeux des organisations complexes : agilité, souveraineté, réduction des coûts et alignement métier. Son adoption croissante dans les secteurs public et privé montre qu’il ne s’agit plus d’une tendance éphémère, mais d’un axe fort de la transformation numérique.

Pour les organisations qui souhaitent innover sans sacrifier la stabilité, le LowCode offre une voie équilibrée, à condition d’en maîtriser les bonnes pratiques et les limites. À l’heure où la souveraineté numérique et l’efficacité opérationnelle sont plus que jamais des priorités, cette approche mérite une attention particulière.




L’IA au pied du mur : pourquoi le rapport d’Anthropic mesure un mirage

Shéma Rapport Anthropic sur l'impact de l'IA sur l'emploi

Le dernier rapport d’Anthropic, « Impacts de l’IA sur le marché du travail », se veut une boussole pour l’avenir. En opposant une « zone bleue » de performance théorique à une « zone rouge » de compétence réelle, l’entreprise de San Francisco prétend cartographier l’inévitable colonisation de nos métiers par le calcul. Mais à y regarder de plus près, ce document révèle une faille méthodologique majeure : il confond l’accumulation massive d’informations avec la maîtrise de la connaissance.

Le diagnostic d’une impuissance structurelle

Là où les technoscientistes voient un « gouffre d’exécution » que seule la puissance de calcul (le scaling) pourrait combler, nous voyons une rupture de nature. L’IA est une machine à traiter l’information au sens de Shannon : une réduction statistique de l’incertitude. Elle peut ingérer l’intégralité du Code civil sans jamais posséder la connaissance d’un avocat, laquelle s’ancre dans l’expérience du prétoire et les responsabilités qui lui incombent.

L’écart persistant entre la théorie et la pratique n’est pas un retard de croissance ; c’est le diagnostic d’une IA qui sature dans la simulation. Comme le souligne Michel Levy-Provençal, dans sa Newsletter du 11 mars, l’IA demeure une technologie « non-finie ». Elle ne remplace pas le travail, elle déplace la pénibilité : l’humain se retrouve transformé en un « superviseur-correcteur » forcé, responsable de valider les approximations d’un système probabiliste. Le gain de productivité vanté devient alors un mirage comptable qui ignore la lame de fond d’une surcharge cognitive des équipes, massive

L’IA générative et ses limites : entre promesses et réalités techniques

L’évaluation de la sécurité des modèles d’IA générative, comme ceux développés par Anthropic, a suscité des débats fin 2025 et en 2026. Plusieurs rapports, publiés par Anthropic, et des institutions étatiques ont mis en lumière des risques concrets : utilisation malveillante de leurs outils pour des campagnes d’espionnage cyber, limites dans la détection des abus, et surtout, une dépendance croissante à des solutions dont la robustesse reste encore discutée.

Les expertises récentes, notamment celles portées par le référentiel ANSSI (ReCyF 2.5, 2026), révèlent des failles structurelles dans l’utilisation de l’IA générative pour le développement logiciel. D’une part, le code produit automatiquement peut introduire des vulnérabilités non détectées (configurations non sécurisées, dépendances obsolètes), en l’absence de veille active sur les correctifs ou de revues systématiques des architectures. D’autre part, la dépendance à des outils tiers — souvent extra-européens — accroît les risques d’exfiltration de données ou d’introduction de backdoors, surtout lorsque ces outils ne sont pas audités ni cloisonnés dans des environnements dédiés. Ces défis soulignent l’écart entre une productivité apparente et une qualité réelle compromise, où le code généré, bien que fonctionnel en apparence, peut échouer en conditions réelles (ex. : non-respect des règles de filtrage réseau ou des politiques de chiffrement).

Au-delà des risques techniques, l’IA générative pose un défi de gouvernance : son opacité rend difficile la conformité aux exigences de traçabilité et d’audit, tandis que son usage massif menace de désappropriation des savoir-faire critiques. Le référentiel ANSSI insiste sur la nécessité de former en continu les équipes et de tester leurs compétences via des exercices de crise, afin d’éviter une perte de maîtrise des concepts fondamentaux — comme la détection manuelle de vulnérabilités ou la validation rigoureuse des configurations. Sans ces garde-fous, l’IA générative risque de devenir un accélérateur de risques cybersécuritaires, où la responsabilité en cas d’incident reste floue, et où la souveraineté des systèmes d’information est mise à mal par une dépendance non maîtrisée.

Ces constats rappellent que l’IA générative, si elle ouvre des perspectives inédites, ne saurait se substituer à une expertise humaine rigoureuse — ni à des méthodologies d’évaluation exigeantes. La question n’est plus seulement de savoir si ces outils sont sûrs, mais comment les utiliser sans compromettre la maîtrise technique et la sécurité des systèmes.

2026 : le tournant de l’intelligence collective et politique ?

Les travaux récents du Club de la Transformation Numérique et de la Chaire ESSEC du Changement confirment une bascule majeure : en 2026, la maîtrise méthodologique de l’IA, désormais industrialisée, cède la place à un enjeu bien plus stratégique, celui de l’intelligence politique et collective. L’objectif n’est plus seulement d’accompagner le changement, mais de le fabriquer à l’échelle, en s’appuyant sur des outils pilotés par la donnée tout en préservant une mémoire organisationnelle active et partagée Cette mémoire collective devient l’actif stratégique ultime, face à une IA générative qui, malgré son efficacité opérationnelle, reste incapable de comprendre le sens ou de porter une vision. La véritable compétence critique — la « zone rouge » — réside désormais dans la capacité des organisations à évaluer la charge mentale des équipes et à préserver un socle de connaissances humainement assumé, afin d’éviter une désappropriation des savoir-faire face à l’automatisation.

L’IA générative ne se contente pas d’automatiser des processus : elle redessine en profondeur les rôles et les compétences au sein des organisations. Alors que les tâches standardisées peuvent désormais être déléguées à des outils, la véritable valeur stratégique réside dans la capacité à concevoir des démarches adaptées aux contextes et à préserver une mémoire organisationnelle vivante. Les experts capables de combiner maîtrise technologique et intelligence politique deviennent ainsi les pivots d’une transformation réussie.

Pourtant, ce virage n’est pas sans risque : l’automatisation accélérée menace de marginaliser ceux qui ne parviendront pas à évoluer vers des rôles plus stratégiques. L’enjeu n’est plus seulement de maîtriser l’IA, mais de réinventer une intelligence collective où la technologie amplifie – plutôt qu’elle ne remplace – les capacités humaines d’analyse, de jugement et de création de sens. Cette tension entre automatisation et préservation des savoirs critiques ouvre une question fondamentale : dans un monde où les algorithmes transforment radicalement nos façons de travailler et de décider, comment préserver l’espace de la liberté humaine et de l’action politique au sens où Hannah Arendt l’entendait ?

La « Condition de l’homme moderne » dans la nouvelle civilisation des algorithmes ?

Cette volonté de substituer l’artifice au vivant nous ramène à l’avertissement prophétique d’Hannah Arendt dans La Condition de l’homme moderne en 1983. Elle y dénonçait déjà cette tentation d’échanger « le cadeau de l’existence » contre un « ouvrage de nos mains ».

Hannah Arendt nous rappelle que l’automatisation de pans entiers de nos vies ne relève pas d’une simple question technique, mais d’une « question politique primordiale ». Ce choix ne saurait être abandonné aux seuls experts de la science ou aux décideurs politiques pris isolément. Cette automatisation interroge profondément notre rapport au monde, à la liberté, et à la responsabilité collective. Le Club de la Transformation Numérique rejoint son analyse : la technoscience, en promettant une maîtrise totale de l’imprévisible, risque de nous enfermer dans un « mirage » où la mesure et l’algorithme prétendent remplacer la complexité du vivant et des organisations.

En effet, l’algorithme n’est pas neutre : il incarne une vision du monde où la rationalité calculatoire tend à évacuer l’incertitude, l’ambiguïté, et même la dimension éthique de l’action humaine. Cette civilisation de l’algorithme, si elle n’est pas questionnée, pourrait transformer nos sociétés en systèmes fermés, où la décision politique se réduirait à une optimisation technique et oublierait des contreforts éthiques, pourtant indispensables au Bien Commun.

Au-delà du laboratoire, la responsabilité du réel et du modèle de société de demain

Le rapport d’Anthropic n’est pas une prophétie, c’est un plaidoyer pour une civilisation de l’algorithme où la statistique remplacerait la décision. Or, la transformation durable ne naîtra pas de l’industrialisation de l’information, mais de notre capacité à réaffirmer le primat du politique, de la culture et du sens.

Nous invitons à dépasser l’opposition stérile entre progrès technologique et libertés fondamentales, pour nous engager dans l’invention d’un nouveau contrat social adapté à l’ère algorithmique, entre cultures occidentale ou orientale ; et nous plaidons pour une civilisation de l’algorithme responsable, où la technologie serait soumise à des garde-fous démocratiques et éthiques.Comme le souligne Xavier Drouet, pour que cette technologie ubiquitaire soit véritablement bénéfique, il est indispensable d’en définir un cadre éthique clair et d’instaurer une gouvernance responsable.

La délégation et l’automatisation des tâches doivent être pensées, hier comme aujourd’hui, comme des « choix politiques », impliquant une responsabilité partagée entre scientifiques, citoyens et décideurs, et une gouvernance où l’éthique doit enfin trouver sa place.

Alors que les débats occidentaux sur l’éthique de l’IA s’articulent souvent autour de la protection des libertés individuelles et de la régulation des biais algorithmiques, les modèles chinois (comme DeepSeek ou Qwen) se distinguent par une approche technique centrée sur l’efficacité brute, la sobriété des ressources, et une logique opérationnelle dépouillée des contraintes idéologiques ou socio-économiques de la Silicon Valley. Il ne s’agit pas ici d’endosser la doxa autoritaire qui sous-tend leur développement, mais d’identifier ce que leur démarche apporte de structurant à l’écosystème mondial de l’IA générative, notamment dans deux domaines clés : l’open-source et la durabilité.

Ces modèles posent une question stimulante : que gagnerions-nous à intégrer une IA conçue avant tout pour la performance technique, tout en préservant les espaces de doute, de débat et de contestation qui fondent nos sociétés démocratiques ? Leur force réside moins dans une absence de questionnement éthique que dans une capacité à optimiser des architectures logicielles et matérielles, souvent plus légères et accessibles que leurs équivalents occidentaux.
 
 Par exemple, leur approche open-source, bien que parfois instrumentalisée, offre des ressources précieuses pour des acteurs cherchant à développer des alternatives moins énergivores ou moins dépendantes des géants technologiques.

Réinventer l’IA : du progrès technique à l’émancipation collective

Que perdrions-nous à abandonner l’IA générative aux seuls impératifs de productivité ou de contrôle ? La réponse ne se trouve pas dans une opposition stérile entre progrès technologique et libertés fondamentales, mais dans l’invention d’un nouveau contrat social pour l’ère algorithmique.

Ce contrat doit garantir :
1. La préservation des espaces contributifs, où le doute scientifique, le questionnement philosophique et le pluralisme politique restent les garants de notre lucidité collective et d’une‘vita activa’ renouvelée.
2. Une transparence radicale sur les choix techniques et éthiques qui sous-tendent ces modèles, pour éviter qu’ils ne deviennent des boîtes noires au service d’intérêts opaques.
3. Des modèles d’IA générative conçus comme un bien collectif, ouverts à la diversité des usages et des contributions, et libérés des logiques de concentration ou de normalisation au profit d’intérêts particuliers, tout en respectant les spécificités culturelles et métiers de chacun.

L’IA générative ne sera vertueuse que si elle s’inscrit dans un projet de civilisation qui place l’humain — avec ses contradictions, ses doutes et ses aspirations — au cœur de sa conception. Sinon, elle ne fera que reproduire, à l’échelle industrielle, les biais et les miroirs déformants que nous prétendons combattre. Le choix nous appartient : faire de l’IA un levier d’émancipation, ou le symbole d’un monde où la technique dicterait seule les règles du vivre-ensemble.

Ainsi, Yann Le Cun, pionnier du deep learning et figure majeure de l’IA, critique ouvertement les limites des LLM, qu’il juge incapables de comprendre le monde physique ou de raisonner de manière causale. Il propose une alternative radicale avec AMI Labs : les world models, en proposant une alternative fondée sur la compréhension plutôt que sur la prédiction, et sur la collaboration plutôt que sur la capture, esquissent une autre voie : celle d’une IA ancrée dans le réel, pluraliste et émancipatrice. À l’heure où les plateformes dominantes transforment le calcul en dogme et la donnée en monnaie d’échange, il devient urgent de réaffirmer que le progrès technologique ne se décrète pas depuis des silos fermés, mais se construit dans l’ouverture, la diversité des savoirs et la résistance aux logiques de contrôle. Car l’enjeu n’est pas seulement technique — il est civilisationnel.

Refuser que le futur de l’IA soit centralisé et dicté par certains détenteurs du pouvoir computationnel, c’est en faire non pas l’outil d’une orthodoxie technocratique visant à fragiliser les institutions traditionnelles ou démocratiques, mais le levier d’une société pluraliste où la technologie sert l’humain.
L’heure est à l’action.

Sources :

  1. Impacts de l’IA sur le marché du travail” – Anthropic
     https://www.anthropic.com/research/labor-market-impacts 
  2. “L’étude Anthropic sur l’IA : Le risque, les faits et votre stratégie” – Michel Levy Provençal
     
    https://www.linkedin.com/pulse/l%25C3%25A9tude-anthropic-sur-lia-le-risque-les-faits-et-votre-levy-proven%25C3%25A7al-5rfpe/ 
  3. “Detecting and countering misuse of AI: August 2025” – Anthropic
     
    https://www.anthropic.com/news/detecting-countering-misuse-aug-2025 
  4. « Référentiel Cyber France » ou RéCyF ANSSI
     
    https://www.linkedin.com/posts/vincent-strubel-7b7056200_recyf-activity-7439709198067712000-3T5b
  5. Conduite du changement et IA
     a)
    L’intégration stratégique de l’IA dans la conduite du changement organisationnel : approches, parcours et rôles RH
     
    https://club-transfo-num.fr/2026/02/13/lintegration-strategique-de-lia-dans-la-conduite-du-changement-organisationnel-approches-parcours-et-roles-rh/ 
     b)
    Autissier, D. (2025). « Vers des hyper-experts en conduite du changement ». Question(s) de Management, n°56.
     
    https://editions-ems.fr/boutique/questions-de-management-n56/
     
    c) World Economic Forum (2025). The Future of Jobs Report.
     https://www.weforum.org/publications/the-future-of-jobs-report-2025/
  6. “IA Gen et Entreprises : Avantages et Risques” – Xavier DROUET« https://hommesetsciences.fr/ia-gen-et-entreprises-avantages-et-risques/ 
  7. Condition de l’homme moderne – Wikipedia.org
     
    https://fr.wikipedia.org/wiki/Condition_de_l%27homme_moderne 
  8. Schizophrénie numérique  La fin d’une époque – les conditions du vrai L’enjeu des affrontements Anne ALOMBERT 
     
    https://editions-allia.com/fr/livre/961/schizophrenie-numerique 
  9. Pour Yann LeCun, les world models sont la prochaine frontière de l’IA
     
    https://www.cio-online.com/actualites/lire-pour-yann-lecun-les-world-models-sont-la-prochaine-frontiere-de-l-ia-16861.html



Renault Group : anatomie d’une Data transformation radicale

Entre empilement réglementaire (RGPD, Data Act) et pression des éditeurs pour garder la main sur les processus, la transformation data de Renault Group offre une feuille de route unique. Retour sur une décennie de chantier qui prouve que la rigueur architecturale (BIM, API 5 étoiles) est le seul prérequis à une IA générative fiable et rentable. Témoignages exclusifs de Laurent Giraud et Mourad Abbas. 

Et au-delà du Buzz IA : comment Renault utilise la standardisation sémantique pour passer de 60% à 95% de fiabilité en production ?

Paris, 11 mars 2026 — Et si la prochaine révolution industrielle ne venait pas des moteurs électriques, mais de la manière dont les données circulent dans l’entreprise ? C’est le pari gagné par Renault Group, comme l’ont révélé Laurent Giraud (Chief Data Officer) et Mourad Abbas (Head of Data Office) lors d’un dîner-débat exclusif ce lundi 2 mars à Paris. Loin des effets d’annonce, le constructeur dévoile une transformation radicale : passer d’une donnée subie, complexe et risquée, à une donnée fluide, standardisée et génératrice de milliards de valeur.

Décryptage d’une métamorphose qui place Renault parmi les leaders européens de l’architecture Data.

Le déclic : quand la réglementation force l’innovation

Tout part d’un constat vertigineux : chez Renault, 60 % des données sont classées « personnelles », non parce qu’elles le sont vraiment, mais par excès de prudence face à un empilement réglementaire inédit (RGPD, ePrivacy, Data Act, AI Act).

Laurent Giraud illustre cette complexité par une anecdote devenue culte dans les couloirs du groupe : le numéro de série d’un amortisseur. Pour la CNIL, ce numéro est une donnée personnelle car il permet de remonter au propriétaire du véhicule. Conséquence ? En usine, chaque pièce doit être masquée jusqu’à la vente. Avec 2 500 pièces par voiture, cette logique a paralysé les accès : il y a quatre ans, il fallait 128 jours en moyenne pour obtenir l’autorisation d’accéder à une donnée, le temps d’analyser manuellement des tables de 3 000 colonnes à la recherche d’une information sensible cachée.

« Notre mission a été de résoudre ce problème à la source, explique Laurent Giraud. Nous ne voulions plus nettoyer la donnée dans les entrepôts, mais la produire propre dès l’origine. » Résultat : le délai d’accès est tombé à 2 jours en moyenne, libérant les Data Scientists de 80 % de tâches ingrates de nettoyage pour se concentrer sur la création de valeur.

Le « Code de la Route » de la donnée : standardiser pour gagner

Si la donnée est le nouveau pétrole, encore faut-il des pipelines pour la transporter. Renault a bâti une architecture surnommée le « Fer à Cheval », reposant sur deux principes : le « Zéro Copie » et la standardisation sémantique.

L’exemple du milliard d’euros 
Mourad Abbas raconte comment la standardisation a directement impacté le bas de bilan. Renault possède 100 000 robots de 2 500 types différents. En imposant un langage commun à tous ces robots (quel que soit le fabricant), chaque mouvement est traduit dans un format unique.

« Si une usine trouve une optimisation, elle peut la déployer dans toutes les usines mondiales en 6 minutes par simple copier-coller. » Ce gain d’agilité représente aujourd’hui 1 milliard d’euros d’économies annuelles.

Le BIM : un langage commun pour tous 
Pour éviter que chaque métier ne parle sa propre langue (où un « client » n’est pas le même pour la finance, l’ingénierie ou le marketing), Renault a créé le Business Information Model (BIM). C’est le « code de la route » qui définit sémantiquement chaque objet. Cette rigueur est aujourd’hui un avantage concurrentiel majeur : les Intelligence Artificielles (LLM) ne comprennent que les données structurées et sémantiquement claires. Grâce au BIM, Renault peut déployer des agents IA fiables là où d’autres s’enlisent dans des données incohérentes.

Gouvernance : une discipline de fer au service de l’agilité

La transformation ne repose pas uniquement sur la technologie, mais sur une gouvernance humaine rigoureuse. Autour de 38 données majeures (Enterprise Level Data), Renault a mis en place un système de notation impitoyable.

Chaque API (interface de programmation) est notée de 0 à 5 étoiles selon sa qualité, sa sécurité et sa documentation. La règle est simple : toute API en dessous de 3 étoiles est invisible pour le reste du groupe. Cette discipline, couplée à l’utilisation de l’IA pour tester automatiquement la robustesse des codes, a fait exploser le taux de réutilisation des services : passé de 1,1 en 2021 à 6,0 en 2025. Aujourd’hui, 28 % du trafic informatique du groupe transite par ces données de référence maîtrisées.

L’IA Générative : fini le buzz, place à la productivité réelle

Si 2023 était l’année du Chatbot, 2025 est celle des Agents Autonomes. Renault a dépassé le stade de l’expérimentation pour déployer des outils concrets qui changent le quotidien des collaborateurs.

  • Trouver l’information en secondes : un agent conversationnel, connecté au catalogue interne de 2 600 API, permet à n’importe quel collaborateur de trouver la donnée dont il a besoin en langage naturel. Lancé discrètement, il compte déjà 6 000 utilisateurs actifs en trois semaines.
  • Coder 100 fois plus vite : la génération de spécifications techniques, qui prenait 3 jours aux architectes, est désormais réalisée en 20 minutes par l’IA, avec un taux de conformité aux standards de sécurité de 95 %.
  • Vers des processus « AI-Native » : l’ambition va plus loin. Renault engage une bataille stratégique contre les grands éditeurs (Salesforce, Workday) pour reprendre la main sur l’orchestration des processus métiers. L’objectif ? Ne plus coder des processus rigides, mais laisser l’IA déterminer elle-même le meilleur chemin pour atteindre un objectif, en orchestrant dynamiquement les différents systèmes.

Monétisation : entre ambition et réalité du terrain

Via sa filiale Mobilize Data Solutions, Renault tente de vendre ses données à des tiers (assureurs, collectivités, services). Si le potentiel est réel, la réalité est plus nuancée que les promesses de marché. Le nouveau Data Act européen impose parfois le partage de données à coût marginal, et les résistances culturelles internes freinent encore l’ouverture totale. Néanmoins, des succès émergent : une simple API de description technique véhicule pour le réseau après-vente génère déjà 3 millions d’euros de gains annuels, prouvant que la valeur est au rendez-vous quand la qualité est là.

Leçon de transformation : patience et culture

Ce qui frappe dans le récit de Laurent Giraud et Mourad Abbas, c’est l’ancrage dans le temps long. Cette architecture, débutée il y a sept ans, a survécu aux crises, aux changements de CEO et à la rupture de l’Alliance avec Nissan. Elle prouve qu’une transformation data réussie n’est pas un projet informatique, mais un avant tout un chantier culturel.

« Patience, itération, ancrage culturel », résument les deux experts. « On ne construit pas une autoroute de la donnée en un an. On pose les fondations, on éduque les métiers, on sécurise les usages. Et c’est seulement alors que l’innovation peut exploser. »




Vers une véritable transformation numérique responsable ? Avec Anne ALOMBERT 

Un dîner-débat du Club de la Transformation Numérique en mars 2025 a réuni Anne Alombert autour d’un thème qui lui est cher : comment préserver l’Humain dans un monde connecté et comment faire du numérique une question politique, non pas en tant qu’utopie, mais comme nécessité pragmatique. Depuis cet échange, deux ouvrages majeurs viennent préciser et affiner cette trajectoire intellectuelle : « De la bêtise artificielle. Pour une politique des technologies numériques » (Allia, 2025) et « Penser avec Bernard Stiegler » (PUF, 2025). Si l’événement initial posait les jalons d’une pensée entre sobriété, éthique et démocratie numérique, les publications récentes déploient ces axes avec une profondeur nouvelle, en s’appuyant sur les lectures de Guattari et Stiegler, et en coulisse, sur une conception plus affirmée de l’intelligence collective et du soin des capacités humaines de penser.

Cet article propose d’articuler ce que nous publiions via LinkedIn diffusées autour de l’événement (CF Posts #ClubTransfoNum et Anne ALOMBERT), puis d’expliquer ce que les livres publiés en 2025 permettent de  prolonger, nuancer ou préciser au regard des axes de réflexion abordés  lors du dîner-débat. L’objectif est de montrer une continuité intellectuelle : passer d’une logique de gouvernance éthique du numérique à une philosophie politique technologique qui organise la société autour de la sobriété, de la profondeur de la pensée de chacun et de l’intelligence collective.

Rappel des axes clés du dîner-débat du 3 mars 2025

Lors du dîner-débat du 3 mars organisé par le Club de la Transformation Numérique, Anne Alombert a posé les questions centrales suivantes : « Vers une transformation numérique responsable : comment préserver l’Humain dans un monde connecté ? » en laissant transparaître plusieurs fils directeurs qui reviennent ensuite dans ses deux ouvrages mentionnés :

  • La numérisation ne peut pas se limiter à une logique d’efficacité technique; elle doit devenir une question politique et éthique. L’IA ne peut pas être un simple moteur d’automatisation mais un outil au service de la réflexion humaine et des pratiques sociales.
  • La dynamique transhumaniste est remise en question au profit d’une perspective pharmacologique, c’est-à-dire d’une reconfiguration des rapports entre cerveau, technologies et société qui privilégie le soin et la régulation plutôt que l’extension aveugle des capacités humaines.
  • Le cadre des « trois écologies » (mentale, sociale et environnementale), puisé chez Félix Guattari, est présent comme grille d’analyse : la transformation numérique doit prendre en compte les écosystèmes psychiques et relationnels autant que les écosystèmes matériels et énergétiques.
  • La sobriété et la profondeur de la pensée constituent deux axes éthiques centraux : repenser l’usage des technologies pour éviter leur instrumentalisation et réorienter les pratiques publiques et privées vers la solidarité et la justice environnementale.

L’intelligence artificielle (IA) doit être « au service de l’Intelligence Collective », et non l’instrument de la substitution des humains ni le moteur d’un appauvrissement des capacités réflexives. Cette articulation est le premier vecteur qui sera développé et précisé dans ses ouvrages publiés peu après en 2025.

Points saillants et directions annoncées

Les deux publications décrivent une même trajectoire: penser le numérique comme une affaire humaine et politique, et penser l’IA comme un outil de soutien à l’intelligence collective plutôt que comme substitut des capacités humaines.

L’intervention avait tracé une trajectoire contre une perspective transhumaniste vers une lecture pharmacologique du numérique. Mobilisant le cadre post-guattarien des trois écologies — mentale, sociale et environnementale — elle proposait des outils pour évaluer les effets du numérique, tout en affirmant le rôle de la philosophie comme espace de pensée critique face aux transformations technologiques, et réciproquement, celui de la technologie pour inciter à penser autrement. Une éthique de sobriété s’en dégage, orientée vers la profondeur de la pensée, la solidarité et la justice environnementale.

S’en est suivi un prolongement dans la logique platonicienne du pharmakon où l’IA peut guérir ou nuire selon l’usage qu’on en fait. Convoquant l’allégorie de la caverne et la métaphore du feu comme symbole du savoir technique, son intervention a insisté sur la nécessité de placer l’humain au cœur de la technique. L’IA doit servir l’intelligence collective, prendre soin des capacités de penser et des relations d’altérité, plutôt que de les remplacer ou de les court-circuiter.

En définitive, ces réflexions dessinent une trajectoire cohérente : un décentrement de l’usage de l’IA, une attention soutenue à la façon dont les technologies reconfigurent nos sociétés socialement et peuvent amplifier les désordres mentaux, et une insistance sur les dimensions éthiques, politiques et pédagogiques de la transformation numérique. L’enjeu n’est pas de rejeter la technique, mais de la mettre au service des pratiques de réflexion, d’expression et d’interprétation — soutenant ainsi les relations humaines et collectives plutôt qu’automatisant les capacités.

Deux livres en 2025 : « De la bêtise artificielle » et « Penser avec Bernard Stiegler »

Pour comprendre l’évolution de la pensée d’Anne Alombert, il faut lire ces deux ouvrages comme des extensions et des précisions de ce qui a été présenté à l’occasion de ce dîner-débat.

_ De la bêtise artificielle. Pour une politique des technologies numériques (Allia, 2025)

L’ouvrage réinterroge la « bêtise » comme concept politique et social, en dépassant le simple débat technique autour de l’IA. Il s’agit de penser les technologies comme constituant des formes de rationalité politique qui peuvent soit renforcer la démocratie, soit l’affaiblir, selon les cadres éthiques et juridiques qui les accompagnent.

Son propos : définir une « politique des technologies numériques » qui organise l’usage des outils numériques autour des valeurs publiques, de la transparence, de la sobriété et du bien commun.

Points essentiels :

    1. la technologie n’est pas neutre;
    2. l’éducation et la citoyenneté numériques doivent être remises au cœur des politiques publiques;
    3. l’IA est un agent qui peut soutenir l’intelligence collective si elle est encadrée par des finalités démocratiques et des garde-fous éthiques;
    4. la dimension politique implique aussi la conception des infrastructures et des écosystèmes numériques dans lesquels les publics dialoguent, les services se déploient et les solidarités se tissent.

Les liens avec le dîner: la sobriété, la profondeur de la pensée et la solidarité sociale ne sont pas des accessoires, mais des exigences opérationnelles pour transformer les services publics et privés et pour éviter la captation des vies par des logiques d’optimisation ou économiques pures.

_ Penser avec Bernard Stiegler (PUF, 2025)

L’ouvrage s’inscrit dans la continuité des thèses de Bernard Stiegler, en engagement avec la notion de pharmakon et une éthique de la technique. Il s’agit d’explorer avec « comment penser avec Stiegler » ce qu’une autonomie des citoyens face à la machine et à l’intelligence artificielle permet.

Les principes phares : le soin comme dimension centrale de la politique du numérique; l’attention comme ressource démocratique; l’importance de l’éducation et de la culture comme antidotes à l’aliénation technique; la nécessité de lignes directrices qui empêchent l’éradication des capacités de penser, de s’exprimer et de créer des liens d’altérité.

En lien avec les idées de Guattari : les « écologies mentales et sociales » et la dimension environnementale sont mobilisées pour articuler une approche holistique du numérique — non pas comme simple outil économique, mais comme milieu vivant qui peut soit guérir, soit blesser.

En lien avec les idées d’Hannah Arendt : où écrivantt dans La Condition de l’homme moderne : « C’est une société de travailleurs que l’on va délivrer des chaînes du travail, et cette société ne sait plus rien des activités plus hautes et plus enrichissantes pour lesquelles il vaudrait la peine de gagner cette liberté. »

Cette citation, souvent reprise par Alombert, met en lumière l’enjeu politique et collectif de l’automatisation : la liberté ne se réduit pas à l’affranchissement du travail, mais doit s’inscrire dans une réflexion sur notre capacité à agir ensemble et à assumer nos responsabilités dans un monde transformé par la technique.

Objectifs : proposer des cadres analytiques et des pratiques publiques permettant d’organiser les technologies autour du soin, de l’intelligence collective et des pratiques démocratiques, plutôt que de les subordonner à des logiques de performance et d’optimisation facteurs de surcharge cognitive.

En somme, ces deux livres prolongent et précisent les axes mis en évidence lors du dîner-débat : de l’insistance sur la sobriété et la justice environnementale à l’idée que l’IA peut et doit servir l’intelligence collective, en restant au service des pratiques humaines et publiques.

Ce qui a évolué depuis 2025

On pourrait ainsi lire l’évolution de la pensée d’Anne Alombert au fil des deux livres publiés en 2025, aujourd’hui en 2026 :

De la transformation à la politique des technologies

Dans le dîner-débat, la transformation numérique est présentée comme nécessaire et moralement aspirante.

Dans les livres, elle se politise davantage : il s’agit d’élaborer des cadres de gouvernance qui rendent l’expérience numérique compatible avec les droits, la démocratie et le bien-être collectif.

Le fil rouge est la question du pouvoir des technologies et des infrastructures: qui décide, qui bénéficie, et comment les publics acquièrent-ils les moyens de s’exprimer et de participer ?

L’IA comme outil de soutien et non comme substitut

Nous insistions au travers de nos Posts LinkedIn sur l’idée que l’IA doit soutenir l’intelligence collective et ne pas remplacer les capacités humaines ni dégrader les rapports d’altérité.

Ses livres renforcent cette position en articulant des cadres pratiques et éthiques explicitement destinés à éviter l’érosion des capacités de penser et d’agir des citoyennes et citoyens.

La trilogie des écologies revisitée et étendue

L’idée des « trois écologies » demeure centrale, mais devient plus opérationnelle: comment les politiques publiques et les services privés intègrent-elles ces écologies mentale, sociale et environnementale dans les processus de conception et de mise en œuvre des technologies?

Elle permet aussi d’éclairer les effets indirects de la technologie sur le stress mental, les dynamiques communautaires et l’environnement, ouvrant la voie à des indicateurs et des mécanismes de contrôle social plus robustes.

La philosophique comme ressort pédagogique et politique

La philosophie n’est pas seulement une réflexion abstraite. Elle est présentée comme un mode d’action: penser l’IA et les technologies de manière qui transforme les pratiques publiques et privées, renforce la démocratie et protège les capacités humaines.

Le lien avec Félix Guattari et Bernard Stiegler clarifie une méthode: penser le numérique comme un pharmakon — capable de guérir et de nuire — et penser la technique comme un milieu collectif qui exige une éducation attentive et des formes de solidarité renforcées.

L’éthique de la sobriété comme programme concret

Déjà évoquée lors du dîner, la sobriété prend une dimension normative plus explicite: elle n’est pas un refus idéologique, mais une condition de durabilité démocratique et sociale. Elle implique des choix concrets sur la manière de concevoir, déployer et réguler les technologies (données, IA, plateformes, services publics).

Implications pour les politiques publiques et les pratiques professionnelles

L’extension des idées dans les deux ouvrages propose des implications concrètes pour les acteurs publics et privés, ainsi que pour les chercheurs, enseignants et citoyennes et citoyens.

Pour les services publics et les politiques publiques :

    • Intégrer les notions d’écologies mentale et sociale dans l’évaluation des programmes numériques: comment les services publics affectent-ils le bien-être psychique, le tissu social et l’environnement?
    • Mettre en place des cadres de contrôle démocratique sur les systèmes d’IA: transparence, explicabilité, garde-fous éthiques et mécanismes de responsabilité.
    • Favoriser des formations et des pratiques pédagogiques qui renforcent l’esprit critique et les capacités de réflexion des citoyens face à la technologie.

Pour les entreprises et les start-ups :

    • Concevoir les produits et services autour de l’utilité sociale et des droits humains plutôt que du seul bénéfice économique.
    • Déployer des mécanismes de sobriété numérique: réduction du gaspillage informationnel, optimisation énergétique, réduction des dépendances à des données massives privées lorsque cela n’est pas nécessaire.
    • Promouvoir des environnements de travail qui soutiennent l’attention, la créativité et les échanges collectifs plutôt que la surveillance et la productivité brute.

Pour les universités et les chercheurs :

    • Développer des cursus et des programmes de recherche autour des « politiques des technologies » et des « écologies » pour former des professionnels capables d’articuler théorie et pratique.
    • Encourager des approches transdisciplinaires associant philosophie, sociologie des technologies, sciences de l’ingénierie et études publiques, par exemple avec la Recherche-Action.

Pour les citoyens et les acteurs civiques :

      • Renforcer l’éducation numérique et l’éducation civique pour permettre une participation éclairée dans les discussions sur l’IA et les technologies.
      • Soutenir des initiatives de solidarité et de justice environnementale liées aux technologies: accès équitable, prévention des inégalités numériques, et plaidoyer pour des politiques publiques plus équitables.

Une pensée en chemin, au service de l’humain et du collectif

La conférence d’Anne Alombert a offert un éclairage philosophique sur notre rapport aux technologies numériques, autour de ces cinq idées clés : l’ambivalence de l’IA comme pharmakon (remède et poison selon son usage) ; la nécessité de prendre de la hauteur sur nos environnements numériques, à l’image du « poisson volant » de Stiegler ; le risque de déléguer à l’IA non plus seulement notre mémoire, mais notre capacité même à penser et à nous exprimer ; la question de la responsabilité face aux décisions automatisées ; et la priorisation à des modèles algorithmiques alternatifs, transparents et pluralistes.

Ces réflexions rejoignent un constat central : la réussite d’une transformation digitale ne tient pas à l’automatisation à outrance, mais à la capacité de créer des espaces où la technologie amplifie l’intelligence collective plutôt qu’elle ne s’y substitue.

La trajectoire d’Anne Alombert montre une convergence nette entre l’éthique de sobriété, la politique des technologies et une philosophie de la technique qui s’enracine dans les concepts de Guattari et de Stiegler.

L’intervention initiale a posé les jalons où l’humanité doit rester au cœur de la technique, l’IA doit servir l’intelligence collective, et la sobriété est un principe fondamental pour préserver la profondeur de la réflexion et la justice environnementale.

Les ouvrages de 2025 affinent et prolongent ce cadre : ils proposent des cadres analytiques et des pratiques concrètes pour transformer les technologies en instruments du soin, de la démocratie et de la solidarité.

Cette continuité montre une évolution non pas vers une opposition entre homme et machine, mais vers une co-évolution consciente où penser, ressentir et agir collectivement deviennent les véritables objets politiques du numérique.

Si vous cherchez une synthèse accessible et engagée des idées d’Anne Alombert, ces deux livres offrent des ressources précieuses pour les décideurs, les professionnels du numérique, les chercheurs et les citoyennes et citoyens qui veulent regarder l’ère numérique avec rigueur éthique et ambition démocratique.

Ressources et références

Concepts clés mentionnés : pharmakon (Stiegler/Guattari), les trois écologies (Guattari), sobriété numérique ou informatique durable, intelligence collective, éthique des nouvelles technologies, responsabilité publique des algorithmes.




Comment la France et l’Europe construisent une résilience numérique et une IA de confiance

Un an après le dîner-débat du Club de la Transformation Numérique, retour sur les avancées concrètes des projets portés par Arno Pons et Thomas Saint-Aubin

Le 3 février 2025, le Club de la Transformation Numérique organisait un dîner-débat autour des enjeux de l’IA LegalTech et du Data Management, avec pour fil rouge une question centrale : comment concilier innovation technologique, souveraineté des données et confiance dans l’IA ? Parmi les intervenants, Arno Pons (Digital New Deal) et Thomas Saint-Aubin (Legal Data Space) avaient esquissé des pistes ambitieuses pour structurer des écosystèmes de données souverains et résilients, capables de répondre aux défis géopolitiques et réglementaires de l’ère numérique.

Un an plus tard, où en sont ces projets ? Comment les initiatives portées par ces deux acteurs s’articulent-elles avec les stratégies européennes de résilience numérique et d’IA de confiance ? Cet article fait le point sur les avancées concrètes, les défis rencontrés, et les perspectives pour 2026.


 

Le dîner-débat de février 2025 : un tournant pour l’IA LegalTech et les Data Spaces

Lors de l’événement organisé par le Club de la Transformation Numérique, plusieurs constats avaient émergé :

  • L’urgence de souveraineté : face à la domination des acteurs américains (GAFAM) et chinois (BATX) dans le cloud, l’IA et la gestion des données, l’Europe devait impérativement structurer des alternatives souveraines, sous peine de perdre sa capacité à réguler et innover.
  • Le rôle clé des Data Spaces : ces espaces de partage sécurisé de données, sectoriels et interopérables, étaient identifiés comme un levier pour fédérer les acteurs publics et privés, tout en garantissant la conformité aux réglementations européennes (RGPD, DGA, AI Act).
  • L’IA LegalTech comme cas d’usage phare : le secteur juridique, riche en données structurées (jurisprudence, contrats, normes), était présenté comme un terrain idéal pour tester des modèles d’IA de confiance, alignés sur les valeurs européennes (transparence, équité, respect du droit).

Arno Pons avait alors souligné la nécessité de passer d’une logique de souveraineté déclarative à une résilience opérationnelle, tandis que Thomas Saint-Aubin avait annoncé le lancement imminent d’un Legal Data Space européen, dédié à la mutualisation des données juridiques.

L’Indice de Résilience Numérique (IRN), une boussole pour les organisations ?

Un outil pour mesurer et piloter les dépendances critiques

En janvier 2026, Arno Pons et ses associés (David Djaïz, Yann Lechelle) ont officiellement lancé l’Indice de Résilience Numérique (IRN) lors des Rencontres de la souveraineté numérique à Bercy. Inspiré du label environnemental B Corp, l’IRN propose aux entreprises, collectivités et administrations un score de résilience basé sur 20 critères, couvrant :

  • Les dépendances technologiques (cloud, hardware, logiciels).
  • La gouvernance des données (localisation, accès, interopérabilité).
  • Les risques géopolitiques (exposition aux sanctions, concentration des fournisseurs).
  • Les plans de continuité d’activité (réversibilité, diversification).

Exemple concret : L’IRN permet à une entreprise de savoir si elle est capable de basculer vers un fournisseur européen de cloud en cas de crise (ex. : restriction d’accès à AWS ou Microsoft Azure). « La question n’est plus ‘sommes-nous souverains ?’, mais ‘avons-nous un plan B si le robinet se ferme ?’ », résume Arno Pons.

Une alliance public-privé pour une résilience collective

L’IRN est porté par l’association Digital Resilience Initiative (aDRI), qui réunit :

  • Des acteurs publics : Caisse des Dépôts, DINUM (Direction interministérielle du numérique), Cigref.
  • Des industriels : Docaposte (filiale numérique de La Poste), RTE, Numeum.
  • Des experts : Think tank Digital New Deal, cabinets de conseil (Ascend Partners, Probabl).

Objectif : Cartographier les dépendances critiques de l’économie française et européenne, et proposer des feuilles de route pour réduire les risques. « Nous ne cherchons pas l’autarcie, mais une résilience qui permet de choisir ses dépendances », précise Arno Pons

L’IRN s’inscrit dans une démarche plus large de construction d’une IA européenne de confiance :

  • Transparence : Identifier les biais et les risques liés aux données d’entraînement des modèles d’IA.
  • Diversification : Encourager l’utilisation de plateformes européennes (ex. : Mistral, Ovhcloud) pour l’hébergement et le traitement des données.
  • Gouvernance : Intégrer les enjeux de résilience dans les comités de direction, au même titre que les risques financiers ou environnementaux.

Le Legal Data Space : vers une IA juridique souveraine ?

Un projet fédérateur pour le secteur juridique

Dès mars 2025, Thomas Saint-Aubin – aux côtés de Martin Bussy et avec le soutien de Digital New Deal – a lancé le Legal Data Space (LDS). Ce projet, présenté à Bpifrance en décembre 2025, vise à créer le premier espace européen de partage sécurisé de données juridiques, incluant :

  • Des données publiques : Jurisprudence, normes, doctrines.
  • Des données privées : Contrats, décisions internes, bases de connaissances des cabinets d’avocats.
  • Une infrastructure souveraine : Conforme au RGPD, au Data Governance Act (DGA), et à l’EHDS (Espace européen des données de santé).

90 professionnels du droit (avocats, juristes, legaltech, universités) ont signé un manifeste pour soutenir le projet, qui repose sur trois piliers :

  1. Mutualisation : Partager les coûts d’infrastructure et de R&D.
  2. Sécurité : Garantir la confidentialité et la traçabilité des données.
  3. Innovation : Développer des agents IA spécialisés pour les legal operations (ex. : analyse automatique de contrats, prédiction de risques juridiques).

Des cas d’usage concrets pour l’IA LegalTech

Le LDS permet d’envisager des applications innovantes :

  • Assistants juridiques IA : Outils capables d’analyser des milliers de contrats ou de jurisprudences en quelques secondes, tout en respectant les règles déontologiques du secteur.
  • Ontologies juridiques : Structuration sémantique des données pour les rendre « consommables » par des modèles d’IA.
  • Registre européen des œuvres juridiques : Projet en cours pour tracer l’utilisation des données d’entraînement des IA, en conformité avec le Règlement IA (AI Act).

Thomas Saint-Aubin insiste : « Il n’y a pas de bonne IA sans de bonnes données. Le LDS permet de garantir que ces données sont fiables, sémantisées, et souveraines » (actu-juridique.fr).

Un écosystème en construction

Le projet est porté par :

  • L’ADIJ (Association pour le Développement de l’Informatique Juridique).
  • Droit.org et l’Institut Français de l’Information Juridique.
  • Des partenaires technologiques : Legaltech, universités (Sorbonne, Sciences Po).

Un appel à manifestation d’intérêt (AMI) a été lancé pour fédérer davantage d’acteurs, avec l’ambition de faire du LDS un standard européen pour le secteur juridique.

Points de convergence : résilience numérique et IA de confiance

Des approches complémentaires 

Digital New Deal

Legal Data Space

Résilience globale (tous secteurs)

Résilience sectorielle (droit)

Outils de mesure (IRN)

Infrastructures de données (LDS)

Diversification des fournisseurs

Mutualisation des données juridiques

Gouvernance des risques

Gouvernance des données et de l’IA

Points communs :

  • L’Europe comme cadre : les deux projets s’appuient sur les règlements européens (DGA, AI Act, EHDS) pour structurer des écosystèmes de confiance.
  • La données comme levier : que ce soit pour mesurer la résilience (IRN) ou nourrir l’IA (LDS), la qualité, la souveraineté et l’interopérabilité des données sont centrales.
  • L’IA de confiance comme horizon : les deux initiatives visent à démocratiser une IA alignée sur les valeurs européennes (transparence, équité, respect des droits).

Des défis partagés

  • Financement : assurer la pérennité des projets après les subventions publiques (France 2030, Horizon Europe).
  • Adoption : convaincre les acteurs privés (entreprises, cabinets d’avocats) de l’intérêt stratégique de ces infrastructures.
  • Interopérabilité : faire dialoguer les Data Spaces sectoriels (santé, énergie, droit) pour maximiser leur impact.

Perspectives pour 2026 : vers une Europe numérique résiliente ?

Digital New Deal

  • Déploiement de l’IRN dans les grandes entreprises et administrations, avec un focus sur les secteurs critiques (énergie, santé, défense).
  • Renforcement des alliances technologiques (Cloud/Data/IA) pour réduire les dépendances extra-européennes, en s’appuyant sur les financements France 2030 et Horizon Europe.
  • Publication de nouveaux rapports sur la résilience des chaînes de valeur numériques, en collaboration avec des think tanks européens.

Legal Data Space

  • Finalisation de la phase pilote du LDS, avec l’intégration des premiers acteurs juridiques et legaltech.
  • Développement d’agents IA juridiques basés sur les données du LDS, en collaboration avec des partenaires académiques (Sorbonne, Sciences Po) et industriels.
  • Extension du modèle à d’autres secteurs (ex. : santé, finance), en s’appuyant sur l’expérience acquise dans le droit (Lamy-liaisons.fr).

Au niveau européen 

  • Harmonisation des Data Spaces ?
    La Commission européenne continue de soutenir le déploiement d’espaces communs de données dans 14 secteurs stratégiques, avec un budget dédié dans Horizon Europe et Digital Europe  (digital-strategy.ec.europa.eu).
  • Régulation et innovation : le AI Act et le Data Act entreront en application progressive, imposant aux acteurs une transparence accrue sur les données et les algorithmes.
  • Souveraineté et résilience : les projets comme l’IRN et le LDS pourraient-ils  inspirer d’autres initiatives, faisant de l’Europe un modèle alternatif face aux géants américains et chinois?

Conclusion : une année 2026 charnière pour le numérique européen ?

Un an après le dîner-débat du Club de la Transformation Numérique, les projets portés par Arno Pons et Thomas Saint-Aubin ont franchi une étape décisive. Avec l’Indice de Résilience Numérique (IRN) et le Legal Data Space (LDS), la France et l’Europe disposent désormais d’outils concrets pour :

  • Mesurer et réduire leurs dépendances technologiques.
  • Structurer des écosystèmes de données souverains et interopérables.
  • Développer une IA de confiance, alignée sur les valeurs européennes.

Prochaine étape : 2026 sera l’année du passage à l’échelle, avec l’objectif de fédérer davantage d’acteurs publics et privés autour de ces infrastructures, et de démontrer leur valeur ajoutée économique et stratégique.

Comme le résume Arno Pons : « La résilience, ce n’est pas une option, c’est une condition de survie dans un monde numérique fragmenté. L’Europe a les atouts pour réussir – à condition de passer des mots aux actes. » (thedigitalnewdeal.org)

 

Les questions qui se posent aujourd’hui

Comment accélérer l’adoption de ces infrastructures souveraines pour en faire un standard européen ? Quels sont les freins persistants : financement, régulation IA par les risques ou par les degrés  d’autonomisation,  adoption par les usages et alignements écosystémiques des pays et des filières sectorielles, ontologies et interopérabilité sémantique, identité numérique certifiée ?

 




L’intégration stratégique de l’IA dans la conduite du changement organisationnel : approches, parcours et rôles RH

La Chaire ESSEC du changement, en partenariat avec la Chaire IMEO (Innovation Manageriale et Excellence Opérationnelle) depuis 2017, mène des recherches-action pour transformer les organisations. Elle expérimente, prototyper et généralise de nouvelles méthodes de changement, en collaborant étroitement avec des grands groupes et des acteurs de la formation. L’IA y joue un rôle croissant : elle accélère la performance des juniors, mais nécessite un cadrage éthique et une maîtrise du temps. Deux modèles émergent — « Change for IA » et « IA for Change » — pour intégrer l’IA dans la transformation. Les futurs travaux viseront à adapter les parcours de changement aux types d’organisations, à modéliser des stratégies économiques locales, et à renforcer le rôle de la DRH ou de la direction numérique comme orchestrateurs de la transformation.

Vers une industrialisation du changement pilotée par la donnée

Un an après le dîner-débat du 2 janvier 2025, qui avait posé les fondements d’une réflexion critique sur les apports et limites de la Changetech et de l’IA dans la conduite du changement, les travaux de la Chaire ESSEC du changement ont pris une nouvelle ampleur. Ce chapitre dresse un bilan des avancées concrètes et des axes stratégiques qui ont émergé en 2026, marquant une transition décisive : celle d’un accompagnement du changement encore artisanal vers une industrialisation pilotée par la donnée.

 

Transformation des fonctions RH et Change : vers une “Change Tech” mesurable

L’impact de l’IA sur les métiers du changement et des RH est désormais analysé de manière structurelle et quantitative. À partir d’un panel de 34 experts, nous avons identifié les nouvelles pratiques émergentes — telles que la personnalisation des parcours d’accompagnement, l’automatisation des feedbacks ou l’anticipation des résistances — et en avons mesuré l’adoption. Cette démarche permet de définir un cadre opérationnel de la Change Tech, à la fois reproductible et adaptable aux contextes organisationnels variés.

 

Gouvernance et Audit social : l’IA au service d’une transformation éthique et stratégique

La gouvernance du changement évolue vers une forme augmentée, où l’IA n’est plus un simple outil d’efficacité, mais un levier de pilotage stratégique. Des chartes éthiques sont en cours d’élaboration pour encadrer l’usage des algorithmes dans les processus de transformation. L’objectif : garantir que la capacité de changement des organisations soit non seulement mesurable, mais aussi alignée sur des valeurs humaines et sociales.

 

Surcharge cognitive numérique : un enjeu prioritaire en 2026

Face à l’accélération des projets et à la saturation attentionnelle des équipes, un nouveau champ de recherche a été lancé : l’IA au service de la préservation de la santé mentale au travail. Nous explorons comment les modèles prédictifs peuvent identifier les signaux précoces d’épuisement et proposer des ajustements organisationnels en temps réel — réduisant ainsi la surcharge cognitive tout en maintenant la dynamique de transformation.

De l’expérimentation à l’industrialisation

En un an, la démarche initiée en janvier 2025 s’est structurée en un programme de recherche-action ambitieux, centré sur la mesure, la reproductibilité et l’éthique. L’objectif n’est plus seulement d’accompagner le changement, mais de le fabriquer à l’échelle, avec des outils, des indicateurs et des cadres qui permettent aux organisations de se transformer de manière durable, humaine et pilotée par la donnée

Une démarche pionnière au service d’une transformation soutenable

Les travaux menés en 2025-2026 par la Chaire ESSEC du changement et la Chaire IMEO marquent un tournant décisif dans la compréhension et la pratique du changement organisationnel à l’ère de l’IA. Avec un taux de satisfaction de 4,6/5 et 95% d’utilité perçue par les participants, ces recherches-actions démontrent qu’il est possible de concilier rigueur académique et pertinence opérationnelle immédiate.

Trois enseignements majeurs émergent de cette année d’investigation collective :

  1. L’intelligence politique supplante la maîtrise méthodologique : l’IA automatise les processus, l’humain pilote désormais le sens et l’influence.
  2. La saturation cognitive devient un risque systémique : l’urgence n’est plus d’accélérer, mais de gouverner la capacité d’absorption des organisations.
  3. La mémoire organisationnelle s’impose comme actif stratégique : face aux cycles rapides et à l’IA générative, préserver le savoir collectif devient un levier de performance durable.

Pourquoi suivre les travaux de la Chaire ESSEC du changement ?

Parce qu’il ne s’agit pas seulement d’observer l’impact de l’IA sur les organisations, mais de co-construire les pratiques de demain avec une communauté engagée de chercheurs, praticiens et décideurs. Les prochains travaux approfondiront ces enjeux à travers des journées expertes, des groupes de recherche-action et de nouvelles publications.

L’IA transforme le changement. Ensemble, nous transformons la manière dont les organisations s’y préparent.

👉 Pour ne rien manquer des avancées et participer aux prochains travaux : suivez la Chaire ESSEC du changement et rejoignez le GT Change IA.




Souveraineté numérique : l’Europe face à son moment de vérité avec M. le député Philippe Latombe

Ce lundi 12 janvier 2026, le Club de la Transformation Numérique a reçu Philippe Latombe, député de la Vendée et expert incontournable des enjeux de souveraineté technologique, pour un dîner-débat sans concession sur l’avenir numérique de la France et de l’Europe (dont vous retrouverez le compte-rendu détaillé à la fin de l’article).

Philippe Latombe

Un constat alarmant

L’Europe, et la France en particulier, sont aujourd’hui des « colonies numériques » des États-Unis. La dépendance technologique s’aggrave, notamment sous l’effet d’une doctrine américaine de plus en plus offensive, incarnée par le retour de Donald Trump. Les données européennes, en particulier les données de santé, sont devenues une cible stratégique pour les géants américains.

Les enseignements clés

✅ L’Allemagne prend la main : Contrairement à la France, qui privilégie une approche conceptuelle, l’Allemagne agit de manière industrielle et pragmatique, imposant son leadership sur le numérique européen.

✅ Les projets législatifs en cours : La Loi Résilience (transposition de NIS2 et DORA) et le règlement Omnibus soulèvent des défis majeurs, notamment sur la protection des données et la cybersécurité.

✅ Les freins structurels : La France peine à influencer les décisions européennes, manque de présence à Bruxelles, et voit ses financements européens lui échapper.

✅ La commande publique comme levier : Un euro de commande publique génère 1,3 à 1,4 euro de chiffre d’affaires, contre 0,8 euro pour une subvention. Pourtant, la France reste paralysée par des règles de transparence excessives.

✅ L’urgence d’agir : La fenêtre d’opportunité pour construire une souveraineté numérique européenne se referme. Les acteurs publics et privés doivent coordonner leurs efforts dès maintenant.

Des pistes concrètes :

🔹 Buy European Act et Small Business Act : Priorité absolue pour favoriser les solutions européennes.

🔹 Réforme du Crédit d’Impôt Recherche : Réorienter les aides vers les TPE/PME et instaurer un système de remboursement en cas de rachat par des fonds étrangers.

🔹 Stabilité fiscale et visibilité : Les entrepreneurs ont besoin de prévisibilité pour investir sur le long terme.

 « La souveraineté numérique ne se décrète pas, elle se construit par des actions concrètes et coordonnées entre acteurs publics et privés. »

📄 Pour aller plus loin : nous vous invitons à consulter le compte-rendu détaillé de ce dîner-débat, riche d’enseignements et de recommandations stratégiques. Un document sans concession, qui met en lumière les défis et les opportunités pour renforcer notre autonomie stratégique d’ici 2035.

👉 [Lien vers le compte-rendu détaillé




Géopolitique des nouvelles routes de la soie numériques : enjeux et défis pour l’Europe

Xavier Drouet a ouvert le dîner-débat en soulignant l’omniprésence de la Chine dans l’économie et la diplomatie mondiales. Il a rappelé que la Chine, après des siècles de domination économique et culturelle, a connu un déclin au XIXe siècle avant de renaître comme une superpuissance sous l’impulsion de Deng Xiaoping et de son modèle d’« économie socialiste de marché ». Aujourd’hui, avec les nouvelles routes de la soie (Belt and Road Initiative, BRI), lancées en 2013 et renforcées en 2017 par une dimension numérique, la Chine cherche à redessiner les équilibres géopolitiques et à imposer sa vision d’un nouvel ordre mondial.

 

Les nouvelles routes de la soie : un projet multidimensionnel

Une ambition historique et géographique

Xavier Drouet a commencé par un rappel historique :

  • La Chine a été la première puissance économique mondiale en 1820, avant de subir un déclin au XIXe siècle sous la pression coloniale occidentale et les guerres (Japon, guerre civile).
  • Depuis 1976, la Chine a adopté une économie socialiste de marché, marquée par son adhésion à l’OMC en 2001 et une croissance fulgurante dans les années 2000.
  • Les nouvelles routes de la soie, annoncées en 2013, sont un projet pharaonique visant à relier la Chine à l’Europe, l’Afrique et l’Amérique latine via des infrastructures terrestres, maritimes et numériques.

Les infrastructures physiques : un réseau tentaculaire

  • Voies maritimes : la Chine investit massivement dans des ports stratégiques (Gwadar au Pakistan, Piraeus en Grèce, Djibouti, etc.).
  • Voies ferroviaires : deux corridors majeurs ont été développés :
    • Le Corridor Nord, reliant la Chine à Rotterdam via la Russie, la Biélorussie, la Pologne et l’Allemagne (12 000 km).
    • Le Corridor Médian, évitant la Russie, passant par l’Asie centrale et la Turquie pour rejoindre l’Union européenne.
  • Voies routières : un axe transasiatique relie la mer Jaune à la Turquie, complété par des autoroutes en Afrique et en Asie du Sud-Est.

Objectifs stratégiques :

  • Sécuriser les approvisionnements en énergie et matières premières.
  • Désenclaver les provinces chinoises (ex. : Xinjiang).
  • Renforcer la cohésion territoriale et la légitimité du Parti communiste chinois.

Les routes de la soie numériques : une composante stratégique

Les infrastructures numériques chinoises

Xavier Drouet a insisté sur la dimension numérique des nouvelles routes de la soie, développée depuis 2017 :

  • Câbles sous-marins : 450 câbles dans le monde, dont certains contrôlés par la Chine (ex. : câble PIS PEACE, reliant le Pakistan à l’Europe via la mer Rouge et Marseille).
  • 5G : la Chine compte 4,5 millions d de stations de base et antennes 5G et 1 milliard d’abonnés. Huawei, leader mondial, exporte cette technologie en Asie, Afrique et Amérique latine, malgré les restrictions en Europe et en Amérique du Nord.
  • Satellites : 906 satellites chinois en orbite en 2025, avec un projet de 13 000 satellites supplémentaires d’ici 2029. Ces satellites, souvent militaires, permettent une couverture mondiale et le déploiement du système de navigation Beidu, concurrent du GPS.
  • Intelligence artificielle (IA) : utilisation massive pour la surveillance (reconnaissance faciale, contrôle social traçage des dissidents) et l’exportation de technologies de traçage des dissidents  contrôle social (ex. : Zimbabwe, Iran, Ouganda).

Une stratégie d’influence globale

  • Contrôle des données : les câbles sous-marins et les satellites permettent à la Chine de maîtriser les flux de données et de promouvoir sa propagande numérique.
  • Diplomatie du sourire : la Chine utilise des partenariats bilatéraux pour étendre son influence, souvent via des prêts asymétriques (ex. : piège de la dette au Sri Lanka).
  • Collier de perles numérique : un réseau de bases et d’infrastructures stratégiques (ports, câbles, satellites) encerclant l’Inde et l’Asie du Sud-Est, renforçant la présence militaire chinoise.

Les défis pour l’Europe

Une Europe coincée entre deux superpuissances

Xavier Drouet a décrit l’Europe comme prise entre deux feux :

  • Les États-Unis, dominants sur les logiciels et plateformes (GAFAM) et l’IA.
  • La Chine, leader sur les infrastructures (5G, câbles, satellites) et N°2 mondial sur l’IA.

Problématiques clés :

  • Dépendance technologique : l’Europe accuse un retard en microélectronique (ex. : ASML vs Huawei) et en IA.
  • Souveraineté des données : comment protéger les données européennes face aux lois extraterritoriales US et chinoises ?
  • Régulation : l’AI Act et les droits de douane sont-ils suffisants pour limiter l’influence chinoise ?

Les faiblesses chinoises : des opportunités pour l’Europe ?

  • Démographie : vieillissement de la population et baisse de la population active (7 millions de chinois en moins par an).
  • Économie : ralentissement de la croissance (16,4 % du PIB mondial en 2024, contre 18,4 % en 2021).
  • Résistances locales : certains pays (Malaisie, Kenya, Thaïlande) ralentissent ou annulent des projets BRI en raison de dettes insoutenables.

Leviers d’action pour l’Europe :

  • Investir dans des niches technologiques (ex. : biotechnologies, énergie renouvelable).
  • Maintenir sa compétitivité académique (mathématiques, physique quantique)
  • Renforcer la coopération intra-européenne pour éviter les divisions.
  • Profiter des faiblesses chinoises pour négocier des partenariats équilibrés.

Questions et réflexions clés

Faut-il interdire ou réguler les technologies chinoises ?

  • Exemple de Huawei : l’Europe et les États-Unis ont restreint son accès à leurs marchés. Faut-il étendre ces restrictions à d’autres secteurs (ex. : voitures connectées, data centers) ?
  • Risque de dépendance : comment concilier ouverture économique et protection stratégique ?

Quel rôle pour l’Inde et l’Afrique ?

  • L’Inde : un acteur émergent avec une innovation frugale qui renforce son dynamisme technologique (ex. : hub de services à Bombay) et une stratégie distincte de celle de la Chine.
  • L’Afrique : un terrain de confrontation sino-russe, où la Chine investit dans les infrastructures et la Russie (via Wagner) dans le contrôle politique et l’exploitation minière.

Comment préserver un modèle Internet européen ?

  • Contrôle des données : comment éviter que les données européennes ne soient captées par des lois extraterritoriales chinoises et US?
  • Modèle européen : peut-on créer un Internet souverain, porteur de valeurs démocratiques ?

Conclusion : un équilibre fragile

Xavier Drouet a conclu en soulignant que les nouvelles routes de la soie numériques sont bien plus qu’un projet économique : elles sont un outil de puissance pour la Chine, visant à redéfinir les équilibres mondiaux. L’Europe doit :

  • Trouver un équilibre entre coopération et protection.
  • Investir dans des technologies souveraines (ex. : biotechnologies, énergie).
  • Renforcer sa cohésion pour peser face aux États-Unis et à la Chine.

Question ouverte : l’Europe parviendra-t-elle à concilier souveraineté technologique et dépendance économique face à la Chine ?

 




Retours sur le dîner-débat « Apports et limites de la #ChangeTech et de l’IA »

Le 27 janvier 2025, le Club de la Transformation Numérique a organisé un dîner-débat animé par Pascal Le Goff et Alexandre Guillard. Ces intervenants, membres actifs du club, ont présenté la Chaire ESSEC du changement et ses objectifs pour 2025, centrés sur le thème « Change Tech et IA : conditions de réussite ».

 

Présentation

 

L’ESSEC Business School, ancrée dans des valeurs d’humanisme, de responsabilité, d’innovation et d’ouverture, s’engage à promouvoir la liberté par le savoir.

La Chaire ESSEC du changement, associée à la Chaire IMEO depuis 2017, se consacre à la recherche-action pour favoriser la transformation des entreprises et des organisations.

Objectifs et méthodologie

L’objectif est d’expérimenter , prototyper et généraliser de nouvelles formes de transformation. Développer des savoirs, diffuser ces connaissances accompagner les entreprises et organisations.

Les partenaires de grands groupes de services et de formation accompagnent ces recherches  L’enjeu : améliorer des formations et valoriser les publications ce sont des projets de recherche dynamique typiques de le recherche action.

L’approche de la Recherche -Action : identifier les problématiques, concevoir des solutios, produire des connaissances avec une approche de type amélioration continue grâce à une collaboration étroite entre chercheurs et opérationnels.

IA et Recherche-Action

L’intégration de l’IA dans les processus de recherche-action a démontré son potentiel à accélérer la performance des juniors, bien que son impact soit moindre pour les experts seniors. Les discussions ont souligné l’importance de la maîtrise du temps et du cadrage éthique dans l’utilisation de l’IA. Les modèles d’adoption de la technologie, tels que « Change for IA » et « IA for Change », visent à intégrer l’IA dans la conduite du changement et la transformation organisationnelle.

Des sujets clés pour la transformation avec l’IA émergent pour les futures recherches-actions, notamment la construction de parcours de changement adaptés à chaque type d’organisation, l’élaboration de modèles économiques pour la stratégie de terrain, et le rôle de la DRH ou de la direction numérique en tant que chef d’orchestre de la transformation numérique. 

En conclusion, un appel à participation à toutes les organisations en transformation

Un appel à participation est lancé pour un projet de recherche-action en 2025 sur le rôle des DRH transformé par et pour l’IA. Ce projet nécessite un panel de 15 à 20 personnes pour collaborer sur 2 ou 3 itérations, en utilisant une grille de maturité et en réalisant des enquêtes de terrain. Pour plus d’informations ou pour participer, veuillez contacter le Club de la Transformation Numérique.