L’IA ne remplace pas l’intelligence humaine — elle en révèle les limites et les potentialités. La vraie révolution de cette décennie ne sera pas technologique, mais cognitive : il s’agit d’apprendre à penser avec et contre les machines, pour rester maîtres de nos choix. Dans ce contexte, la formation n’est plus une option de confort, mais la condition sine qua non de notre résilience collective.
Mai 2025 – Mai 2026.
En l’espace de douze mois, l’intelligence artificielle générative (IAG) est passée du statut de curiosité technologique à celui de réalité opérationnelle incontournable. Lors du dîner-débat du Club de la Transformation Numérique organisé le 5 mai 2025, Laure Baquero, économiste à l’UNEDIC, dressait un panorama prudent, soulignant autant le potentiel de « destruction créatrice » que les risques de fractures sociales. Un an plus tard, le bilan est sans équivoque : la transformation s’avère extrèmement rapide , mais elle révèle des asymétries préoccupantes. Entre adoption massive, inégalités croissantes et urgence de la formation, retour sur une année charnière.
L’IA générative dans le quotidien professionnel : une adoption plus rapide que prévu
Contexte et accélération : du scénario à la réalité
En mai 2025, les travaux prospectifs synthétisés par Laure Baquero évoquaient une transition progressive. Le Baromètre UNEDIC de janvier 2026 vient balayer cette hypothèse de progressivité s’agissant de certaines activités économiques : l’adoption a été foudroyante. Aujourd’hui, 40 % des demandeurs d’emploi utilisent déjà l’IA pour rédiger leurs CV, personnaliser leurs lettres de motivation ou simuler des entretiens. Ce qui était perçu comme un avantage concurrentiel marginal est devenu une norme implicite du marché du travail.
Côté recrutement, 40 % des entreprises ont intégré des outils d’IA dans leurs processus de tri et d’analyse de candidatures. Cette généralisation s’accompagne d’une diversification de l’offre : si les géants historiques restent présents, l’année 2025-2026 a vu l’émergence forte de modèles spécialisés comme Claude (Anthropic), plébiscité pour sa nuance rédactionnelle, et une multiplication d’outils « verticaux » dédiés à des métiers précis (analyse contractuelle pour les juristes, aide au diagnostic pour les médecins, optimisation de code pour les ingénieurs). L’IA n’est plus un outil transversal vague ; elle s’incarne dans des assistants métiers capables d’exécuter des tâches complexes avec une précision croissante.
Secteurs pionniers et résistances
La carte de l’adoption de l’IA en 2026 dessine une France à deux vitesses.
- Les secteurs en avance : la tech, la finance, le marketing et la santé (pour la partie administrative et l’aide au diagnostic) ont franchi le cap de l’industrialisation. Dans la finance, l’analyse de risques est désormais assistée en temps réel ; dans le marketing, la production de contenu a été multipliée par dix grâce à l’automatisation. (Roland Berger. (2023). L’impact de l’IA générative sur l’emploi en France et Hatzius, J. et al. (2023). The potentially large effects of artificial intelligence on economic growth. Goldman Sachs.)
- Les secteurs en résistance : à l’inverse, l’adoption est pour l’heure moins répandue dans l’artisanat, une partie de l’éducation et certains métiers manuels . Ceci s’explique moins par une inaptitude technique que par des barrières culturelles, un manque de formations adaptées aux spécificités du terrain, et parfois des verrous réglementaires protégeant le jugement humain, ou encore une inadéquation des outils d’IAG aux usages de ces professions.
Cependant, cette accélération ouvre la boîte de Pandore de la cybersécurité. L’émergence des IA agentiques (capables d’agir de manière autonome) et la sophistication des deepfakes ont introduit de nouveaux risques. En 2026, la manipulation de données sensibles et l’usurpation d’identité lors de processus de recrutement à distance sont devenues des menaces crédibles, obligeant les entreprises à investir massivement dans des protocoles de vérification que les plus petites structures peinent à suivre.
Inégalités et fractures : qui paie le prix de la transformation ?
Confirmations des craintes de 2025
Les mises en garde de Laure Baquero lors de la rétrospective de mai 2025 se sont malheureusement en partie vérifiées. Le rapport annuel de l’UNEDIC « Transitions : quel marché du travail demain ? » confirme que les femmes et les seniors sont les premiers exposés aux effets de substitution de l’IA.
- Les seniors, souvent concentrés sur des postes intermédiaires aux tâches répétitives (secrétariat, comptabilité de base, gestion administrative), font face à une obsolescence accélérée de leurs compétences si elles ne sont pas mises à jour.
- Les femmes, surreprésentées dans les secteurs administratifs et de service client (télévente, accueil), subissent de plein fouet l’automatisation de ces fonctions.
Les données de 2026 montrent une disparition tangible de postes d’exécution, tandis que la création de rôles hybrides (comme les « prompt engineers » ou les gestionnaires de conformité éthique) reste pour l’instant insuffisante pour absorber les flux de sorties. Le chômage dit « technologique » commence à apparaître dans les statistiques, non pas comme un phénomène de masse immédiat, mais comme une érosion silencieuse des opportunités pour les profils non adaptés.
Nouveaux clivages : la fracture cognitive et territoriale
Au-delà des catégories socioprofessionnelles, une nouvelle ligne de fracture s’est dessinée en 2026 : la fracture cognitive. Elle ne sépare plus seulement ceux qui ont un emploi de ceux qui n’en ont pas, mais ceux qui maîtrisent l’IA (pour automatiser, analyser, créer) de ceux qui la subissent (exécutant les tâches résiduelles que l’IA ne peut pas encore faire, souvent moins valorisées).
Cette fracture a aussi une dimension géographique. Les opportunités liées à l’IA se concentrent massivement dans les métropoles disposant d’infrastructures numériques robustes et d’écosystèmes d’innovation, laissant les territoires périphériques et les « déserts numériques » en marge de la dynamique de création de valeur. Enfin, un clivage de sécurité émerge : les grands groupes s’équipent d’IA souveraines et sécurisées, tandis que les PME, faute de moyens, s’exposent davantage aux risques de fuites de données et de dépendance envers des fournisseurs externes non maîtrisés.
Formation et adaptation : le grand retard français et européen
L’urgence de la formation
Si l’adoption des outils a été fulgurante, l’accompagnement humain accuse un retard structurel. Le constat est amer : la diffusion des usages via des MOOC ou des certifications en ligne ne suffit pas. Il manque cruellement de structures d’accompagnement profond pour la reconversion des seniors et la requalification des métiers menacés.
Comparée à des modèles internationaux comme Singapour (avec son programme « SkillsFuture »), la Corée du Sud ou même l’Allemagne, la France apparaît en retrait. Les délais de déploiement des dispositifs publics, comme un hypothétique « Compte Personnel de Formation IA » généralisé, restent trop longs face à la vitesse d’obsolescence des compétences. De plus, l’impératif de la transition écologique complexifie la donne : les entreprises recherchent désormais des profils doubles, capables de maîtriser l’IA tout en intégrant les enjeux de décarbonation, une combinaison de compétences encore rare sur le marché.
Nouvelles compétences clés
Face à ce défi, le référentiel de compétences évolue radicalement.
- Compétences techniques : La maîtrise du prompt engineering, de l’analyse de données et les bases de la cybersécurité deviennent le nouveau socle commun, au même titre que la bureautique hier.
- Compétences cognitives : Plus fondamentalement, c’est l’esprit critique, l’éthique de l’IA et la capacité à collaborer avec des systèmes intelligents qui deviennent discriminantes. Savoir vérifier une information générée par une IA, comprendre ses biais et décider en dernier ressort sont des qualités purement humaines que la machine ne peut simuler.
Des programmes pilotes commencent à émerger, notamment via des partenariats écoles-entreprises pour former aux IA sectorielles, mais ils restent à l’état d’expérimentation face à l’ampleur du besoin.
Prudence, humilité et impératif de formation
Un an après les analyses prospectives de mai 2025, l’IA générative a tenu ses promesses de disruption, mais son impact reste profondément asymétrique. Elle crée de la valeur considérable pour ceux qui savent l’exploiter, tandis qu’elle marginalise ceux qui en sont exclus, accentuant les inégalités existantes. Les risques cognitifs (dépendance aux outils, perte de savoir-faire fondamentaux) et cybersécuritaires (manipulation, deepfakes) appellent une vigilance accrue, bien au-delà de la simple optimisation de processus.
Pour 2027 et au-delà, trois impératifs se dégagent :
- Former massivement : il ne s’agit plus seulement d’apprendre à utiliser des outils, mais de comprendre leur complémentarité avec l’expertise humaine. Un médecin doit utiliser l’IA pour affiner son diagnostic, mais rester le décideur ultime ; un juriste doit s’en servir pour analyser la jurisprudence, mais garder la maîtrise de la stratégie judiciaire.
- Anticiper les fractures : les politiques publiques doivent se cibler prioritairement sur les populations vulnérables identifiées par l’UNEDIC : seniors, femmes, et territoires périphériques. Des mesures concrètes comme des « chèques formation IA » ou le soutien à des incubateurs locaux pourraient corriger le tir.
- Encadrer sans étouffer : la régulation doit évoluer pour couvrir les usages à risque (IA agentique, deepfakes) sans freiner l’innovation. L’idée de « sandbox réglementaires », permettant de tester des outils en conditions réelles sous supervision, semble être une piste prometteuse.
L’IA ne remplace pas l’intelligence humaine — elle en révèle les limites et les potentialités. La vraie révolution de cette décennie ne sera pas technologique, mais cognitive : il s’agit d’apprendre à penser avec et contre les machines, pour rester maîtres de nos choix. Dans ce contexte, la formation n’est plus une option de confort, mais la condition sine qua non de notre résilience collective.
BIBLIOGRAPHIE
Documents et Rapports UNEDIC :
- Baquero, Laure. Les effets attendus de l’Intelligence Artificielle Générative sur l’emploi. Présentation pour le Club de la Transformation Numérique, 5 mai 2025.
- UNEDIC. Emploi et IA générative : panorama des travaux économiques existants. Publication, janvier 2025.
- UNEDIC. Transitions : quel marché du travail demain ? Rapport annuel 2025. Janvier 2026.
- UNEDIC. Baromètre UNEDIC : Intelligence artificielle et recherche d’emploi. Janvier 2026.
- UNEDIC. Climat, numérique, IA : les employeurs à l’heure des transitions. Publication 2025.
- UNEDIC TV & Longue vue.
Interview sur les effets de l’IAG sur l’emploi (avec Laure Baquero).
Travaux académiques et études cités dans la présentation de Laure Baquero :
- Bergeaud, A. (2024). Exposition à l’intelligence artificielle générative et emploi : une application à la classification socio-professionnelle française. INSEE.
- Roland Berger. (2023). L’impact de l’IA générative sur l’emploi en France.
- Cazzaniga, M. et al. (2024). Gen-AI: Artificial intelligence and the future of work. FMI (Fonds Monétaire International), Rapport SDN/2024/001.
- Hatzius, J. et al. (2023). The potentially large effects of artificial intelligence on economic growth. Goldman Sachs.
Contexte et Événements :
- Club de la Transformation Numérique. Post LinkedIn du 6 mai 2025 : Résumé du dîner-débat avec Laure Baquero.
- Conférence du 5 mai 2025 : Dîner-débat « Impact de l’IAGEN sur l’emploi » avec Laure Baquero.
Références générales et comparaisons internationales (citées dans l’analyse) :
- Programmes internationaux de formation (ex: SkillsFuture à Singapour).
- Dispositifs français (Compte Personnel de Formation – CPF).
- Concepts théoriques : Joseph Schumpeter (« Destruction créatrice »).


