L’IA au pied du mur : pourquoi le rapport d’Anthropic mesure un mirage
Le dernier rapport d’Anthropic, « Impacts de l’IA sur le marché du travail », se veut une boussole pour l’avenir. En opposant une « zone bleue » de performance théorique à une « zone rouge » de compétence réelle, l’entreprise de San Francisco prétend cartographier l’inévitable colonisation de nos métiers par le calcul. Mais à y regarder de plus près, ce document révèle une faille méthodologique majeure : il confond l’accumulation massive d’informations avec la maîtrise de la connaissance.
Le diagnostic d’une impuissance structurelle
Là où les technoscientistes voient un « gouffre d’exécution » que seule la puissance de calcul (le scaling) pourrait combler, nous voyons une rupture de nature. L’IA est une machine à traiter l’information au sens de Shannon : une réduction statistique de l’incertitude. Elle peut ingérer l’intégralité du Code civil sans jamais posséder la connaissance d’un avocat, laquelle s’ancre dans l’expérience du prétoire et les responsabilités qui lui incombent.
L’écart persistant entre la théorie et la pratique n’est pas un retard de croissance ; c’est le diagnostic d’une IA qui sature dans la simulation. Comme le souligne Michel Levy-Provençal, dans sa Newsletter du 11 mars, l’IA demeure une technologie « non-finie ». Elle ne remplace pas le travail, elle déplace la pénibilité : l’humain se retrouve transformé en un « superviseur-correcteur » forcé, responsable de valider les approximations d’un système probabiliste. Le gain de productivité vanté devient alors un mirage comptable qui ignore la lame de fond d’une surcharge cognitive des équipes, massive
L’IA générative et ses limites : entre promesses et réalités techniques
L’évaluation de la sécurité des modèles d’IA générative, comme ceux développés par Anthropic, a suscité des débats fin 2025 et en 2026. Plusieurs rapports, publiés par Anthropic, et des institutions étatiques ont mis en lumière des risques concrets : utilisation malveillante de leurs outils pour des campagnes d’espionnage cyber, limites dans la détection des abus, et surtout, une dépendance croissante à des solutions dont la robustesse reste encore discutée.
Les expertises récentes, notamment celles portées par le référentiel ANSSI (ReCyF 2.5, 2026), révèlent des failles structurelles dans l’utilisation de l’IA générative pour le développement logiciel. D’une part, le code produit automatiquement peut introduire des vulnérabilités non détectées (configurations non sécurisées, dépendances obsolètes), en l’absence de veille active sur les correctifs ou de revues systématiques des architectures. D’autre part, la dépendance à des outils tiers — souvent extra-européens — accroît les risques d’exfiltration de données ou d’introduction de backdoors, surtout lorsque ces outils ne sont pas audités ni cloisonnés dans des environnements dédiés. Ces défis soulignent l’écart entre une productivité apparente et une qualité réelle compromise, où le code généré, bien que fonctionnel en apparence, peut échouer en conditions réelles (ex. : non-respect des règles de filtrage réseau ou des politiques de chiffrement).
Au-delà des risques techniques, l’IA générative pose un défi de gouvernance : son opacité rend difficile la conformité aux exigences de traçabilité et d’audit, tandis que son usage massif menace de désappropriation des savoir-faire critiques. Le référentiel ANSSI insiste sur la nécessité de former en continu les équipes et de tester leurs compétences via des exercices de crise, afin d’éviter une perte de maîtrise des concepts fondamentaux — comme la détection manuelle de vulnérabilités ou la validation rigoureuse des configurations. Sans ces garde-fous, l’IA générative risque de devenir un accélérateur de risques cybersécuritaires, où la responsabilité en cas d’incident reste floue, et où la souveraineté des systèmes d’information est mise à mal par une dépendance non maîtrisée.
Ces constats rappellent que l’IA générative, si elle ouvre des perspectives inédites, ne saurait se substituer à une expertise humaine rigoureuse — ni à des méthodologies d’évaluation exigeantes. La question n’est plus seulement de savoir si ces outils sont sûrs, mais comment les utiliser sans compromettre la maîtrise technique et la sécurité des systèmes.
2026 : le tournant de l’intelligence collective et politique ?
Les travaux récents du Club de la Transformation Numérique et de la Chaire ESSEC du Changement confirment une bascule majeure : en 2026, la maîtrise méthodologique de l’IA, désormais industrialisée, cède la place à un enjeu bien plus stratégique, celui de l’intelligence politique et collective. L’objectif n’est plus seulement d’accompagner le changement, mais de le fabriquer à l’échelle, en s’appuyant sur des outils pilotés par la donnée tout en préservant une mémoire organisationnelle active et partagée Cette mémoire collective devient l’actif stratégique ultime, face à une IA générative qui, malgré son efficacité opérationnelle, reste incapable de comprendre le sens ou de porter une vision. La véritable compétence critique — la « zone rouge » — réside désormais dans la capacité des organisations à évaluer la charge mentale des équipes et à préserver un socle de connaissances humainement assumé, afin d’éviter une désappropriation des savoir-faire face à l’automatisation.
L’IA générative ne se contente pas d’automatiser des processus : elle redessine en profondeur les rôles et les compétences au sein des organisations. Alors que les tâches standardisées peuvent désormais être déléguées à des outils, la véritable valeur stratégique réside dans la capacité à concevoir des démarches adaptées aux contextes et à préserver une mémoire organisationnelle vivante. Les experts capables de combiner maîtrise technologique et intelligence politique deviennent ainsi les pivots d’une transformation réussie.
Pourtant, ce virage n’est pas sans risque : l’automatisation accélérée menace de marginaliser ceux qui ne parviendront pas à évoluer vers des rôles plus stratégiques. L’enjeu n’est plus seulement de maîtriser l’IA, mais de réinventer une intelligence collective où la technologie amplifie – plutôt qu’elle ne remplace – les capacités humaines d’analyse, de jugement et de création de sens. Cette tension entre automatisation et préservation des savoirs critiques ouvre une question fondamentale : dans un monde où les algorithmes transforment radicalement nos façons de travailler et de décider, comment préserver l’espace de la liberté humaine et de l’action politique au sens où Hannah Arendt l’entendait ?
La « Condition de l’homme moderne » dans la nouvelle civilisation des algorithmes ?
Cette volonté de substituer l’artifice au vivant nous ramène à l’avertissement prophétique d’Hannah Arendt dans La Condition de l’homme moderne en 1983. Elle y dénonçait déjà cette tentation d’échanger « le cadeau de l’existence » contre un « ouvrage de nos mains ».
Hannah Arendt nous rappelle que l’automatisation de pans entiers de nos vies ne relève pas d’une simple question technique, mais d’une « question politique primordiale ». Ce choix ne saurait être abandonné aux seuls experts de la science ou aux décideurs politiques pris isolément. Cette automatisation interroge profondément notre rapport au monde, à la liberté, et à la responsabilité collective. Le Club de la Transformation Numérique rejoint son analyse : la technoscience, en promettant une maîtrise totale de l’imprévisible, risque de nous enfermer dans un « mirage » où la mesure et l’algorithme prétendent remplacer la complexité du vivant et des organisations.
En effet, l’algorithme n’est pas neutre : il incarne une vision du monde où la rationalité calculatoire tend à évacuer l’incertitude, l’ambiguïté, et même la dimension éthique de l’action humaine. Cette civilisation de l’algorithme, si elle n’est pas questionnée, pourrait transformer nos sociétés en systèmes fermés, où la décision politique se réduirait à une optimisation technique et oublierait des contreforts éthiques, pourtant indispensables au Bien Commun.
Au-delà du laboratoire, la responsabilité du réel et du modèle de société de demain
Le rapport d’Anthropic n’est pas une prophétie, c’est un plaidoyer pour une civilisation de l’algorithme où la statistique remplacerait la décision. Or, la transformation durable ne naîtra pas de l’industrialisation de l’information, mais de notre capacité à réaffirmer le primat du politique, de la culture et du sens.
Nous invitons à dépasser l’opposition stérile entre progrès technologique et libertés fondamentales, pour nous engager dans l’invention d’un nouveau contrat social adapté à l’ère algorithmique, entre cultures occidentale ou orientale ; et nous plaidons pour une civilisation de l’algorithme responsable, où la technologie serait soumise à des garde-fous démocratiques et éthiques.Comme le souligne Xavier Drouet, pour que cette technologie ubiquitaire soit véritablement bénéfique, il est indispensable d’en définir un cadre éthique clair et d’instaurer une gouvernance responsable.
La délégation et l’automatisation des tâches doivent être pensées, hier comme aujourd’hui, comme des « choix politiques », impliquant une responsabilité partagée entre scientifiques, citoyens et décideurs, et une gouvernance où l’éthique doit enfin trouver sa place.
Alors que les débats occidentaux sur l’éthique de l’IA s’articulent souvent autour de la protection des libertés individuelles et de la régulation des biais algorithmiques, les modèles chinois (comme DeepSeek ou Qwen) se distinguent par une approche technique centrée sur l’efficacité brute, la sobriété des ressources, et une logique opérationnelle dépouillée des contraintes idéologiques ou socio-économiques de la Silicon Valley. Il ne s’agit pas ici d’endosser la doxa autoritaire qui sous-tend leur développement, mais d’identifier ce que leur démarche apporte de structurant à l’écosystème mondial de l’IA générative, notamment dans deux domaines clés : l’open-source et la durabilité.
Ces modèles posent une question stimulante : que gagnerions-nous à intégrer une IA conçue avant tout pour la performance technique, tout en préservant les espaces de doute, de débat et de contestation qui fondent nos sociétés démocratiques ? Leur force réside moins dans une absence de questionnement éthique que dans une capacité à optimiser des architectures logicielles et matérielles, souvent plus légères et accessibles que leurs équivalents occidentaux.
Par exemple, leur approche open-source, bien que parfois instrumentalisée, offre des ressources précieuses pour des acteurs cherchant à développer des alternatives moins énergivores ou moins dépendantes des géants technologiques.
Réinventer l’IA : du progrès technique à l’émancipation collective
Que perdrions-nous à abandonner l’IA générative aux seuls impératifs de productivité ou de contrôle ? La réponse ne se trouve pas dans une opposition stérile entre progrès technologique et libertés fondamentales, mais dans l’invention d’un nouveau contrat social pour l’ère algorithmique.
Ce contrat doit garantir :
1. La préservation des espaces contributifs, où le doute scientifique, le questionnement philosophique et le pluralisme politique restent les garants de notre lucidité collective et d’une‘vita activa’ renouvelée.
2. Une transparence radicale sur les choix techniques et éthiques qui sous-tendent ces modèles, pour éviter qu’ils ne deviennent des boîtes noires au service d’intérêts opaques.
3. Des modèles d’IA générative conçus comme un bien collectif, ouverts à la diversité des usages et des contributions, et libérés des logiques de concentration ou de normalisation au profit d’intérêts particuliers, tout en respectant les spécificités culturelles et métiers de chacun.
L’IA générative ne sera vertueuse que si elle s’inscrit dans un projet de civilisation qui place l’humain — avec ses contradictions, ses doutes et ses aspirations — au cœur de sa conception. Sinon, elle ne fera que reproduire, à l’échelle industrielle, les biais et les miroirs déformants que nous prétendons combattre. Le choix nous appartient : faire de l’IA un levier d’émancipation, ou le symbole d’un monde où la technique dicterait seule les règles du vivre-ensemble.
Ainsi, Yann Le Cun, pionnier du deep learning et figure majeure de l’IA, critique ouvertement les limites des LLM, qu’il juge incapables de comprendre le monde physique ou de raisonner de manière causale. Il propose une alternative radicale avec AMI Labs : les world models, en proposant une alternative fondée sur la compréhension plutôt que sur la prédiction, et sur la collaboration plutôt que sur la capture, esquissent une autre voie : celle d’une IA ancrée dans le réel, pluraliste et émancipatrice. À l’heure où les plateformes dominantes transforment le calcul en dogme et la donnée en monnaie d’échange, il devient urgent de réaffirmer que le progrès technologique ne se décrète pas depuis des silos fermés, mais se construit dans l’ouverture, la diversité des savoirs et la résistance aux logiques de contrôle. Car l’enjeu n’est pas seulement technique — il est civilisationnel.
Refuser que le futur de l’IA soit centralisé et dicté par certains détenteurs du pouvoir computationnel, c’est en faire non pas l’outil d’une orthodoxie technocratique visant à fragiliser les institutions traditionnelles ou démocratiques, mais le levier d’une société pluraliste où la technologie sert l’humain.
L’heure est à l’action.
Sources :
- “Impacts de l’IA sur le marché du travail” – Anthropic
https://www.anthropic.com/research/labor-market-impacts - “L’étude Anthropic sur l’IA : Le risque, les faits et votre stratégie” – Michel Levy Provençal
https://www.linkedin.com/pulse/l%25C3%25A9tude-anthropic-sur-lia-le-risque-les-faits-et-votre-levy-proven%25C3%25A7al-5rfpe/ - “Detecting and countering misuse of AI: August 2025” – Anthropic
https://www.anthropic.com/news/detecting-countering-misuse-aug-2025 - « Référentiel Cyber France » ou RéCyF ANSSI
https://www.linkedin.com/posts/vincent-strubel-7b7056200_recyf-activity-7439709198067712000-3T5b - Conduite du changement et IA
a) L’intégration stratégique de l’IA dans la conduite du changement organisationnel : approches, parcours et rôles RH
https://club-transfo-num.fr/2026/02/13/lintegration-strategique-de-lia-dans-la-conduite-du-changement-organisationnel-approches-parcours-et-roles-rh/
b) Autissier, D. (2025). « Vers des hyper-experts en conduite du changement ». Question(s) de Management, n°56.
https://editions-ems.fr/boutique/questions-de-management-n56/
c) World Economic Forum (2025). The Future of Jobs Report.
https://www.weforum.org/publications/the-future-of-jobs-report-2025/ - “IA Gen et Entreprises : Avantages et Risques” – Xavier DROUET« https://hommesetsciences.fr/ia-gen-et-entreprises-avantages-et-risques/
- Condition de l’homme moderne – Wikipedia.org
https://fr.wikipedia.org/wiki/Condition_de_l%27homme_moderne - “Schizophrénie numérique” – La fin d’une époque – les conditions du vrai – L’enjeu des affrontements – Anne ALOMBERT
https://editions-allia.com/fr/livre/961/schizophrenie-numerique - “Pour Yann LeCun, les world models sont la prochaine frontière de l’IA”
https://www.cio-online.com/actualites/lire-pour-yann-lecun-les-world-models-sont-la-prochaine-frontiere-de-l-ia-16861.html
