Un dîner-débat du Club de la Transformation Numérique en mars 2025 a réuni Anne Alombert autour d’un thème qui lui est cher : comment préserver l’Humain dans un monde connecté et comment faire du numérique une question politique, non pas en tant qu’utopie, mais comme nécessité pragmatique. Depuis cet échange, deux ouvrages majeurs viennent préciser et affiner cette trajectoire intellectuelle : « De la bêtise artificielle. Pour une politique des technologies numériques » (Allia, 2025) et « Penser avec Bernard Stiegler » (PUF, 2025). Si l’événement initial posait les jalons d’une pensée entre sobriété, éthique et démocratie numérique, les publications récentes déploient ces axes avec une profondeur nouvelle, en s’appuyant sur les lectures de Guattari et Stiegler, et en coulisse, sur une conception plus affirmée de l’intelligence collective et du soin des capacités humaines de penser.
Cet article propose d’articuler ce que nous publiions via LinkedIn diffusées autour de l’événement (CF Posts #ClubTransfoNum et Anne ALOMBERT), puis d’expliquer ce que les livres publiés en 2025 permettent de prolonger, nuancer ou préciser au regard des axes de réflexion abordés lors du dîner-débat. L’objectif est de montrer une continuité intellectuelle : passer d’une logique de gouvernance éthique du numérique à une philosophie politique technologique qui organise la société autour de la sobriété, de la profondeur de la pensée de chacun et de l’intelligence collective.
Rappel des axes clés du dîner-débat du 3 mars 2025
Lors du dîner-débat du 3 mars organisé par le Club de la Transformation Numérique, Anne Alombert a posé les questions centrales suivantes : « Vers une transformation numérique responsable : comment préserver l’Humain dans un monde connecté ? » en laissant transparaître plusieurs fils directeurs qui reviennent ensuite dans ses deux ouvrages mentionnés :
- La numérisation ne peut pas se limiter à une logique d’efficacité technique; elle doit devenir une question politique et éthique. L’IA ne peut pas être un simple moteur d’automatisation mais un outil au service de la réflexion humaine et des pratiques sociales.
- La dynamique transhumaniste est remise en question au profit d’une perspective pharmacologique, c’est-à-dire d’une reconfiguration des rapports entre cerveau, technologies et société qui privilégie le soin et la régulation plutôt que l’extension aveugle des capacités humaines.
- Le cadre des « trois écologies » (mentale, sociale et environnementale), puisé chez Félix Guattari, est présent comme grille d’analyse : la transformation numérique doit prendre en compte les écosystèmes psychiques et relationnels autant que les écosystèmes matériels et énergétiques.
- La sobriété et la profondeur de la pensée constituent deux axes éthiques centraux : repenser l’usage des technologies pour éviter leur instrumentalisation et réorienter les pratiques publiques et privées vers la solidarité et la justice environnementale.
L’intelligence artificielle (IA) doit être « au service de l’Intelligence Collective », et non l’instrument de la substitution des humains ni le moteur d’un appauvrissement des capacités réflexives. Cette articulation est le premier vecteur qui sera développé et précisé dans ses ouvrages publiés peu après en 2025.
Points saillants et directions annoncées
Les deux publications décrivent une même trajectoire: penser le numérique comme une affaire humaine et politique, et penser l’IA comme un outil de soutien à l’intelligence collective plutôt que comme substitut des capacités humaines.
L’intervention avait tracé une trajectoire contre une perspective transhumaniste vers une lecture pharmacologique du numérique. Mobilisant le cadre post-guattarien des trois écologies — mentale, sociale et environnementale — elle proposait des outils pour évaluer les effets du numérique, tout en affirmant le rôle de la philosophie comme espace de pensée critique face aux transformations technologiques, et réciproquement, celui de la technologie pour inciter à penser autrement. Une éthique de sobriété s’en dégage, orientée vers la profondeur de la pensée, la solidarité et la justice environnementale.
S’en est suivi un prolongement dans la logique platonicienne du pharmakon où l’IA peut guérir ou nuire selon l’usage qu’on en fait. Convoquant l’allégorie de la caverne et la métaphore du feu comme symbole du savoir technique, son intervention a insisté sur la nécessité de placer l’humain au cœur de la technique. L’IA doit servir l’intelligence collective, prendre soin des capacités de penser et des relations d’altérité, plutôt que de les remplacer ou de les court-circuiter.
En définitive, ces réflexions dessinent une trajectoire cohérente : un décentrement de l’usage de l’IA, une attention soutenue à la façon dont les technologies reconfigurent nos sociétés socialement et peuvent amplifier les désordres mentaux, et une insistance sur les dimensions éthiques, politiques et pédagogiques de la transformation numérique. L’enjeu n’est pas de rejeter la technique, mais de la mettre au service des pratiques de réflexion, d’expression et d’interprétation — soutenant ainsi les relations humaines et collectives plutôt qu’automatisant les capacités.
Deux livres en 2025 : "De la bêtise artificielle" et "Penser avec Bernard Stiegler"
Pour comprendre l’évolution de la pensée d’Anne Alombert, il faut lire ces deux ouvrages comme des extensions et des précisions de ce qui a été présenté à l’occasion de ce dîner-débat.
_ De la bêtise artificielle. Pour une politique des technologies numériques (Allia, 2025)
L’ouvrage réinterroge la « bêtise » comme concept politique et social, en dépassant le simple débat technique autour de l’IA. Il s’agit de penser les technologies comme constituant des formes de rationalité politique qui peuvent soit renforcer la démocratie, soit l’affaiblir, selon les cadres éthiques et juridiques qui les accompagnent.
Son propos : définir une « politique des technologies numériques » qui organise l’usage des outils numériques autour des valeurs publiques, de la transparence, de la sobriété et du bien commun.
Points essentiels :
-
- la technologie n’est pas neutre;
- l’éducation et la citoyenneté numériques doivent être remises au cœur des politiques publiques;
- l’IA est un agent qui peut soutenir l’intelligence collective si elle est encadrée par des finalités démocratiques et des garde-fous éthiques;
- la dimension politique implique aussi la conception des infrastructures et des écosystèmes numériques dans lesquels les publics dialoguent, les services se déploient et les solidarités se tissent.
Les liens avec le dîner: la sobriété, la profondeur de la pensée et la solidarité sociale ne sont pas des accessoires, mais des exigences opérationnelles pour transformer les services publics et privés et pour éviter la captation des vies par des logiques d’optimisation ou économiques pures.
_ Penser avec Bernard Stiegler (PUF, 2025)
L’ouvrage s’inscrit dans la continuité des thèses de Bernard Stiegler, en engagement avec la notion de pharmakon et une éthique de la technique. Il s’agit d’explorer avec « comment penser avec Stiegler » ce qu’une autonomie des citoyens face à la machine et à l’intelligence artificielle permet.
Les principes phares : le soin comme dimension centrale de la politique du numérique; l’attention comme ressource démocratique; l’importance de l’éducation et de la culture comme antidotes à l’aliénation technique; la nécessité de lignes directrices qui empêchent l’éradication des capacités de penser, de s’exprimer et de créer des liens d’altérité.
En lien avec les idées de Guattari : les « écologies mentales et sociales » et la dimension environnementale sont mobilisées pour articuler une approche holistique du numérique — non pas comme simple outil économique, mais comme milieu vivant qui peut soit guérir, soit blesser.
Objectifs : proposer des cadres analytiques et des pratiques publiques permettant d’organiser les technologies autour du soin, de l’intelligence collective et des pratiques démocratiques, plutôt que de les subordonner à des logiques de performance et d’optimisation facteurs de surcharge cognitive.
En somme, ces deux livres prolongent et précisent les axes mis en évidence lors du dîner-débat : de l’insistance sur la sobriété et la justice environnementale à l’idée que l’IA peut et doit servir l’intelligence collective, en restant au service des pratiques humaines et publiques.
Ce qui a évolué depuis 2025
On pourrait ainsi lire l’évolution de la pensée d’Anne Alombert au fil des deux livres publiés en 2025, aujourd’hui en 2026 :
De la transformation à la politique des technologies
Dans le dîner-débat, la transformation numérique est présentée comme nécessaire et moralement aspirante.
Dans les livres, elle se politise davantage : il s’agit d’élaborer des cadres de gouvernance qui rendent l’expérience numérique compatible avec les droits, la démocratie et le bien-être collectif.
Le fil rouge est la question du pouvoir des technologies et des infrastructures: qui décide, qui bénéficie, et comment les publics acquièrent-ils les moyens de s’exprimer et de participer ?
L’IA comme outil de soutien et non comme substitut
Nous insistions au travers de nos Posts LinkedIn sur l’idée que l’IA doit soutenir l’intelligence collective et ne pas remplacer les capacités humaines ni dégrader les rapports d’altérité.
Ses livres renforcent cette position en articulant des cadres pratiques et éthiques explicitement destinés à éviter l’érosion des capacités de penser et d’agir des citoyennes et citoyens.
La trilogie des écologies revisitée et étendue
L’idée des « trois écologies » demeure centrale, mais devient plus opérationnelle: comment les politiques publiques et les services privés intègrent-elles ces écologies mentale, sociale et environnementale dans les processus de conception et de mise en œuvre des technologies?
Elle permet aussi d’éclairer les effets indirects de la technologie sur le stress mental, les dynamiques communautaires et l’environnement, ouvrant la voie à des indicateurs et des mécanismes de contrôle social plus robustes.
La philosophique comme ressort pédagogique et politique
La philosophie n’est pas seulement une réflexion abstraite. Elle est présentée comme un mode d’action: penser l’IA et les technologies de manière qui transforme les pratiques publiques et privées, renforce la démocratie et protège les capacités humaines.
Le lien avec Félix Guattari et Bernard Stiegler clarifie une méthode: penser le numérique comme un pharmakon — capable de guérir et de nuire — et penser la technique comme un milieu collectif qui exige une éducation attentive et des formes de solidarité renforcées.
L’éthique de la sobriété comme programme concret
Déjà évoquée lors du dîner, la sobriété prend une dimension normative plus explicite: elle n’est pas un refus idéologique, mais une condition de durabilité démocratique et sociale. Elle implique des choix concrets sur la manière de concevoir, déployer et réguler les technologies (données, IA, plateformes, services publics).
Implications pour les politiques publiques et les pratiques professionnelles
L’extension des idées dans les deux ouvrages propose des implications concrètes pour les acteurs publics et privés, ainsi que pour les chercheurs, enseignants et citoyennes et citoyens.
Pour les services publics et les politiques publiques :
-
- Intégrer les notions d’écologies mentale et sociale dans l’évaluation des programmes numériques: comment les services publics affectent-ils le bien-être psychique, le tissu social et l’environnement?
- Mettre en place des cadres de contrôle démocratique sur les systèmes d’IA: transparence, explicabilité, garde-fous éthiques et mécanismes de responsabilité.
- Favoriser des formations et des pratiques pédagogiques qui renforcent l’esprit critique et les capacités de réflexion des citoyens face à la technologie.
Pour les entreprises et les start-ups :
-
- Concevoir les produits et services autour de l’utilité sociale et des droits humains plutôt que du seul bénéfice économique.
- Déployer des mécanismes de sobriété numérique: réduction du gaspillage informationnel, optimisation énergétique, réduction des dépendances à des données massives privées lorsque cela n’est pas nécessaire.
- Promouvoir des environnements de travail qui soutiennent l’attention, la créativité et les échanges collectifs plutôt que la surveillance et la productivité brute.
Pour les universités et les chercheurs :
-
- Développer des cursus et des programmes de recherche autour des « politiques des technologies » et des « écologies » pour former des professionnels capables d’articuler théorie et pratique.
- Encourager des approches transdisciplinaires associant philosophie, sociologie des technologies, sciences de l’ingénierie et études publiques, par exemple avec la Recherche-Action.
Pour les citoyens et les acteurs civiques :
-
-
- Renforcer l’éducation numérique et l’éducation civique pour permettre une participation éclairée dans les discussions sur l’IA et les technologies.
- Soutenir des initiatives de solidarité et de justice environnementale liées aux technologies: accès équitable, prévention des inégalités numériques, et plaidoyer pour des politiques publiques plus équitables.
-
Une pensée en chemin, au service de l’humain et du collectif
La conférence d’Anne Alombert a offert un éclairage philosophique sur notre rapport aux technologies numériques, autour de ces cinq idées clés : l’ambivalence de l’IA comme pharmakon (remède et poison selon son usage) ; la nécessité de prendre de la hauteur sur nos environnements numériques, à l’image du « poisson volant » de Stiegler ; le risque de déléguer à l’IA non plus seulement notre mémoire, mais notre capacité même à penser et à nous exprimer ; la question de la responsabilité face aux décisions automatisées ; et la priorisation à des modèles algorithmiques alternatifs, transparents et pluralistes.
Ces réflexions rejoignent un constat central : la réussite d’une transformation digitale ne tient pas à l’automatisation à outrance, mais à la capacité de créer des espaces où la technologie amplifie l’intelligence collective plutôt qu’elle ne s’y substitue.
La trajectoire d’Anne Alombert montre une convergence nette entre l’éthique de sobriété, la politique des technologies et une philosophie de la technique qui s’enracine dans les concepts de Guattari et de Stiegler.
L’intervention initiale a posé les jalons où l’humanité doit rester au cœur de la technique, l’IA doit servir l’intelligence collective, et la sobriété est un principe fondamental pour préserver la profondeur de la réflexion et la justice environnementale.
Les ouvrages de 2025 affinent et prolongent ce cadre : ils proposent des cadres analytiques et des pratiques concrètes pour transformer les technologies en instruments du soin, de la démocratie et de la solidarité.
Cette continuité montre une évolution non pas vers une opposition entre homme et machine, mais vers une co-évolution consciente où penser, ressentir et agir collectivement deviennent les véritables objets politiques du numérique.
Si vous cherchez une synthèse accessible et engagée des idées d’Anne Alombert, ces deux livres offrent des ressources précieuses pour les décideurs, les professionnels du numérique, les chercheurs et les citoyennes et citoyens qui veulent regarder l’ère numérique avec rigueur éthique et ambition démocratique.
Ressources et références
- Dîner-débat du Club de la Transformation Numérique — récapitulatif et contexte
- Anne Alombert, Penser avec Bernard Stiegler (PUF, 2025).
- Anne Alombert, De la bêtise artificielle. Pour une politique des technologies numériques (Allia, 2025).
- Anne Alombert, Schizophrénie numérique. La crise de l’esprit à l’ère des nouvelles technologies (Allia, 2023).
Concepts clés mentionnés : pharmakon (Stiegler/Guattari), les trois écologies (Guattari), sobriété numérique ou informatique durable, intelligence collective, éthique des nouvelles technologies, responsabilité publique des algorithmes.


