Industrialisation de l’IA, comment dépasser le stade du POC

Alexandre MARTINELLI

Passer à l’échelle est le défi majeur des projets d’intelligence artificielle (IA). Depuis ChatGPT, tout le monde parle d’IA mais peu de projets dépassent le stade de l’expérimentation et des POC (preuve de concept) pour être déployés dans les organisations. 

Pourquoi? Et surtout comment faire pour réussir le passage à l’échelle?

Par Alexandre MARTINELLI, CEO La Javaness

Ces questions étaient au cœur des discussions du dernier dîner-débat du Club. Un panel de Directeurs du Numérique et des Systèmes d’Information de l’État et des entreprises publiques était réuni pour apprendre des retours d’expérience de La Javaness, start-up française spécialisée dans l’IA souveraine et de confiance. Alexandre Martinelli, son dirigeant-fondateur, a témoigné de la nécessité d’une forte coordination entre les équipes IT, métiers et data pour industrialiser les solutions IA. Parmi les défis les plus fréquents reviennent l’alignement des compétences, la gestion des attentes des métiers et l’intégration de solutions IA dans des environnements informatiques complexes. 

Les initiatives d’IA dans les grandes organisations sont nombreuses mais peu parviennent à l’industrialisation. Les projets d’IA, une fois validés en POC, se heurtent trop souvent à des problèmes d’infrastructure ou de gouvernance des données. A La Javaness, notre expertise consiste à déployer à grande échelle des solutions IA adaptées aux besoins métiers qui s’intègrent dans les infrastructures, quel que soit le secteur et les contraintes opérationnelles et réglementaires. L’IA est une matière vaste à appréhender : il nous a fallu beaucoup de R&D et d’humilité pour parvenir à industrialiser des solutions pour nos clients publics et privés.  

Les erreurs à ne pas commettre

La première erreur est de considérer l’IA comme un sujet de pure algorithmie, alors que l’algorithme n’est qu’une composante du projet. De plus, l’enjeu autour de l’algorithme n’est pas tant la technique que la confiance comme préalable à l’adoption. Par exemple, lors d’un projet pour Saint-Gobain la phase de recherche utilisateur a permis de comprendre que les 10 000 commerciaux en B2B n’adopteront la solution de smart pricing que s’ils gardent une marge de négociation. Nos data scientists ont donc développé un algorithme de machine learning sous un prisme “que ferait le meilleur commercial avec les données disponibles” et un module d’explicabilité, ce qui a facilité l’adoption. 

La seconde erreur porte sur les infrastructures (datalake, data plateforme, data mesh…). Rechercher le stack parfait est non seulement coûteux mais inutile. D’expérience, il est tout à fait possible de mixer les technologies anciennes aux plus modernes. Ainsi dans une grande banque française, les solutions modernes (Cloud, Spark, Trino, stockage objet, Tableaux) côtoient très bien de vieux ETL, Denodo, etc. De même au sein d’une autorité de régulation, une stack on premise (Déploiement par VM, pas de Docker) s’interface à une partie moderne en Cloud Azure. Enfin, un acteur de l’énergie parvient à déployer des solutions IA sans datalake. 

La troisième difficulté porte sur les compétences spécifiques aux solutions d’IA. Peu d’acteurs sont aujourd’hui capables d’aligner les savoir-faire concernant le développement et le déploiement d’applications informatiques avec les spécificités de l’IA. En effet, si les DSI maîtrisent parfaitement toutes les prestations run et supports, elles n’ont que peu d’expérience sur les nouveaux langages (python, R), les contraintes hardwares (GPU, RAM), l’entraînement et l’inférence, qui mélangent à la fois de besoins batch et temps réel, la gestion des boucles de retour, etc… A l’inverse, les équipes data scientists et d’ingénieurs IA ont une maîtrise limitée des contraintes IT qualité / dev / sec / ops (Docker, CICD, tests, sécurité, etc). Une des solutions est de se  faire accompagner pour monter en compétence et parler un langage commun.

Une capacité à passer à l’échelle avec des solutions IA sur mesure, en comprenant les enjeux métiers et techniques cruciale pour les organisations face à la mondialisation et aux nouvelles technologies.

L’IA est en train de redéfinir les processus métiers dans tous les secteurs. La capacité à passer à l’échelle sera un différenciateur clé pour les administrations comme les entreprises dans les années à venir. Avec la mondialisation et l’adoption rapide des nouvelles technologies, les organisations doivent être agiles et prêtes à adopter des solutions IA sur mesure, dont la valeur n’est pas tant dans l’algorithme que dans l’ingénierie d’un système complexe tirant parti de l’IA.

Le passage à l’échelle des projets IA ne se résume pas à une méthodologie. Il nécessite une compréhension fine des enjeux métiers et des infrastructures techniques, ainsi qu’un accompagnement d’experts. Le développement de stratégies robustes, incluant la gouvernance des données et l’intégration continue, permettra de faire face à ces nouveaux défis. La Javaness continue de soutenir ses partenaires dans cette transition avec des solutions IA éthiques et durables. Car, au-delà de l’industrialisation, l’IA pose des questions majeures sur la souveraineté des entreprises et des Etats. A cet égard, la maîtrise de l’open source est un enjeu stratégique pour les grandes organisations, qui reste à adresser.

A propos d’Alexandre MARTINELLI

Alexandre Martinelli est le CEO et co-fondateur de La Javaness, une entreprise spécialisée dans l’intelligence artificielle responsable. Avec plus de 15 ans d’expérience dans l’ingénierie IT et le conseil en transformation, il a co-fondé La Javaness en 2015. En tant que CEO, il assure le pilotage stratégique et technologique de l’entreprise, contribuant à son développement et à son positionnement dans le secteur de l’IA. Alexandre Martinelli est également engagé dans la promotion d’une IA éthique et durable, soutenant ses partenaires dans leur transition technologique




De la dérive des réseaux sociaux à la souveraineté numérique

Un court post pour inviter à la discussion au sein du Club sur ces questions sociétales

Les réseaux sociaux, fossoyeurs des sociétés connectées ?

Business first

A la lecture de l’interview de David Chavalarias publiée dans le journal « Le 1 » (références mentionnées en fin de post), il apparait clairement que la démocratie et la cohésion sociale sont mises à mal par les réseaux sociaux, en raison des algorithmes sciemment mis en oeuvre par les plateformes, pour générer de l’engagement, et donc du clic/scroll amenant la possibilité de placer des messages publicitaires.

 

Couverture journal "Le 1" 517
Couverture journal « Le 1 » 517

L’IA va vraisemblablement jouer un rôle d’amplificateur

Les grandes plateformes investissent massivement sur l’intelligence artificielle, avec évidemment un objectif de retour sur investissement. Aujourd’hui déjà 20 à 30% des posts sur les réseaux sociaux sont émis par des robots, il est vraisemblable qu’avec les IA conversationnelles la capacité à générer de l’engagement va être de plus en plus sophistiquée.

 

Exploitation de biais cognitifs

Les algorithmes exploitent notamment le biais de négativité qui va naturellement pousser un individu à réagir aux informations et évènement négatifs. Au bilan, explique David Chavalarias, la proportion de contenus toxiques est de 50% supérieure à celle attendue (publications des personnes auxquelles on est abonné). C’est en ce sens « un miroir déformant de la réalité ».

D’autres aspects comme la tendance à la bipolarité sont évoqués dans l’article que je ne vais pas reprendre en entier.

 

En point de sortie, deux questions sont posées.

Comment lutter ? Est évoquée la piste FranceConnect qui permettrait d’identifier sans erreur des concitoyens sans qu’il soit nécessaire de communiquer à des plateformes étrangères des documents personnels relatifs à notre identité.

Y a-t-il des réseaux plus vertueux ? Sont évoquées les solutions issues du logiciel libre comme Mastodon.

Quelles réflexions en découlent ?

Un enjeu d’éducation

A la fin de la lecture, ma réflexion personnelle était que, dans ce contexte, plus qu’auparavant, l’école et les parents doivent redoubler de vigilance. Les biais cognitifs exploités par les réseaux sociaux peuvent conduire à la formation d’esprits plus étroits et polarisés. En mettant l’accent sur le négatif, les contenus viraux ont tendance à encourager une vision du monde binaire, manichéenne, qui laisse peu de place à la nuance et à la complexité de la réalité.

Dans un contexte éducatif, cela peut être problématique car cela nuit au développement d’une pensée critique, ouverte et nuancée, laissant se propager a contrario des erreurs voire des contre-vérités. La facilité du scroll peut les amener à se fier davantage aux informations rapides et superficielles diffusées sur ces réseaux-plateformes, au détriment d’une réflexion plus approfondie et nuancée, qui exige de prendre le temps de lectures plus longues — sans surprise cela nous ramène également au fameux adage qui s’applique dans le monde capitaliste : si c’est gratuit (en apparence), c’est toi le produit (Courte vidéo d’ARTE). Si on se fie aux chiffres avancés par Michel Desmurget (La fabrique du crétin digital, Le Seuil, 2019), dans la tranche d’âge 13-18 ans, ce sont en moyenne 6h45 passés devant les écrans des tablettes et smartphones.

Il y a une double urgence : protéger nos enfants des plateformes qui monétisent l’attention et proposer des alternatives éthiques.

 

Prendre les plateformes à contrepied

Etant donné les travers de ces réseaux sociaux guidés par la profitabilité, la tentation pourrait être de les déserter pour recréer des communautés sur des plateformes plus saines (cf. l’option des communs numériques mentionnées ci-après).

Mais combattre ces réseaux sur le propre terrain n’est pas une option à écarter. Le cas échéant, puisque les algorithmes exploitent un biais de négativité, une manière de les contrer pourrait être de ne pas entrer dans ce jeu mortifère et au contraire de privilégier les posts porteurs d’une vision positive, au détriment de la viralité/popularité de ses publications.

 

Se tourner vers les communs numériques

Pour disposer de plateformes décentralisées dans lesquelles on retrouve une véritable liberté d’expression, dans lesquelles les publications et leur circulation ne sont pas contrôlées par des algorithmes tournés vers la profitabilité, dans lesquelles les données que nous publions nous appartiennent (portabilité), dans lesquelles on peut maitriser son audience… une option est de se tourner vers les communs numériques, ce qui implique d’y entrainer les communautés avec lesquelles nous souhaitons pouvoir échanger.

Pour mémoire, les communs numériques peuvent être définis comme “une communauté de producteurs et d’utilisateurs qui gèrent une ressource numérique en vue de son enrichissement dans le temps à travers des règles de gouvernance conjointement élaborées et dont ils protègent le libre accès face aux tentatives d’appropriation exclusive.” (référence: CNNum)

 

Un lien avec la souveraineté numérique

Tous ceux qui s’intéressent aux enjeux du numérique savent que l’ultra-domination par un faible nombre d’acteurs privés à but lucratif est un sujet d’inquiétude. Les GAFAM et BATX ont atteint des cours de valorisation qui dépassent le PIB de certaines nations et leur pouvoir n’est plus à démontrer. Cette situation est pointée du doigt par des acteurs influents de la sphère numérique, comme Gilles Babinet (Il y a un glissement de souveraineté des Etats vers les GAFA, France Inter, 14 août 2018), sans pour autant que les choix politiques soient en mesure d’amener un point d’inflexion sur la dangereuse pente de la dépendance numérique.

Même si la régulation européenne sur le plan juridique tend à fixer des limites, il n’en demeure pas moins que l’Europe se retrouve acculée. La souveraineté exige des investissements qui ne sont pas soutenables à l’échelle nationale. Comme l’indiquait Vincent Coudrin (responsable mission cloud à la Direction interministérielle du numérique) à l’occasion d’un récent échange, il faudrait qu’au niveau politique un leadership s’affirme pour rassembler plusieurs nations européennes au tour d’un projet commun, en mesure d’investir dans des infrastructures et plus globalement une capacité (au sens militaire) qui permette de faire émerger un acteur en mesure de servir les besoins civils et militaires, publics et privés, de sorte que le volume d’utilisateurs soit suffisant pour assurer la soutenabilité économique dans la durée. Vaste programme…

 

Impuissance de la sphère politique

Le Sénat a constitué le 1er juin 2023 une commission spéciale chargée d’examiner un projet de loi visant à sécuriser et à réguler l’espace numérique, commission présidée par Catherine Morin-Desailly, avec comme rapporteurs Patrick Chaize et Loïc Hervé, réunissant 10 vice-présidents, 3 secrétaires et 21 membres.

La page réservée aux travaux portés par cette commission plante parfaitement le décor : « La question de la régulation du numérique est devenue un sujet central des politiques publiques, avec le développement ces dernières années d’entreprises extrêmement puissantes qui disposent maintenant d’une influence majeure, tant économique que politique ou sociétale. »

Une proposition de loi est successivement présentée au Sénat, à l’Assemblée nationale, devant une Commission mixte paritaire, avant d’être soumise à l’approbation du Conseil constitutionnel, puis d’être promulguée : loi visant à sécuriser et à réguler l’espace numérique (n° 2024-449 du 21 mai 2024), parue au JO n° 117 du 22 mai 2024.

On ne peut donc pas dire que les instances politiques se désintéressent du sujet. La Nation se donne les moyens de la réflexion. Mais la régulation dans un monde globalisé ne permet pas d’obtenir les effets escomptés. L’innovation au service des intérêts mercantiles se poursuit sous nos yeux.

Ce post fait suite à la lecture du journal « Le 1 » en date du 16/10/2024

Cette édition n°517 du journal consacre une pleine page à Naomi Klein. Mais ce post est directement en lien avec l’article relatif à l’entretien avec le mathématicien David Chavalarias, directeur de recherches au centre d’analyses et de mathématiques sociales du CNRS, auteur de Toxic data (Flammarion), dont les propos sont recueillis par Lou Heliot et Julien Bisson

En lien avec ce post…

France Inter : débat du 7/10, 13 novembre 2024, Réseaux sociaux : une menace durable pour la démocratie ?

CNNum :

Nombreux sont les essais qui dénoncent les travers des réseaux sociaux, mais ils ne sont visiblement pas suffisamment lus au vu la dérive insidieuse qui se poursuit… Plus graves, des affaires comme les facebook files dénoncés en 2021 par Frances Haugen, ne se sont pas traduits par un rejet des utilisateurs.

Parmi les ouvrages recommandables, on peut citer par exemple Propagande de David Colon (2021). L’un des propos frappant et a priori contre-intuitif est abordé dès l’introduction en indiquant que la propagande touche en priorité les milieux les plus cultivés et les plus à même d’accéder à l’information. L’explication : plus l’individu est exposé à la complexité du monde et une information riche, plus il a besoin d’explications simples, d’une grille de lecture qui lui permette de s’inscrire dans une vision collective et lui laisse croire qu’il comprend le monde qui l’entoure.

Le CNNum, déjà cité, mène également des travaux éclairants sur ce sujet, à lire sur leur site. A écouter / regarder « le réseau social du futur sera avant tout un protocole« , interview de Jean Cattan, 26 février 2024.

Parmi les membres actifs du CNNum, Gilles Babinet avait indiqué dans un post sur X(Twitter) « Il faut le dire et le redire : la régulation des réseaux sociaux est insuffisante (même post DSA) et met en danger la démocratie. Le @CNNum a entre autre appelé a ce que les algorithmes de recommandation ne soient plus contrôlés par les plateformes ». Dans ce post Gilles Babinet relayait une tribune relative à l’impact de la manipulation des affects par ces plates-formes, de Daniel Lacerda, publiée le 1er août 2024 dans le journal Le Monde « Les réseaux sociaux sont une arme politique de destruction massive« .

Les récents rendez-vous électoraux ne démentent pas cette tendance, bien au contraire. A cet égard, je ne saurais trop recommander l’excellent site politoscope.org qui avait publié un article intitulé « minuit moins dix à l’horloge de Poutine« , article éclairant sur les manoeuvres de fond qui visent à prendre le pouvoir par la manipulation de l’information.

In fine, la lecture de cet article résonne avec bien d’autres lectures et échanges. Mais puisqu’il faut s’arrêter dans la rédaction de ce post, mentionnons les travaux d’Henri Verdier, profondément attaché à la notion de « communs », qui avait déjà identifié la plateforme Mastodon en 2017, était déjà convaincu de l’intérêt des communs numériques avant d’arriver à la tête de la DINSIC (devenue DINUM), et qui défend aujourd’hui encore l’intérêt de cette approche dans ses fonctions d’Ambassadeur pour le numérique au sein du ministère de l’Europe et des affaires étrangères. Il a publié le 24 juin 2022 un rapport sur les communs numériques : un levier essentiel pour la souveraineté européenne.




L’impact de la culture d’entreprise sur votre transformation digitale, data et IA

Retour sur l’intervention du 15 janvier 2024 de Jérôme Bouquet (Diner-debat « L’impact de la culture d’entreprise sur votre business et son évolution » ), spécialiste des projets d’innovation et de transformation en environnements contraints, intervention dans laquelle il a présenté sa méthode originale R-Inflexion®.

Source : LinkedIn

En 1987, Frederick Brooks, lauréat du prix Turing, publiait un article intitulé « No silver bullet – Essence and Accident in Software Engineering ». Emprunté aux croyances populaires, Fred Brooks désigne par « Silver Bullet » (balle d’argent) les technologies et les techniques miracles censés, comme par enchantement, apporter des gains de productivité, et ainsi tuer les monstres redoutés de perte de contrôle des projets informatiques.
Après 35 ans, ces réflexions n’ont rien perdu de leur pertinence et sont plus que jamais d’actualité : malgré les belles promesses des technologies, les transformations digitales restent des chantiers périlleux, complexes, difficiles, et sans garantie de succès !
Est-ce à dire que nous ne sommes pas en mesure de voir et d’appréhender toutes les dimensions de ces programmes de transformation digitale ? Que ne voyons-nous pas ? Quelles difficultés nous cachent les technologies ?

Dans son analyse, Frederick Brooks distingue les difficultés intrinsèques des difficultés accidentelles. Le logiciel, qu’on appelle aujourd’hui digital, est une construction conceptuelle et abstraite : des données, des relations, des algorithmes, des fonctions, des prompts, … La complexité intrinsèque du développement de logiciel réside dans la définition et le test de cette construction conceptuelle.
A l’opposé, la complexité accidentelle correspond aux difficultés à programmer, c’est-à-dire à traduire ces concepts dans un langage compréhensible pour la machine.
Si les technologies (IA, système expert, langage de programmation …) permettent de réduire la complexité accidentelle, elles ne permettront pas de supprimer la complexité intrinsèque du digital, liée à sa conceptualisation et à sa définition.
Le succès des transformations digitales repose avant tout sur la maîtrise de cette complexité intrinsèque.

« No silver bullet ».

Nous nous illusionnons toujours des gains importants que pourraient apporter les nouvelles technologies de façon miraculeuse, gains qui pourraient devenir une menace destructrice si nous n’en devenons pas maîtres assez vite.

Nous sommes aveuglés par la conviction que plus de données, plus d’automatismes, plus de connexions, plus d’outils apportent plus d’améliorations, de performance et de pouvoir sur le marché. Dans cette course, appuyées par les benchmarks et les recommandations d’experts reconnus, les directions de la transformation digitale diagnostiquent et planifient les actions pour implémenter toujours plus de solutions. Les équipes doivent s’adapter, acquérir de nouvelles compétences et s’inscrire dans ces nouveaux standards.

Le problème, c’est la solution.

Même si cette prescription de solutions technologiques rassure et donne un sentiment de maîtrise à la direction, elle provoque un sentiment d’incompétence et de perte d’identité au sein des équipes, et par conséquence un désengagement néfaste pour la performance. On parle alors de résistance au changement.

Au fond, c’est la manière de conduire le changement focalisée sur la solution technologique qui provoque la résistance. Cette résistance est le signe que nous sommes passés à côté de la complexité intrinsèque du problème que nous cherchons à régler. Nous entrons dans un cercle vicieux où plus la direction explique, plus la résistance des équipes est forte. Plus on pousse des solutions, plus le système humain résiste.

J’ai récemment aidé la direction d’une entreprise industrielle à engager ses équipes dans la mise en œuvre de sa stratégie digitale. Après une période de croissance importante, l’augmentation des retours négatifs des clients et des retards de livraison affecte ses résultats économiques. Elaborée avec le support d’une expertise externe, la stratégie choisie vise à améliorer la performance et la qualité des produits. Cependant, les technologies de mesures automatisées à base d’IA, la numérisation des procédés et l’optimisation de la performance par l’utilisation des données n’emportent pas l’adhésion des équipes. En effet, se sentant dépossédées de leur métier, prises dans un système encore plus complexe où les injonctions de la technologie s’additionnent aux contraintes existantes, elles restent très passives face à l’urgence. Les tensions montent, les équipes n’y croient pas. En fait, la solution technologique empire la situation.

S’appuyer sur la résistance au changement pour comprendre la complexité

Au cours de mon intervention, plutôt que de chercher à réduire cette résistance au changement, je m’appuie dessus pour mettre au jour méthodiquement les croyances et les schémas de penser qui guident de façon invisible le fonctionnement collectif et stratégique de l’entreprise.

Il apparaît que, forte de son expertise, l’entreprise s’est longtemps différenciée par des produits d’excellence de haute performance. Les croyances qui en ont guidé le développement sont devenues des certitudes, des évidences dont on ne parle plus mais qui conditionnent l’organisation, les décisions et l’identité de l’entreprise. Dans cette culture, la stratégie digitale focalise ses efforts sur la performance, vue comme la solution à tous les problèmes.

En fait, cette perspective biaise l’interprétation des retours des clients : plus que la performance, ces derniers attendent désormais de la facilité d’utilisation, de la réactivité et du support. Cela requiert, à l’inverse de l’expertise, de l’écoute, de l’agilité et une approche transversale. Enfermées dans un schéma de performance, les équipes se retrouvent prises dans la situation paradoxale d’augmenter leurs efforts mais de voir la satisfaction client baisser.

La prise de conscience amène à l’apprentissage collectif

Tel un miroir, l’explicitation des croyances que je restitue à la direction rend visibles les angles morts induits par cette culture de l’excellence principalement orientée vers la performance. Au travers des discussions, la définition de l’excellence s’enrichit de critères nouveaux de service, de réactivité et d’adaptation en accord avec la relation que l’entreprise entend développer avec ses clients.

De cette prise de recul naît un nouveau dialogue entre les parties prenantes et induit un changement d’état d’esprit où chacun se sent de nouveau acteur. Chacun repense son rôle, ses interactions et ses compétences. L’organisation entre dans une démarche d’apprentissage. Bien plus que l’acquisition d’un savoir universel technologique venu de l’extérieur, cet apprentissage est une construction collective adaptée au contexte de l’entreprise et à son histoire. Moins focalisées sur les solutions et les outils rationnels, les équipes combinent les points de vue, les savoirs, les données et construisent une nouvelle vision et une nouvelle culture.

Le projet de transformation digitale évolue. Il ne s’agit plus d’outiller une chaîne de contrôle de l’excellence, mais de créer de la transparence et des automatismes pour que chaque acteur puisse gagner en autonomie, améliorer sa performance et sa qualité au service du client. L’expertise digitale peut alors apporter toute sa valeur.

Conclusion : la magie du digital opère lorsque l’on adopte la bonne perspective

Nous pouvons regarder une situation selon plusieurs perspectives, plusieurs lunettes. Certaines nous aveuglent par des solutions reconnues et des projections rassurantes. D’autres, plus abstraites et moins évidentes, nous apportent plus de recul et d’acuité ici et maintenant.

Savoir que l’on doit être au point B et non au point A est une chose. Identifier les leviers et les forces qui permettent de passer de l’un à l’autre en est une autre : cela nécessite de percevoir des dimensions plus complexes et moins immédiates, telles que la dynamique, la vitesse, l’accélération. Dans une transformation digitale, la culture, les croyances et les motivations sont des forces invisibles et complexes qui ont un impact direct sur la dynamique et la trajectoire de l’entreprise.

Une vue systémique des croyances et des représentations liées à la culture d’une organisation nous donne les moyens et le leadership pour construire de nouvelles perceptions, une nouvelle façon de concevoir la situation et l’inflexion que l’on veut y apporter.

On voit ce que l’on croit. On implémente dans la technologie ce que l’on croit. La complexité réside dans ce que l’on ne se représente pas, ce qui est caché par notre culture.

Nos croyances, aussi abstraites et invisibles soient elles, ont un impact très concret sur nos perceptions, nos réalisations collectives et notre performance.

« Il est plus facile de désintégrer un atome qu’un préjugé », disait Einstein. Tout est question de lunettes et de méthode.

Jérôme Bouquet

SOURCE : https://www.jerome-bouquet.com/no-silver-bullet/




Adapter sa capacité de transformation… une proposition pour les Dirigeants des grandes entreprises et administrations

/*! elementor - v3.21.0 - 24-04-2024 */
.elementor-widget-image{text-align:center}.elementor-widget-image a{display:inline-block}.elementor-widget-image a img[src$=".svg"]{width:48px}.elementor-widget-image img{vertical-align:middle;display:inline-block}

network, web, block chain

Le Club de la Transformation Numérique invité par le Cercle de réflexion sur la capacité de transformation des grandes entreprises et administrations françaises (Cercle KTr) à la présentation de sa nouvelle synthèse, vous propose un récapitulatif résumé.

En effet, le cercle KTr a dévoilé, le 24 juin dernier au Sénat, à ses adhérents en exclusivité, la synthèse de ses travaux dont la 1ère version avait été proposée à Bercy en septembre 2021,  sur la capacité de transformation.

Cette synthèse a depuis lors été très largement complétée par des travaux qui ont permis de l’enrichir, de manière plus ancrée aux réalités vécues des entreprises, avec des retours d’expérience, un sondage réalisé l’année dernière, des tables rondes, etc. Retravaillée et complétée, elle intéressera assurément, nous en sommes convaincus, tous les acteurs publics et privés, dirigeants, experts, praticiens, chercheurs et autres acteurs de la transformation numérique.

En croisant les angles de vision de ces acteurs, la version 2024, qui devrait être rendue publique très prochainement sur le site internet de KTr, propose à partir du 1er modèle (2021), un nouveau modèle décrivant des variables organisationnelles, culturelles et de SI.

La session a été ouverte par Pierre-Yves Huerre, Président du Cercle KTr qui a rappelé les objectifs du Cercle : apporter aux dirigeants des éclairages innovants et concrets sur les moyens de positionner efficacement la capacité de transformation de leurs organismes. Puis, il a présenté la démarche qui a abouti à la version actuelle avant de passer la parole à Georges Blanc, animateur du groupe qui a travaillé sur l’aspect stratégie.

Georges Blanc a exposé la vision du Cercle à ce niveau : un besoin de transformation à un instant t, répondant à plusieurs types de stratégies (optimiser à positionnement constant, adapter son positionnement stratégique, créer du potentiel) v/s une capacité de transformation à cet instant, fruit de l’histoire de l’entreprise, assise sur trois piliers organisationnel, culturel et SI.

Si la capacité de transformation répond au besoin, tant mieux. Sinon, les dirigeants sont invités à revoir leur ambition à la baisse, et, idéalement, investir dans la capacité de transformation…

Fadi El Gemayel, animateur du groupe organisation ensuite a précisé les leviers organisationnels de la capacité de transformation et leur évolution : l’aptitude à écouter son environnement, disposer d’un langage commun et de la connaissance / compétence pour définir des cibles pertinentes pour ces transformations ; ainsi que celle de les organiser et les piloter au bon niveau avec un choix de « faire vs faire faire » assumé avec les compétences de management des transformations internes suffisantes, la capacité à déléguer et à piloter de façon adaptée.

Xavier Cabot, enfin a exposé les aptitudes ayant trait à la culture, dans ses aspects visibles (comportements, SI et interactions, symboles et rituels) mais aussi non visibles (valeurs et croyances), qui vont aider ou freiner la capacité de transformation des entreprises : de la capacité à se connaître, à l’engagement et la mobilisation des équipes et de la ligne managériale, en passant par la capacité à activer le changement, construire ensemble et fixer le sens.

Le dernier chapitre, présenté par Michel Cottura, a abordé le rôle des SI ; pivot dans les grandes transformations. Un rôle qui peut être inhibiteur ou facilitateur/accélérateur, qui doit être compris… et pour cela expliqué par les DSI, d’autant plus que l’équilibre entre maintenir un existant de plus en plus lourd et investir pour permettre la transformation n’est pas si évident que cela à trouver. On retrouve à ce niveau quatre leviers : moyens et compétences, processus d’ingénierie, l’architecture SI, la Data et l’IA… ainsi que trois variables transverses : la capacité d’innovation, la stratégie de la DSI et son adaptation, et, bien entendu, le pilotage.

Pour accompagner un tel changement de paradigme où « le métier de l’entreprise est de délivrer le service », vers celui où « le métier de l’entreprise est de délivrer et de changer le service », le cercle KTr a la conviction en conclusion que seule l’équipe dirigeante a la légitimité pour le porter et en impulser la mise en œuvre. Qu’il soit écouté et exaucé dans ses vœux.

Le Club de la Transformation Numérique remercie tous les fondateurs du Cercle de réflexion sur la capacité de transformation des grandes entreprises et administrations françaises (Cercle KTr) de leur écoute attentive, de leur confiance inspirante à l’élaboration de ces travaux depuis le début et à l’intelligence collective dédiée au service de la transformation des entreprises françaises pour le bien commun.




Retours sur l’évaluation de la maturité digitale, pilier fondamental pour bénéficier de l’intelligence artificielle avec Michaël TARTAR

Michaël Tartar

Quelle est la maturité digitale de votre entreprise ? C’est par cette simple question, que Michaël Tartar, CEO de DIMM.UP, a introduit sa conférence, lundi 1er juillet 2024, après avoir présenté son parcours professionnel aux adhérents du Club de la Transformation Numérique. Un parcours qui l’a amené de l’apprentissage du codage informatique sur un ZX81, jusqu’au lancement de sa start-up, en passant par la transformation digitale de grandes structures et la publication de plusieurs livres sur le sujet.

La maturité digitale d’une entité économique, qu’elle soit publique ou privée, petite ou grande, relève de nombreux facteurs. La difficulté étant de les apprécier tous de manière cohérente. S’appuyant sur ses années d’accompagnement sur la transformation digitale de grands groupes, Michaël a élaboré une approche holistique de la mesure de la maturité digitale. Avec le co-auteur de son premier livre, David Fayon, il a normalisé cette approche en publiant le premier modèle de maturité digitale complet. Le DIMM (Digital Internet Maturity Model), publié en 2014, est en effet le premier du genre à embrasser le numérique dans son ensemble, pas uniquement sur ses aspects technique, marketing et communication.

Mis à jour en 2019 suite à la thèse de David, les nombreux retours des lecteurs et publications sur la digitalisation, la nouvelle version de DIMM était à la fois complète, adaptée à tous les secteurs d’activité, à toutes les tailles d’entreprise et intégrant des coefficients de pondération des différents aspects de la digitalisation selon leur importance. Sous l’impulsion de l’accélération de l’adoption du digital pendant la crise du Covid-19, puis l’arrivée à maturité de la sobriété numérique, une nouvelle édition est sortie en 2022 au travers du livre La transformation digitale pour tous !

Cette nouvelle édition, best-seller chez l’éditeur Pearson, est augmentée d’une solution logicielle SaaS pour mettre en œuvre le modèle DIMM lors de diagnostics de maturité digitale : la plateforme dimmup.com.

Au cours de sa présentation, Michaël a décrit les six leviers de digitalisation d’une entité économique : stratégie, organisation, personnel, offre, technologie & innovation, environnement. Il invite chacun à s’interroger sur chacun de ces leviers, afin de bien comprendre en profondeur comment les bonnes pratiques du numérique sont mises en œuvre :

Toutes ces questions, et surtout les 115 indicateurs qui composent le modèle DIMM, soulèvent de nombreuses interrogations et incitent au partage de retours d’expérience, comme l’ont montré les débats pendant le dîner. C’est tout l’intérêt de la démarche, suivie lors d’un diagnostic digital à 360 degrés. L’objectif étant de produire rapidement une photographie de la situation actuelle, et de donner aux dirigeants un cadre de pilotage de la transformation digitale, objectif et sans parti pris.

En parallèle des échanges avec les participants, Michaël s’est appuyé sur un enchaînement de tâches réalisées en coulisses par un robot et l’IA. À partir des données collectées en réponse à sa question d’introduction, un automate a retrouvé le profil LinkedIn de chaque participant, il a scrappé leur profil, puis une première IA a déduit la tonalité adaptée à chacun pour communiquer efficacement. Ensuite une deuxième IA a généré un court texte, envoyé en tant qu’invitation LinkedIn. Une belle manière de mettre en pratique l’IA au service d’un conférencier augmenté.

Si un dirigeant d’entreprise ou un manager dédié, lui aussi, a répondu à la question d’introduction de cet article, il aura une idée de la maturité digitale de son entreprise, sur une échelle de 0 à 5. Faire son diagnostic digital l’aidera à objectiver cette intuition, et à identifier les forces et les axes de progrès. Cet effort, qu’il est important de conduire régulièrement, est un préalable indispensable pour tirer profit des innovations numériques, et tout particulièrement les inéluctables intelligence artificielle et informatique quantique. Il pourra ainsi profiter de ces innovations de rupture et plus généralement du digital ! S’il sait d’où il part, le dirigeant ou le responsable de la transformation numérique, en toute objectivité ne se laissera pas influencer par les modes et en partagera pourquoi pas les enseignements qu’il tire de son diagnostic !




Rétrospective 2023 et perspectives 2024

Photo du pont Alexandre III, à Paris

Chaque fois que la surface digitale du monde s’étend, les enjeux de cybersécurité prennent une part croissante.
Dans le contexte d’une transformation numérique qui continue sa progression dans tous les secteurs, cela impose une prise de conscience de ces enjeux cyber par tous les acteurs concernés, quelle que soit leur fonction dans l’organisation. Ces questions cyber n’ont pas manqué de nous animer en 2023, leur intérêt demeure en 2024 et sera vraisemblablement amplifié dans le cadre du contexte des JO/JOP.

L’année 2023 a probablement été celle de la mise à disposition au plus grand nombre d’interfaces d’accès à des capacités dites d’intelligence artificielle générative. Effet de mode ? Probablement pas ! Reste que beaucoup d’organisation se sont rapidement retrouvées face à des problématiques nouvelles. Là encore, un travail de réflexion approfondie est nécessaire pour parvenir à un bon niveau de maturité prenant en compte les nombreux aspects (gains de productivité, gestion des données, sécurité, éthique, social…). Dans le domaine de l’IA, l’année 2024 sera probablement riche en discussions.

Dans un contexte de changement climatique de plus en plus préoccupant, où l’activité humaine apparait comme un facteur déterminant dans l’évolution de l’écosystème planétaire, il apparait nécessaire de s’interroger sur la part que prend le numérique dans ces débordements et sur les mesures à prendre. La COP 28 qui s’est tenue du 30 novembre au 12 décembre 2023 à Dubaï a mis en évidence les tensions qui demeurent avec la compétition économique qui constitue le déterminant principal. Le besoin de revenir à une activité humaine plus frugale pour freiner les évolutions climatiques en cours apparait clairement en opposition avec la multiplication des datacenters, des réseaux et de tous les appareils qui s’y connectent… Les réflexions que nous portons devraient alimenter la recherche d’efficience globale, i.e. pas celle de l’efficacité avec une moindre dépense financière (faire plus avec moins), mais celle de l’efficacité avec un moindre impact énergétique, climatique…

Il y a bien entendu de nombreuses autres thématiques qui doivent nous inviter à réfléchir à comment mieux porter le numérique pour qu’il permette de mieux construire la société de demain… Après une année 2023 riche en échanges, je laisse au Club de la transformation numérique, à son conseil d’administration, à l’ensemble de ses adhérents, à l’ensemble des intervenants qui animent nos soirées mensuelles, le soin d’apporter leurs propres interrogations (et si possible des pistes de réponse) pour qu’avec ce collectif nous puissions participer à une transformation numérique plus vertueuse pour notre humanité et pour la planète.

Merci à tous pour votre confiance et ce que nous avons vécu en 2023, tous les membres du conseil d’administration sont heureux et fiers de poursuivre avec vous en 2024.
Meilleurs voeux à tous pour cette nouvelle année et au plaisir de vous retrouver pour les moments de partage qui nous attendent.

Le Président du Club




Intelligence artificielle au service de la sécurité des paiements

Lors de la réunion du lundi 11 décembre Alexandre David CEO de Heptalytics – IA sécurité paiements nous a présenté un cas d’usage de l’intelligence artificielle, dans le cadre de la lutte contre la fraude.

Il ressort de la présentation que les solutions actuelles sont insatisfaisantes car :

  1. Les clients sont mécontents de voir leur transactions parfois en attente pour quelques jours alors qu’il n’y a aucun problème.
  2. Les banques sont submergées par la lutte contre la fraude avec des augmentations à deux chiffres, en valeur et en volume des transactions suspectes, et surtout des tentatives de fraudes liées à l’ingénierie sociale.

Après un bref panorama sur la fraude, et quelques exemples vécus, Alexandre a présenté les différents modèles d’intelligence artificielles qui sont mobilisés pour lutter contre la fraude. 

La solution qui a été développée par sa société active différentes briques d’IA pour identifier spontanément les signaux d’alertes et identifier la fraude. 

Ce qui parait intéressant c’est que la démarche est en rupture avec les outils existants qui sont bâtis sur des moteurs de règles. De fait, l’intelligence artificielle permet d’afficher une efficacité impressionnante.

D’après les retours opérationnels partagés pendant la soirée, la solution permet une amélioration de la capacité de détection de la fraude de 30 à 50 %, et aussi une amélioration de la productivité des opérationnels de 50 à 70%.

La réunion débat s’est terminée par un quizz sur les différents cas d’usages et les notions évoquées en cours de soirée.

Une très belle soirée pour clôturer l’année 2023 !




La France s’active pour défendre une Europe ambitieuse dans le domaine de l’intelligence artificielle

Intelligence artificielle : « La meilleure protection c’est d’avoir des modèles européens », plaide Jean-Noël Barrot (Le Monde, Alexandre Piquard, 15/12/2023)

L’article du journal Le Monde consacré au plaidoyer de Jean-Noël Barrot met en lumière les débats entourant le projet de règlement européen sur l’intelligence artificielle (AI Act) et souligne les positions défendues par le ministre délégué au numérique français, Jean-Noël Barrot.

Le ministre délégué au numérique s’est exprimé sur le projet de règlement européen sur l’intelligence artificielle (AI Act) juste avant une réunion cruciale qui était prévue le 6 décembre 2023. Au-delà des positions de la France dans les négociations autour de la régulation de l’intelligence artificielle en Europe, l’article met en évidence les débats sur les nécessaires obligations, le besoin de transparence des modèles, et la nécessité de créer des acteurs européens forts dans le domaine de l’IA.

La France est critiquée pour son opposition apparente aux propositions plus strictes du Parlement européen, ce qui a créé des tensions dans les négociations. Mais Jean-Noël Barrot défend la position de la France en soulignant que l’Europe devient la première démocratie à établir un cadre législatif pour l’intelligence artificielle. Si ce cadre est adopté, les systèmes d’IA présentant des risques élevés devront obtenir un marquage CE, avec des obligations d’audit et de transparence les plus élevées au monde. Cela s’appliquerait aux domaines tels que la conduite autonome, le diagnostic médical, le tri des CV, et l’attribution de crédit, mais pas aux domaines sans risque comme le divertissement ou le jeu vidéo.

Concernant les modèles de fondation, utilisés par des entreprises pour créer des services, Barrot propose une approche où les fabricants collaboreraient avec les entreprises clientes et publieraient des informations de base sur le fonctionnement de leurs modèles. Il suggère également un code de bonne conduite pour harmoniser les pratiques et envisage des exonérations pour les modèles en accès libre (open source), arguant que l’open source offre des garanties de transparence et favorise la concurrence équitable.

Soutenue par l’Allemagne et l’Italie, la France s’oppose aux obligations plus strictes proposées par le Parlement en juin, concernant des évaluations régulières et des mesures d’atténuation des risques pour les droits fondamentaux. La France a également rejeté le compromis réservant ces obligations aux modèles les plus puissants. Cette position a suscité des critiques, notamment de spécialistes de l’intelligence artificielle et de l’association de PME du numérique SME Alliance. Le ministre Barrot affirme que l’AI Act serait ainsi la réglementation la plus contraignante au monde.

Dans ce type de configuration, il est fréquent de se voir reprocher une forme de favoritisme déguisé. La France est ainsi accusée de suivre les intérêts de sa start-up Mistral AI. Jean-Noël Barrot insiste au contraire sur une démarche guidée par l’intérêt général et une approche basée sur des échanges avec toutes les parties prenantes.

Les réflexions stratégiques convergent par ailleurs vers la création de « champions européens » de l’IA comme étant une priorité absolue, estimant que cela offre une meilleure protection que de tenter de réguler des plateformes qui s’exportent par nature avec leur propre droit. Enfin, des questions comme la lutte contre les monopoles dans l’accès à la capacité de calcul informatique et le droit d’auteur mériteraient des évolutions législatives.




Rencontres du Club – Programmation 2024

Lundi 15 janvier, La culture comme facteur de réussite des transformation, Jérôme Bouquet

Lundi 26 février, La transformation numérique du ministère des armées, Vincent TEJEDOR

Mercredi 13 mars (séminaire), La transformation numérique du groupe Orange, Mathieu HUET

Lundi 22 avril, assemblée générale du Club

Lundi 13 mai, Comprendre les vulnérabilités et construire des pratiques pour une organisation régénérative Boutayna BURKEL

Lundi 10 juin Gaia X Nadia FRONTIGNY

Lundi 1er juillet, L’évaluation de la maturité digitale 360° Michaël TARTAR

Lundi 9 septembre, Retex sur la mise en œuvre IA  avec Alexandre MARTINELLI, CEO de La Javaness

Lundi 7 octobre Le rapport IA : notre ambition pour la France avec Cyprien CANIVENC

Lundi 4 novembre, Les wargame au ministères des armées, Patrick RUETSCHMANN

Lundi 9 décembre A définir




Transparence des algorithmes…

Tiré de l’article « L’opacité des algorithmes favorise les dérives au sein des établissements publics » (Par Adrien Sénécat, Le Monde, 05/12/2023)

Suite au révélations de l’association La Quadrature du Net, il est intéressant de rappeler les attentes de transparence s’agissant du traitement de l’information par des algorithmes.

L’article du journal Le Monde examine les implications de l’utilisation d’algorithmes opaques au sein des services publics, en mettant en lumière le cas de la Caisse nationale d’allocations familiales (CNAF) en France.

L’utilisation d’algorithmes, qu’ils soient simples ou sophistiqués, vise à produire des résultats à partir de commandes spécifiques. Cependant, leur utilisation est souvent entourée d’opacité. Cela pose un problème s’agissant du secteur public. L’article se penche sur le cas de la CNAF qui a été médiatisé au cours des derniers jours car il utilise un score de risque discutable pour cibler ses contrôles parmi ses 13,8 millions de foyers d’allocataires.

L’association La Quadrature du Net, qui à l’origine de l’étude, souligne le besoin de transparence dans le fonctionnement de ces systèmes, argumentant que la publication des détails de l’algorithme devrait être publique pour permettre un débat démocratique. En 2022, La Quadrature du Net a demandé à la CNAF de divulguer les détails de son algorithme, mais la demande a été initialement rejetée au motif que cela pourrait aider les fraudeurs à contourner les contrôles.

Suite à une intervention de la Commission d’accès aux documents administratifs (CADA), La Quadrature du Net et Le Monde ont pu obtenir des informations détaillées sur les algorithmes utilisés par la CNAF de 2010 à 2020. L’analyse de ces données révèle que le système s’appuie en grande partie sur des critères potentiellement discriminatoires, tels que l’âge, la situation familiale, les droits à l’allocation aux adultes handicapés, et la vulnérabilité économique.

L’opacité entourant ces algorithmes soulève des inquiétudes quant aux potentielles dérives. Par exemple, un critère de nationalité discriminatoire a été utilisé pendant des années, attribuant un score de risque plus élevé aux citoyens extra-européens. Les 700 contrôleurs de la CNAF n’avaient aucune connaissance du mode de calcul du score de risque, ce qui souligne le manque de transparence.

L’article souligne également que, dans certains domaines, les professionnels qui utilisent des traitements automatisés de données pour prendre des décisions doivent connaître les fondements de ces systèmes. Les lois existantes, comme le règlement général sur la protection des données en Europe, prévoient des dispositions pour garantir l’information des citoyens sur le traitement automatisé de leurs données. Cependant, les administrations peuvent interpréter ces règles de manière restrictive.

L’utilisation croissante d’algorithmes dans les services publics, tels que Parcoursup en France, souligne l’importance de mettre en place des garde-fous. L’article mentionne d’autres exemples européens où des discriminations ont été observées en l’absence de transparence et de réglementation adéquate.

L’utilisation des algorithmes appelle à la vigilance pour éviter les dérives potentielles et assurer une protection adéquate des droits des citoyens.