L’efficacité opérationnelle dans un service numérique ou l’art de la guerre appliqué à la transformation numérique

Lundi 8 février 2016 le Club MOA a reçu Xavier GUIMARD. Son intervention a porté sur le thème :
«L’efficacité opérationnelle dans un service numérique ou l’art de la guerre appliqué à la transformation numérique».

Xavier GUIMARD est colonel dans la gendarmerie. Après avoir occupé des fonctions opérationnelles de terrain il a rejoint l’informatique en 2000 et a vécu la profonde mutation des SIC (Système d’Information et de Communication) engagée depuis 2002.

NOTE : Le présent compte-rendu est volontairement synthétique. Il ne reprend que les thèmes essentiels évoqués par l’intervenant. L’exposé a été d’une grande richesse, porteur de beaucoup d’informations et de réflexions qui ne peuvent, bien évidemment, pas être repris dans ce modeste document.

Illustration de l'art de la guerre, ouvrage de Sun Tzu, général chinois du VIe siècle av. J.-C.
Illustration de l’art de la guerre, ouvrage de Sun Tzu, général chinois du VIe siècle av. J.-C.

Rappel rapide du contexte

En 2002 la situation du système d’information était « critique ». Le coût du MCO (Maintien en Condition Opérationnelle) dérapait, les demandes d’évolution étaient nombreuses et l’ouverture du système d’information inenvisageable vu le faible niveau de la SSI. Dans le domaine des RH, les équipes étaient « verticalisées » par projet.

À la suite de décisions stratégiques, une nouvelle doctrine a été érigée, permettant de reconstruire une dynamique « systèmes d’information » sur de nouvelles bases.
Cet engagement de longue haleine a mis plusieurs années à porter ses fruits. À partir de 2007 la situation est devenue satisfaisante tout en restant économiquement raisonnable.

L’intervenant propose deux perspectives d’analyse : l’aspect financier et la Sécurité des Systèmes d’informations (SSI).

I – Aspect financier

L’aspect financier est abordé sous l’angle macro-économique. En 2002 seul le financement des investissements était maîtrisé. Les dépenses récurrentes et les investissements ainsi que l’emploi des RH apparaissaient comme plus difficiles à maîtriser.

L’analyse met en évidence trois points importants :
• Prédominance du Chef de projet
• Partenariats vs « Client captif »
• Trop de dépendances techniques entre les projets.

Les lignes stratégiques retenues pour redresser la situation sont les suivantes :
Attaque du coût récurrent :
• Rétablissement des conditions de la concurrence lors du renouvellement des marchés
• Suppression des dépendances entre projets par la mise en place d’interfaces normalisées
• Rationalisation des technologies utilisées.

Création d’un socle technique solide :
• Mutualisation de nombreux services (SSO , hébergement, journalisation, bases de données, stockage…).
Indirectement, ces mesures bénéficient à l’investissement : le nouveau socle technique architecturé et la réglementation interne simplifient le dialogue avec les fournisseurs : le cahier des charges devient autosuffisant.

Au plan macro-économique, le résultat est atteint en cinq ans. Les finances, tant pour les dépenses récurrentes que pour les investissements, sont parfaitement maîtrisées. L’optimisation des ressources humaines nécessaires à la maîtrise et l’évolution du SI ont été significativement diminuées et les équipes se sont spécialisées par domaine de compétence en étant transverses aux projets métiers.

II – Aspect sécurité du système d’information

Xavier Guimard partage cette partie de son exposé en trois chapitres :

A- Estimation de la menace.

Le niveau de menace n’a probablement pas atteint son apogée. Le livre blanc sur la défense et la sécurité nationale développe la notion de menace, lors des « crises ».

En temps normal, les phénomènes de masse (virus, phishing,…) ne représentent qu’une partie de la problématique. Les pratiques illégales liées à l’intelligence économique sont monnaie courante.

En ce qui concerne les entreprises, Xavier GUIMARD fait une différence importante entre sureté (résistance à une attaque) et sécurité (résistance à un virus)

La Sécurité des Systèmes d’Information dans les entreprises est trop souvent réduite à la lutte contre les phénomènes de masse (non ciblés) tels que les attaques virales. Par opposition, la prévention contre des attaques ciblées, telles que la copie, l’attaque à l’intégrité ou la corruption de données, est moins souvent prise en compte
Aujourd’hui encore, le besoin SSI est, à tort, appréciée comme une charge budgétaire. Les entreprises considèrent que leur sécurité est bien assurée par la présence d’un plan de secours. A y regarder de plus près la « sureté » fait souvent l’objet d’un sous-investissement. En effet, l’impact des attaques ciblées est nettement supérieur aux autres problèmes liés à la SSI. Le financement de cette dernière devrait donc être considéré comme un élément indispensable à la pérennité de l’entreprise.

B- Analyse comparée de la guerre traditionnelle et de la Sécurité des Systèmes d’Information

En sa qualité de militaire et d’informaticien, Xavier Guimard a pu exposer cette partie avec clarté et intelligibilité. Dans une époque où l’on parle de « cybercriminalité », cette analyse a eu le mérite d’expliciter les différences importantes qui existent entre ces deux types de conflit.

– L’avantage naturel est inversé. En guerre classique l’avantage naturel est au défenseur (en particulier dans ce que l’on nomme guerre économique). En cybercriminalité, c’est l’inverse. Il existe de nombreuses technologies, très abordables, qui permettent de mettre en œuvre ces attaques. L’effet de surprise est garanti car il est difficile d’obtenir des renseignements sur les attaques à venir et les attaques ciblées sont noyées au sein d’attaques générales. Enfin, et ce n’est pas le moindre, il n’y a pas de problème de logistique pour l’attaquant.

– La notion de concentration de l’effort n’existe pas en matière de cybercriminalité. En cause : La multiplicité des identités que peuvent prendre les auteurs et, l’anonymat permis par le réseau Internet. Il n’y a pas de limites sur le nombre d’attaques simultanées et ces attaques peuvent être le fait de plusieurs agresseurs non coordonnés. L’ensemble de ces considérations introduit, dans la lutte perpétuelle de l’épée et du bouclier, une problématique radicalement nouvelle. Le Colonel Guimard met en exergue la motivation défavorable au défenseur : Au mieux un temps de retard pour répondre à l’attaque, au pire une absence de prise de conscience des dégâts perpétrés par ces agressions.

– Il y a de fait, une vraie difficulté à justifier les moyens que l’on peut mettre en œuvre contre des attaques ciblées. D’une part la faible probabilité apparente d’attaques ciblées, car peu de cas sont révélés, et d’autre part des systèmes de défense basés essentiellement sur des robots. Ils sont efficaces contre des attaques connues ou génériques mais désarmés devant un agresseur d’un nouveau type. Il n’y a pas de vue humaine globale. Ces dispositifs sont comparables à des forteresses sans gardiens.

– La finalité de l’attaque d’un concurrent diffère de celle d’une guerre classique. Dans cette dernière on « Recherche une meilleure paix ». Dans le domaine de la SSI soit l’attaque est directe et on recherche la destruction du concurrent, soit l’attaque est indirecte. C’est le cas des crises ou des liens supposés avec la cible réelle. L’information est souvent la cible. En guerre classique le renseignement donne un avantage pour la suite des opérations. En matière d’espionnage économique l’information constitue le patrimoine. Son obtention est décisive, la suite de la guerre se déroule sur le terrain commercial sans réel moyen d’action. Dans tous les cas il n’y a guère de négociations possibles.
La matérialisation de l’attaque est difficile. L’attaquant ne peut être identifié, le vol du patrimoine se présente sous la forme d’une duplication de données qui n’est pas forcément perçue par l’agressé. En cas de corruption des données la détection peut d’avérer difficile mais surtout les modifications ne sont pas nécessairement détectée.

La situation de l’agresseur présente aussi quelques « difficultés », notamment parce qu’il n’a pas de vue globale de la situation. Il agit sur le réseau et doit extraire des informations. Il peut être facilement trompé si l’agressé a mis en place un dispositif efficace. Observons que les phénomènes de masse divulguent beaucoup de techniques inutilisables ensuite. La complexité de l’informatique amène l’agresseur à commettre des erreurs. Enfin le niveau technique requis est croissant.

Illustration de l'architecture des forteresses créées par Vauban
Illustration de l’architecture des forteresses créées par Vauban

L’intervenant fait une rapide comparaison entre les places fortes construites par Vauban et les Systèmes Informatiques. Le système en couche présente des faiblesses intrinsèques : firewall + reverse + proxy + antivirus + détecteur d’intrusion ne représentent qu’une simple barrière. Dans la logique des forteresses construites par Vauban, le défenseur voit manœuvrer l’attaquant en permanence, ce qui n’est pas le cas en matière de système d’information. En matière de SSI le Système actuel se rapproche plus des dispositifs de guerre du « Haut Moyen Âge ». Mise en place d’une protection autour d’une enceinte dont le contour est difficile à évaluer : PC Nomade, PDA , Réseau avec des portes nécessairement ouvertes (mails) et dans laquelle tous les habitants ont la clef (USB).

Xavier Guimard nous fait remarquer que le Responsable de la Sécurité des Systèmes d’Information (RSSI) est une notion qui n’a pas d’équivalence en guerre classique. C’est aussi un poste que les entreprises ont quelques difficultés à situer. Trop haut dans la structure, le RSSI ne sait pas ce qui se passe ; trop bas, personne ne l’écoute. La position du RSSI (et de son équipe) ne lui permet pas toujours d’influer suffisamment tôt sur les choix et est potentiellement génératrice de conflits. Idéalement il doit occuper une position haute pour la gestion des risques et la politique de sécurité à mettre en œuvre, être proche du DSI pour la surveillance des nouveaux projets et proche de la production pour la détection des failles et des problèmes. Pas simple !
Dans la pratique, au quotidien, les choix s’imposent souvent à la SSI qui doit se débrouiller avec notamment des messageries externalisées, des PDA, des PC nomades… des applications mal conçues, des interconnexions d’applications non maîtrisables.

C- Vers une stratégie de sécurité de l’information.

« On ne doit pas compter que l’ennemi ne viendra pas, on doit se rendre inattaquable » Sun Tsu

Xavier Guimard rappelle rapidement la différence entre stratégie et tactique et par analogie avec le domaine militaire évoque les dispositions en entreprise.

La stratégie définit les objectifs politiques. C’est le domaine de la réflexion, de l’utilisation des méthodes d’aide à la prise de décision. La stratégie opérative définit la stratégie de protection de l’information. La tactique s’intéresse à la conception des objets, aux évaluations, à la détection, à la partie opérationnelle.

La planification opérationnelle

« La planification opérationnelle est l’art de planifier un projet pour le rendre pilotable ».

Toujours par analogie avec le domaine militaire, cette planification requiert deux équipes : la première planifie et conduit les opérations (conception de la manœuvre amie), la seconde s’occupe du renseignement (imaginer la manœuvre ennemie). L’exercice est renouvelé de façon cyclique. Chaque échelon intègre dans son raisonnement les questions essentielles (pourquoi, comment, mission, avec qui, contre qui, contraintes…).

D’autres principes militaires sont applicables en entreprise :

  • Un chef, une mission, des moyens
  • On ne confie une mission qu’à une personne en mesure de la comprendre et de l’assumer
  • Entraînement régulier du personnel
  • Mettre en œuvre un système très abouti des « conduites à tenir ».

Eléments d’organisation

L’objectif peut se définir complètement de la manière suivante : « Construire un système défendable et le défendre ». Il faut pour cela, à minima, mettre en œuvre un pôle architecture SIC qui contrôle tous les projets, anticipe les besoins et travaille en lien avec les experts de la sécurité physique. Un pôle SSI tactique qui met en œuvre la surveillance des systèmes, les dispositifs de détection et mène les actions prévues selon les circonstances. Les autres pôles sont plus « classiques » : gestion du risque, audit, etc.

Dans le raisonnement qui mène au SIC il faut impérativement prendre en compte les questions suivantes : contre qui ? pour défendre quoi ? avec quels moyens ?

Exemples de principes de sécurité obtenus :

  • Défense en bulles (modularité) et insertion de barrières entre bulles.
    Tout élément pouvant être corrompu, il ne doit pouvoir communiquer avec son environnement que par des protocoles contrôlables (i.e. protocoles ouverts)
  • Défense en profondeur
  • Gestion des identités
  • Fédération plutôt qu’unicité de référentiel pour mieux gérer les partenariats, fusions, acquisitions…
  • Remise en cause cyclique des choix.

Enfin, on veillera à entretenir la motivation par des exercices réguliers, entretenir une veille (pour les attaques ciblées et les attaques automatiques) sur le niveau des attaquants, sur les vulnérabilités du système de l’entreprise, sur la connaissance extérieure du système (départs, fuites, incidents, …), voire utiliser le « Jeu de guerre »

« Entraînement difficile, guerre facile »

 

III – Conclusion

En conclusion de cet exposé, Xavier Guimard présente à grands traits la stratégie SSI de la gendarmerie nationale au sein de la stratégie générale des SIC de la Gendarmerie, et comment cette stratégie est intégrée dans les projets.

A titre d’exemple il détaille plus finement le système de messagerie qui a remplacé les centres de transmission. Le risque majeur était l’usurpation d’identité, non couvert par l’état de l’art.

Mesures d’architecture :

  • Modularité et cloisonnement
  • Développement d’un composant spécifique anti-usurpation
  • Politique ciblant les vecteurs d’attaques en complément des anti-malwares
  • Organisation des boîtes fonctionnelles en sous-dossiers IMAP agglomérés par le serveur dans la boîte individuelle (traçabilité nominative)
  • Effacement automatique des droits à chaque mutation (couplage avec la base RH).

Mesures SSI « tactique » :

  • ● Politique de remontée d’alertes
  • ● Procédure d’audit automatisée.

 

Le raisonnement militaire, un apport intéressant pour tout type d’organisme:

  • Au niveau de l’organisation
    • Réflexion sur le positionnement de la sécurité
  • Au niveau de la stratégie
    • Intégration dans la logique économique
  • Au niveau du quotidien
    • Notion de « SSI tactique »
    • Adaptation réaliste à la menace

-=-=-=-=-=-=-=-=-=-=-=-=-

La Gendarmerie Nationale en chiffres:

  • 70 000 stations de travail Gendbuntu
  • 10 000 stations sous Windows
  • 99% d’utilisateurs exclusivement sur LibreOffice
  • 98% sur Thunderbird
  • 100% sur Firefox
  • 4300 informaticiens sur 200 sites
  • Le remplacement des centres de transmission par la messagerie a conduit à reconvertir 500 personnes (sans recrutement ni suppression de personnel)

 

Pour aller plus loin:




Tacking et mesure d’audience pour Sécuriser la stratégie digitale

Lundi 11 janvier 2016 le Club MOA a reçu Gilles DUCHAMP. Son intervention a porté sur le thème: « Sécuriser la stratégie digitale et son déploiement grâce au tracking et à la mesure d’audience ».

Dans un monde de plus en plus numérique dans lequel chacun est appelé à être de plus en contributeur, même à son insu, les entreprises ont besoin de nouveaux outils pour sécuriser leur stratégie digitale.

C’est dans cette perspective que sont nés plusieurs outils de mesure d’audience et de suivi des utilisateurs lorsqu’ils viennent consommer des services sur un site Web, comme par exemple Clicky, Heap ou Piwik.

Cependant les statistiques sont têtues et un acteur domine le secteur, utilisé par plus de 10 millions de sites, soit plus de 80% du marché mondial. Il s’agit de Google avec son service de « Google Analytics ».

Gilles DUCHAMP connaît bien ce sujet de la mesure, il est expert et formateur depuis de nombreuses années. Il met ainsi son expérience au profit du Club pour nous sensibiliser de façon pragmatique et pertinente sur l’utilisation du service Google Analytics.

Avant tout il ne s’agit pas de donner des chiffres pour des chiffres, mais il faut savoir les corréler, les interpréter. Il y a donc un travail important à prendre en compte du côté de l’utilisateur du service.

L’objectif de Gilles DUCHAMP pour cette rencontre avec le Club est de donner une feuille de route dans l’utilisation de Google Analytics pour bien « analyser le trafic pour optimiser la performance digitale en acquisition et conversion ».

 

La conversion : le point de départ

Se dégage alors au fil de la discussion un point majeur autour de la conversion.

La conversion consiste à transformer le parcours client en résultats qui sont en rapport avec des objectifs de l’entreprise. Cela peut-être de la fidélisation ou toute autre chose (achat, etc.). Sans objectif il n’est pas possible de mesurer la conversion. C’est bien évidemment à l’entreprise de définir ce genre d’objectif.

 

L’analyse et uniquement l’analyse : le domaine de Google Analytics

Si Google Analytics sait répondre sur du factuel, à savoir :

  • Qui sont mes visiteurs ? c’est-à-dire quelle est l’audience ?
  • Quand sont les meilleurs périodes de conversion ?
  • Comment les visiteurs interagissent-ils avec mon site ?
  • Combien de visiteur se convertissent ?
  • Etc.

Pour autant ce qu’on appelle le « digital analytic », ne sait pas répondre au « Pourquoi ? ». Du reste, Gilles DUCHAMP précise bien que ce n’est pas un outil exact, pas davantage un outil de back office et surtout pas un coffre aux trésors : on n’y trouve que ce que l’on cherche, ce qui implique de savoir précisément ce que l’on cherche.

 

Pour comprendre le « Pourquoi »

Si l’on veut répondre au « Pourquoi », alors il faut nécessairement recourir à d’autres outils. Heureusement, il n’est pas indispensable de déployer des moyens très couteux. En effet, avec seulement 6 utilisateurs (en test utilisateurs présentiels), 80% des anomalies du parcours client peuvent être couvertes. D’autres moyens existent pour couvrir les 20% restants (test en ligne, analyse comportementale, « voice of the customer »).

L’interprétation des données est donc capitale, il ne suffit pas de les récolter mais de savoir les interpréter. C’est tout un métier, qui passe par la connaissance d’outils de la statistique, et beaucoup de temps à consacrer.

 

Plan de marquage : un impératif

Si la collecte des données peut s’assimiler à une représentation technique, il demeure impératif de transposer ces données dans une représentation métier. C’est l’objectif du plan de marquage des pages d’un site. A chaque page, une ou plusieurs questions peuvent être associées. Sans plan de marquage, il n’y a pas d’analyse possible.

C’est le premier pas vers le métier.

 

KPI : l’instrument de pilotage

La représentation métier étant assurée, il s’agit maintenant de « mesurer » la performance digitale de l’entreprise. Pour cela il faut disposer d’indicateurs clefs qui découlent d’objectifs définis : ce sont les Key Performance Indicators (KPI).

La recherche des bons KPI et leur appropriation par les différents acteurs digitaux est la clé de la performance digitale. Gilles DUCHAMP rappelle l’importance de remettre en cause les KPI en place. Il propose une méthodologie adaptative de redéfinition des KPI.

 

Connaître son audience

Pour être pertinente, une donnée doit si possible être analysée dans son contexte. Il s’agit donc de connaître son audience et de la segmenter. Pour cela il faut mieux connaître les profils, mieux comprendre les parcours clients, détecter les points durs pour chaque segment et adapter le contenu à chaque topologie d’internaute.

 

Bonnes pratiques

Pour finir, Gilles DUCHAMP nous livre quelques bonnes pratiques sur le Digital Analytics:

  • Challenger les KPI, ils traduisent les objectifs de l’entreprise.
  • Prendre du recul et de la hauteur pour mieux analyser.
  • Bien interpréter les rapports, se poser les bonnes questions.
  • Comparer les données avec une période de référence, sinon elles sont justes une indication mais pas une mesure de tendance.
  • Croiser les données avant de tirer des conclusions.
  • Anticiper l’évolution des principales métriques.
  • Faire des hypothèses, toujours des hypothèses et pas de supposition.

S’il faut résumer une feuille de route en cinq points, Gilles DUCHAMP nous la livre:

  1. S’assurer de l’hygiène de vos données.
  2. Mettre de la valeur dans vos données.
  3. Installer et pérenniser la mesure d’audience.
  4. Partager et communiquer largement.
  5. Optimiser votre temps.

 

Un beau programme en perspective pour qui veut connaître ses clients…

Merci à Gilles DUCHAMP pour ce captivant témoignage d’un passionné de la donnée.




Calendrier des rencontres du Club MOA en 2016

Le calendrier prévisionnel des dîners 2016 est présenté dans le tableau ci-après.

Il tient comptes des périodes scolaires de la zone C :

  • 4 janvier au 20 février
  • 7 mars au 16 avril
  • 2 mai au 5 juillet
  • 1er septembre au 19 octobre
  • 3 novembre au 17 décembre

 

1er semestre 2nd semestre

Lundi 11 janvier

Lundi 8 février

Lundi 7 mars

Lundi 4 avril

Lundi 9 mai (6 et 7 mai fériés)

Lundi 6 juin

Lundi 4 juillet

Lundi 5 septembre

Lundi 3 octobre

Lundi 14 novembre

Lundi 5 décembre

Les rencontres se déroulent dans un lieu parisien de 19h30 à 22h30.

Les thèmes prévus en 2017 sont : le web analytic, l’open source, les catalogues de services et industrialisation des processus, l’entreprise innovante, la réingénierie de processus, les grands projets de transformation, le big data et tout autre thème souhaité par les membres dont celles déjà mentionnées sur notre page dédiée.




Le Club vous souhaite ses meilleurs vœux pour 2016

À ses adhérents, mais aussi à ses amis et lecteurs, toute l’équipe du conseil d’administration du Club adresse ses meilleurs vœux pour 2016 et vous remercie pour votre intérêt, vos contributions et votre soutien.

Voeux 2016
Voeux 2016

Les défis à relever pour les entreprises publiques ou privées ne manqueront vraisemblablement pas en 2016, notamment dans le domaine du numérique qui nous intéresse tout particulièrement… Aussi, nous espérons pouvoir compter à nouveau sur vous !

 




La Transformation agile et digitale, vue des tranchées

Lundi 7 décembre 2015 le Club MOA a reçu Philippe PASSELAIGUE. Son intervention a eu pour titre : « La Transformation agile et digitale, vue des tranchées »
Son « credo » résume assez bien son approche des problématiques nées de la transformation digitale que nous vivons dans les entreprises depuis déjà quelques temps :

« Ouvrir vers l’extérieur pour… éclairer l’intérieur »
Comment aller du virtuel au réel ? Comment conserver l’humain au milieu des expériences digitales ?

Philippe PASSELAIGUE a introduit « l’agilité » dans l’entreprise il y a une dizaine d’années. La démarche était atypique. Il a eu la chance que ses patrons de l’époque lui fassent confiance.
A la lumière de son expérience et de ses convictions, il a développé, au cours de la soirée, plusieurs thèmes liés aux évolutions entraînées par la transformation numérique des entreprises et la mise en place des démarches agiles.

 

1 – Apprendre à désapprendre

Trois mots simples mais difficiles à comprendre (agile, digital, complexité) caractérisent les changements survenus dans nos environnements.
Quelle est la difficulté ?
Philippe PASSELAIGUE la caractérise ainsi : « Il faut désapprendre ». Il illustre l’idée en faisant une comparaison avec la conduite automobile. Conduire entraîne la mise en œuvre d’un certain nombre d’automatismes auxquels le conducteur ne prête plus attention. Si on modifie la place du volant, si on inverse l’ordre des pédales par exemple, il faut « désapprendre » à conduire » pour mettre en œuvre de nouveaux automatismes. Les méthodes agile, la transformation numérique nécessitent de désapprendre pour acquérir de nouvelles approches des problèmes, pour changer la façon de travailler.
Et de conclure : « Pour changer il faut une motivation forte, que les personnes aient envie : il faut apporter quelque chose qui va dans l’intérêt de la personne »

 

2 – Libérer la parole en interne

L’expression externe libère la parole et les intelligences, et par ricochet l’expression interne. Les personnes parlent quand elles sont à l’extérieur et se taisent quand elles sont à l’intérieur. Philippe PASSELAIGUE indique qu’il a utilisé le réseau TWITTER, comme clef de changement à l’intérieur de l’entreprise. Lorsque les personnes s’expriment sur Twitter elles libèrent leur parole et peu à peu, sous l’influence (inconsciente) de cet artefact elles libèrent la parole en interne. L’objectif peut être résumé ainsi : « Rendre le sourire au salarié ».

 

3 – Plazza : Le Réseau Social d’Entreprise (RSE) d’Orange

L’outil condition nécessaire mais pas suffisante pour les usages.

L’approche traditionnelle « en silo », les périmètres limités, les organisations complexes et éclatées ne répondaient pas à un besoin de transversalité, d’échanges, de création de communautés.

Les principes en sont les suivants :

  • Application au périmètre du Groupe (4 langues de navigation)
  • Lien avec l’annuaire du Groupe
  • Basé sur le volontariat
  • Une charte du bon usage
  • Pas de cellule de modération
  • Pas d’anonymat
  • Des animateurs de communautés responsables
  • Des communautés spontanées, publiques ou privées

Ce RSE est aujourd’hui « ouvert ». La Direction recommande fortement de l’utiliser. Il favorise les projets transversaux, casse les modèles en silos et fait émerger une intelligence collective.

Au passage Philippe PASSELAIGUE indique que l’outil essentiel pour accéder au RSE est le Smartphone.

Le RSE regroupe tous les moyens de communications, il est autonome, personnel et quasi-permanent, accessible en mobilité. Il reste que l’outil ne fait pas les usages. Comment amener les collaborateurs à échanger ? Comment faire ? Un exemple est donné par « Fan de MOOC ».

 

4 – Fan de MOOCS (massive open online course)

[MOOCS : Formation en ligne ouverte à tous, cours en ligne ouvert et massif]

En introduction de cette partie, Philippe PASSELAIGUE indique qu’il ne faut pas confondre cette « technique » avec le « e-Learning ». Les MOOCs permettent d’apprendre sous le regard de ses pairs. C’est un apprentissage dans un cadre collaboratif.

Fan de MOOC est une communauté du RSE, un moyen de répondre à la question qu’y a t’ il pour moi là-dedans et de faire vivre une expérience de transformation digitale.*
Les MOOC sont un bon détecteur de talent à coût zéro. Plusieurs MOCC sont sur les créneaux ou l’on recherche des compétences : Big data, développement logiciel (python, java, architecture etc…) Design Thinking, gestion de projets, IP, télécommunication, langues, … Organiser la participation individuelle et collective à des MOOC perme de détecter des talent (ceux qui auront réussi ce premier passage). Les MOOC accompagnent en pratique la transformation digitale (MOOC connexionistes). Réussir un MOOC redonne confiance dans sa capacité d’apprentissage et modifie le regard sur soi-même et celui des autres sur la transformation digitale.

« J’apprends quand je veux, si je veux » Les personnes s’auto-organisent et l’expérience montre qu’elles retrouvent le goût et la capacité d’apprendre. On assiste à la création de communautés dans lesquelles les personnes apprennent ensemble. Les MOOCs deviennent certifiants, ce qui correspond bien à une évolution. C’est un des aspects « de fond » de la transformation digitale.
Les sujets sont professionnels ou non et variés. Philippe PASSELAIGUE cite l’exemple suivant : « Comment réaliser une vidéo avec son smartphone » – Technique de prise de vue, montage, diffusion, etc…

Le virtuel permet d’apprendre à se connaitre et avoir envie de se rencontrer pour échanger. Là un lieu comme le Cool’lab est nécessaire.

 

5 – Le Cool’LAB

Le Cool’lab est un espace inspiré des lieux de coworking. C’est un endroit d’ouverture sur les nouvelles modes de travail où les personnes se retrouvent pour mieux travailler.
Le cool Lab est un endroit de rencontre pour des moments de partage. Ce n’est pas seulement un espace de créativité. Dans ce local les personnes bougent, organisent la structure de la salle, se l’approprient. Les participants doivent se sentir « Chez eux ». Ces rencontres permettent à chacun de comprendre que les autres sont différents et d’accepter ces différences, d’en faire une force et de contribuer à l’émergence de cette intelligence collective déjà citée. Le digital met en évidence le besoin humain d’échanges et de rencontres. Les communications au moyen de techniques réseau, voire virtuelle permettent de redonner encore plus de sens aux réunions en « présentiel » (modèle en classe inversée).

 

6 – Le forum ouvert en mode projet

Le « forum ouvert » est un concept développé par Harrison Owen aux USA dans les années 80. Ayant constaté que, lors des congrès ou séminaires, les discussions menées pendant les pauses café étaient toujours passionnantes, il a commencé à organiser des conférences qui ne se déroulent qu’en pauses café…
Le Forum Ouvert est une démarche qui a pour objet de structurer des conversations, des développements de thèmes. Grâce à cette démarche, des groupes importants de participants peuvent s’assembler et travailler ensemble.
La caractéristique de la démarche est l’ouverture mise à la fois sur le contenu mais aussi sur la forme. Les participants sont invités à travailler ensemble sur une thématique importante et complexe.
L’ordre du jour est réalisé très rapidement par les participants au démarrage du Forum Ouvert. Les utilisateurs donnent ainsi leurs propres sujets en séance plénière et forment des groupes de travail pour chaque thème abordé dans lesquels les projets vont être élaborés. Chaque groupe de travail rédige un compte-rendu qui est affiché immédiatement. L’ensemble des comptes rendus apparait ainsi au fur et à mesure de l’avancement du Forum Ouvert. Le Forum Ouvert permet de traiter de sujets complexes et de produire une diversité de mesures concrètes en peu de temps. (D’après Wikipédia)

C’est une façon de travailler autrement. Les personnes sont libres : si elles considèrent qu’elles n’ont rien à faire dans ce forum, elles peuvent le quitter sans autre forme de procès. Le Forum ouvert nécessite un sponsor qui garantit qu’il y aura un suivi et des actions qui vont avoir lieu après la rencontre. Le sponsor expose le thème mais ce sont les participants qui font l’ordre du jour. Les personnes s’auto-organisent, chacun propose ses idées : c’est bien un moyen de libérer la parole.

 

7 – Codéveloppement professionnel, apprendre des pairs

Le Cool’lab « privatisé est un des lieux de rencontre privilégié de groupes de codéveloppement.

Le Codéveloppement professionnel et managérial a été conçu par Adrien PAYETTE, canadien, Professeur de management à Montréal.
Le Codéveloppement professionnel consiste à constituer des groupes de 8 managers (en moyenne) qui vont vivre une série de 8 rencontres d’une demi-journée, (ou 4 fois une journée) avec un animateur, consultant externe, maîtrisant bien la méthode, sur une durée de 4 à 6 mois.
L’animateur n’est pas là pour animer une formation ni pour faire des apports, mais pour faire découvrir la méthode et pour lancer le groupe dans une dynamique de progrès continu.
Le Codéveloppement professionnel est structuré en séquences d’une demi-journée.
Au cours d’une séquence, un participant a convenu d’être le « client » et de présenter au groupe un problème, une préoccupation, un projet (les 3P), c’est à dire un sujet pour lequel il veut voir clair et mieux agir.
Les participants sont alors « consultants ». Ils ont le challenge de réussir à apporter une aide utile au client.
Chaque séquence se déroule selon une méthodologie précise en 6 étapes.
Partant de cette base simple de type « recette », l’animation va gagner en finesse et faire découvrir ce que peut être l’intelligence collective et la facilitation du changement.
La simplicité du déroulement peut évidemment faire illusion. Les chausses trappes existent à chaque étape
Le Codéveloppement correspond donc à une méthodologie définie et doit être distingué d’autres approches qui sont peut être « parentes » mais nettement différentes

La soirée s’est conclue sur les questions / réponses avec les participants.




L’analyse de la valeur, une approche intégratrice du changement

Lundi 9 novembre 2015 le Club MOA a reçu Olaf de HEMMER.

Son intervention a porté sur le thème « Contribution de l’analyse de la valeur pour donner ou redonner toujours plus de sens au métier de « Maîtrise d’Ouvrage » »

 

Historique

L’analyse de la valeur a débuté chez la compagnie General Electric pendant la deuxième guerre mondiale. À cause de la guerre, il y avait un manque de matières premières, de main d’œuvre et de composants.

Lawrence Miles et Harry Erlicher de G.E. ont cherché des substituts acceptables. Ils ont remarqué que ces substitutions réduisaient souvent les coûts tout en améliorant le produit.

Ce qui a débuté accidentellement, à cause de la nécessité, est devenu un processus systématique. Ils ont appelé leur technique « Analyse de la valeur », devenue une méthode de conception de produits.

 

Définition

L’Analyse de la Valeur est une méthode rigoureuse qui, à partir d’une expression formalisée du besoin réel (en utilisant l’Analyse Fonctionnelle par exemple), conduit une équipe pluridisciplinaire (ensemble des experts des domaines concernés) à concevoir des solutions qui répondront de façon optimale (le meilleur compromis) à l’ensemble des besoins recensés (« Le nécessaire et suffisant »).

(source : AFAV)

 

L’analyse de la valeur est applicable à toutes sortes de problématiques.

La démarche est à la fois fonctionnelle et économique et s’intéresse au rapport fonction (utilité) / coût. Elle conduit donc à s’intéresser à la notion de « valeur perçue ».

Cette problématique de la valeur perçue, qui diffère selon le point de vue, Olaf de Hemmer l’amène à travers une digression sur le « Mouton à cinq pattes »: quelle serait la valeur d’une telle chimère ?

La conclusion, largement commentée par l’intervenant, est la suivante :

La valeur est :

  • relative « ça dépend ! »
  • subjective, relative à une personne et différente selon leurs points de vue
  • fonction de l’utilité perçue par l’utilisateur, de la réponse à ses besoins.

Des échanges avec Olaf de Hemmer et les membres du Club, il ressort que l’on peut résumer le raisonnement sur la valeur en 3 points : 2 questions + 1 principe

  1. La question clé : « A quoi ça sert ? ». La valeur d’une chose dépend du besoin à satisfaire (pour les utilisateurs finaux).
  2. Pour chaque besoin, « que suffit-il ? » de réaliser ou de mettre en place pour le satisfaire ? A noter qu’il est assez rare que les personnes s’expriment en termes de besoins : le dialogue est trop souvent axé sur des solutions.
  3. Répondre à ces questions avec les partie prenantes : les personnes concernées.

A titre d’exemple, les participants au dîner ont procédé à l’analyse de la valeur d’un « Marqueur pour paperboard ». Cet exemple aboutit à une modélisation de la fonction de l’objet examiné.

Consultant expérimenté, Olaf de Hemmer dispose de quelques astuces. Par exemple, une autre approche pour déterminer « à quoi ça sert ? » est de se poser la question suivante : « Quand on retire l’objet, quel besoin n’est pas satisfait, que manque-t-il au cadre plus large du système dans lequel évolue l’objet ? ».

 

Si les deux questions clés de l’analyse de la valeur ont été largement abordées dans la première partie de l’exposé, l’intervenant insiste fortement sur la participation des « parties prenantes » : les personnes qui sont concernées par l’objet examiné ont-elles-mêmes un système de valeurs qu’il faut intégrer à l’analyse. Il est indispensable de rechercher les éléments qui pourraient être des facteurs de veto.

De même, il met en relief le fait de faire comprendre aux gens que l’analyse qui se déroule est destinée à améliorer leur travail et les conditions dans lesquelles ils l’exercent. La dimension relationnelle est consubstantielle à la démarche.

Pour conclure cette partie de l’exposé Olaf de Hemmer nous invite à une posture de management collaboratif : « Au lieu de laisser les gens faire des choses inutiles ou inutilisées, ne vaut-il pas mieux utiliser leurs compétences pour faire des choses utiles qui ne sont pas faites ? ».

 

La dernière partie de l’exposé est centrée sur l’entreprise, son fonctionnement et son environnement.

L’entreprise a un but : créer de la valeur (des valeurs). Elle met en œuvre un ensemble de moyens pour créer de la valeur pour ses parties prenantes : employés, actionnaires, clients, administrations, fournisseurs, environnement, etc… L’objectif est de satisfaire les besoins de chacun avec un minimum de ressources, qui proviennent des autres parties prenantes.

L’intervenant montre que la chaîne ne peut pas être scindée et que l’entreprise et ses parties prenantes sont interdépendantes. Par exemple on ne peut pas créer de valeur pour un actionnaire si on ne répond pas aux besoins des clients, si les employés ne sont pas respectés dans leurs attentes et que l’on ne tiens pas compte de leurs valeurs.

Ce raisonnement met en cause nos habitudes et en particulier le raisonnement cartésien qui a prévalu depuis 3 siècles. Il a certes permis les progrès et les évolutions que l’on sait, en proposant d’analyser le tout par les parties et les causalités. Mais il ne suffit plus : le raisonnement systémique doit être utilisé. Il suppose au contraire d’étudier les relations entre les constituants d’un organisme et les finalités. On sait, en effet, que le comportement d’un système est différent quand on l’étudie dans son environnement ou de façon isolée. Les approches cartésiennes et systèmes se complètent pour résoudre des problèmes complexes. Ce paradigme systémique est à la base de l’analyse de la valeur, mais pas seulement puisqu’une centaine d’autres méthodes s’en inspire.

Par exemple, la méthode Océan Bleu (Blue Ocean), qui permet des innovations de rupture dans la stratégie d’une entreprise, repose sur ce raisonnement. Cette méthode d’élaboration de stratégie d’entreprise, développée par W. Chan Kim et Renée Mauborgne, chercheurs au Blue Ocean Strategy Institute à l’INSEAD est présentée dans « Stratégie Océan Bleu : Comment créer de nouveaux espaces stratégiques » 1.

Dans cet ouvrage publié pour la première fois en 2005, les auteurs expliquent que la forte croissance et les profits élevés que peuvent générer une entreprise se font en créant une nouvelle demande dans un espace stratégique non contesté, ou Océan Bleu, plutôt qu’au cours d’affrontements avec des fournisseurs existants pour des clients existants dans une activité existante. (From Wikipédia)

 

Pour aller plus loin

 

Olaf de Hemmer en quelques lignes

Olaf de Hemmer Gudme, conseil en management et formateur depuis 25 ans, il travaille depuis 15 ans à la création de valeur(s) dans différents domaines de l’innovation, des achats, des SI… Président de l’AFAV (association française pour l’analyse de la valeur), réseau des professionnels de la Valeur depuis plus de 30 ans, et fondateur du réseau Valeur(s) & Management, il a mis en oeuvre cette approche dans des dizaines de projets dans tous les secteurs et à travers le monde.




A quoi ça sert ?

À quoi ça sert ? : Une approche système pour la création de valeurS

Présentation de l’éditeur

Couverture du livre "A quoi ça sert ?" de Olaf de Hemmer Gudme
Couverture du livre

Comment faire pour que l’économie génère à la fois plus de création de valeur et de respect des valeurs ? La question-clé est « à quoi ça sert ? » d’une puissance tellement étonnante pour la remise en cause qu’on se demande pourquoi nous recourons si peu à ce bon sens ?

Cette question mène en effet au sens : la direction, la signification, l’utilité… Et au bon sens: un raisonnement logique et pragmatique.

Dépassons le raisonnement cartésien, qui rend les dirigeants myopes (vision à court terme) et autistes (inconscient de leur dépendance à leur écosystème), mais gardons ce qu’il a de bon : la rigueur et l’analyse qui sous-tendent le raisonnement scientifique qui a donné au monde le progrès.

Ajoutons-y le raisonnement système, où chaque acteur est interdépendant des autres, où chacun est tourné vers le sens, les buts, les souhaits, qui seuls mobilisent les individus, où la collaboration et le dialogue permettent de construire des processus mobilisant l’intelligence collective pour créer la valeur attendue par chacun, dans le respect de ses valeurs.

Cet ouvrage est construit en 4 parties, que le lecteur pourra choisir de parcourir dans l’ordre ou non :

  • 1ère partie : Une présentation du raisonnement Valeur(s) et de ses principes simples
  • 2ème partie : Les concepts théoriques sur lesquels ils se fondent
  • 3ème partie : Des applications pour la création de Valeur(s) dans différents domaines
    • Dans l’entreprise :
      • L’entreprise
      • Une entité ou un service
      • Un métier : les Achats
      • Un processus tertiaire ou administratif
      • Un process industriel
      • Un produit
      • La formation professionnelle
    • Ou en dehors :
      • Le projet éducatif d’une école
      • La gestion du temps
      • Le sens de la vie
  • 4ème partie : Les méthodes Valeur(s) existant dans ces différents domaines, leurs synergies et leurs liens avec le raisonnement Valeur(s)

Le raisonnement Valeur(s) permettra à chaque décideur de faire mieux avec moins, à son niveau en cohérence avec les autres acteurs internes et externes de l’entreprise, en retrouvant le sens commun et en respectant les valeurs des autres.

Le raisonnemet Valeur(s) permettra aux promoteurs des méthodes d’optimisation les plus efficaces dans son domaine de comprendre comment travailler en synergie avec les spécialistes des autres domaines de performance de l’entreprise, afin d’être encore plus efficace.




Gestion des projets en péril : retour d’expérience

Lundi 5 octobre 2015 le Club MOA a reçu Éric Masson.

Son intervention a porté sur le thème : Retour d’expérience sur la gestion d’un projet en péril

PTC est un éditeur de logiciel dont les solutions transforment la manière dont les entreprises exploitent et assurent la maintenance de leurs produits. PTC associe une expertise sur les processus aux fonctionnalités d’une plate-forme flexible.

Les solutions portent sur la gestion du cycle de vie des produits (PLM 1), la Conception Assistée par Ordinateur (CAO), la gestion du cycle de vie des applications (ALM 2), la gestion de la chaîne logistique (SCM 3) et la gestion du cycle de vie des services (SLM 4).

 

En préliminaire à son exposé, Éric Masson a indiqué qu’il ne détenait aucune vérité et que son expérience et son savoir-faire ne s’appliquaient pas nécessairement à tous les projets.

Le projet en péril présenté se déroule chez un grand constructeur et a trait au système qui produit la documentation. Actuellement cette production est assurée par 90 systèmes différents, l’objectif du projet est de mettre en place un seul système avec un portail d’accès unique.

Éric Masson « raconte » le projet, son historique, les dérives et les actions qui ont permis un redressement qui conduit à la mise en production.

 


Pour des raisons de sensibilité de l’information, le détail du compte-rendu est réservé aux membres (accord de confidentialité avec le club) qui étaient présents lors du dîners.


 

Éric Masson achève son exposé en résumant ainsi une des conditions de réussite d’un projet « Il faut à l’équipe un objectif commun et une personne qui l’incarne. La difficulté est précisément de générer cet intérêt commun ».

Éric Masson propose cette synthèse sous forme de recommandations: “Un projet qui démarre mal a une forte probabilité de mal se terminer”.

 

Quelques recommandations

Démarrage des projets :
• Kick off avec le maximum d’incertitudes levées
• Ne pas hésiter à refaire des revues complètes régulières
• Ne pas hésiter à refaire un kick off si la « baseline » change : nouveau périmètre,nouveau délais, etc….
• Ne pas hésiter, quand cela est possible, à stopper le projet s’il est dans une impasse

Déléguer à chaque fois que cela est possible
• Celui qui a la compétence peut aussi décider
• Responsabiliser au maximum les individus

Simplifier les organisations :
• Dans une équipe, chacun a un rôle d’égale importance, le rôle du responsable de projet est essentiellement d’arbitrer
• Eviter les “porteurs d’eau”, les “coupeurs de citrons”,

Simplifier les communications :
• Tout doit pouvoir se dire et se comprendre et au maximum en “live”
• Le mail est un outil de diffusion d’information, pas un “tchat” où l’on discute d’architecture, de solution etc.

S’intéresser à d’autres disciplines…

Au cours de l’exposé Éric Masson a proposé une courte digression pour faire découvrir à l’assistance cette démarche, encore peu répandue.
La Psychosocionomie est une démarche d’intervention dans les organisations élaborée à partir de plusieurs disciplines : la sociologie, la systémique, les neurosciences, l’économie et la psychologie.
Elle a comme point de départ une observation et une analyse des symptômes pour formuler des hypothèses et mettre en place des plans d’actions que l’on réévaluera régulièrement en fonction des réactions.
L’objectif est de résoudre une équation à 3 membres indissociables : L’individu, l’organisation, l’économie.
En effet, tout individu, tout groupe est PsychoSocioécoNomique : à la fois des producteurs et des consommateurs.
Un individu ne s’envisage pas en dehors de son réseau social. Il en est de même pour ce qu’il produit.

 

Pour aller plus loin

Une vidéo(en espagnol et traduite) de Georges Escribano

 

Un article sur le projet à la faculté de Lyon

 

Des livres intéressants

 

Quelques mots sur l’intervenant

Après une carrière militaire dans le domaine opérationnel, Eric Masson entame un parcours de manager de projets. Il participe à de nombreux projets dans des entreprises telles que Neurones, Lucent, Bouygues Telecom. Actuellement il mène (et redresse) des grands projets chez PTC (Paramétric Technologic Corporation). Au total près de 30 ans de management d’équipe.




Forum de l’entreprise numérique

Illustration de l'événement "forum de l'entreprise numérique" organisé par CESAMES

Aujourd’hui, en France, il n’y a pas de lieu de rencontre ouvert qui regroupe académiques et professionnels français – architectes, managers & partie du top management issus des univers métiers & IT – pour échanger sur la révolution numérique et plus particulièrement sur l’impact des technologies du numérique sur les business models des organisations : bonnes pratiques, outils, méthodologies permettant de faire du numérique un facteur de compétitivité pour les Entreprises.

C’est dans cet objectif qu’a été créé le FORUM DE L’ENTREPRISE NUMERIQUE.

Ce dernier est organisé à la fois en : plénières le matin pour favoriser les échanges sur des thématiques ouvertes en présence de grands noms, tracks métiers et sectoriels, l’après-midi, animés par des organisations reconnues dans leur domaine.

Au programme de l’édition du 18 novembre 2016, il est prévu d’échanger avec Christophe Baujault, Daniel Krob, Henri Verdier, Gilles Babinet, Yves Caseau et bien d’autres personnalités qui sont acteurs du monde numérique (programme complet en téléchargement).

En tant que partenaire historique de l’association CESAMES qui porte l’organisation de cet événement majeur, le Club MOA vous encourage à consulter le programme et pour ceux qui le peuvent à vous inscrire.

Toutes les informations sur le site dédié à l’événement : http://forum-entreprise-numerique.fr/




Transformation Digitale, 5 leviers pour l’entreprise

Couverture du livre "transformation digitale - 5 leviers pour l'entreprise" de David FAYON et Michaël TARTAR qui proposent ici un outil de mesure de la maturité numérique collaboratif, évolutif et adaptable à tout type d entreprise. Celui-ci repose sur cinq leviers complémentaires (organisation, technologie et innovation, personnel, produits et services, environnement) qui vont définir un nouveau modèle de gouvernance.
Couverture du livre « transformation digitale – 5 leviers pour l’entreprise » de David FAYON et Michaël TARTAR

Dans leur ouvrage « Transformation Digitale, 5 leviers pour l’entreprise », édité en octobre 2014, les co-auteurs David FAYON (@fayon) et Michaël TARTAR (@michaeltartar) proposent la version 1 d’un modèle dédié à la mesure de la maturité numérique.

Ce modèle a été pensé pour répondre aux enjeux de nombreuses organisations. En effet, un grand nombre d’entreprises est confronté à la nécessité de se transformer pour faire face à l’évolution de la société du numérique, sans pour autant disposer d’outils. En proposant ces 5 leviers, qui se décomposent en 22 critères, eux-mêmes décomposés en 70 sous-critères mesurés avec 117 indicateurs, David FAYON et Michaël TARTAR apportent des éléments permettant au moins d’initier une réflexion et, pour ceux qui le souhaitent, d’aller plus loin en définissant des projets ou programmes de transformation.

Pour permettre de créer un modèle plus complet et des sous-modèles adaptés à la diversité des contextes, les co-auteurs ont choisi d’ouvrir leur approche au plus grand nombre afin que chacun puisse devenir contributeur et ainsi l’enrichir, mettant ainsi en pratique le principe de la « multitude » posé par Nicolas COLIN et Henri VERDIER, eux-mêmes co-auteurs d’un autre ouvrage souvent cité en référence par le Club (L’âge de la multitude).

 

 

Pour aller plus loin :

  • Le livre : Transformation digitale, 5 leviers pour l’entreprise (Edition Pearson). Disponible chez les grands distributeurs. A feuilleter sur qr.net/transdig.
  • Le site internet : digitalimpacts.fr destiné à recueillir de nouvelles contributions.