La multitude au coeur de la politique d’aménagement du territoire

Le 21 avril 2017, au 1er tour de l’élection présidentielle, le parti du Front National est arrivé en tête dans 19.000 communes françaises.

Un vote de protestation ? Il semblerait que non…

Bien que le journal La croix nous rappelle dans un article du 27 avril 2017 (Pourquoi le Front national ne mobilise plus contre lui) qu’en 2002, lorsqu’il avait créé la surprise en se qualifiant pour le 2e tour de l’élection présidentielle, « Jean-Marie Le Pen se complaisait dans son rôle de tribun protestataire », la position du parti auquel appartient Marine Le Pen a sensiblement évolué et ambitionne désormais l’exercice du pouvoir.

La légende ou réalité du vote contestataire a laissé place à une autre analyse : celle du vote d’adhésion. Comme l’indiquent plusieurs articles, désormais, il semble acquis que « le vote FN n’est plus seulement un vote protestataire, [mais] aussi un vote d’adhésion » (Marion Joseph dans Le Figaro du 24/03/2014, Julien Licourt dans Le Figaro du 08/12/2015).

Pour la présidente du parti, Marine Le Pen, le « vote d’adhésion » s’explique facilement : « Ils veulent la révolution de la proximité, davantage de régulation. Ils veulent éviter la loi de la jungle […] ». Extrait d’un article publié le 28 avril 2017 par le journaliste Jacques Paté sur le site de France 3 : « Présidentielle 2017 – Marine Le Pen à Nice veut lancer la révolution de la proximité« .

Le 24 avril 2017, dans un article publié sur le site de France culture (Exode urbain et inégalités : les cartes du vote FN), le journaliste Hérvé Le Bras livrait dans son analyse une corrélation entre les inégalités territoriales et la proportion du vote au profit du front national. Cet article est corroboré par une analyse de Jean-Marie Pottier, sur slate.fr, dans laquelle il met en évidence que « plus on s’éloigne du cœur des aires urbaines, plus on vote FN« .

 

Dès lors, l’aménagement du territoire représente un enjeu de première importance.

C’est pourquoi, la capacité de l’Etat sinon à assurer l’égalité parfaite, du moins à rechercher l’équité basée sur une politique de transparence et de fédération des bonnes volontés locales apparait comme la meilleure voie pour réduire cette gangrène de la ruralité qui cristallise la désespérance d’une population qui se sent oubliée.

Pour mémoire, le club des maîtres d’ouvrage est un think tank apolitique, son principal objet d’intérêt est la transformation numérique qui s’opère sous nos yeux, touchant la société tout entière et en particulier les entreprises dans lesquelles les adhérents s’investissent.

Pour le Club, il ne s’agit donc pas de mettre à l’index tel ou tel candidat. Il s’agit de s’intéresser aux solutions évoquées lors de nos rencontres : diner/débat, conférence et autres manifestations… pour pointer celles qui sont en lien avec le développement du numérique comme vecteur de progrès pour nos organisations ou la société.

La veille actualité que nous menons régulièrement afin de pouvoir en faire profiter nos adhérents m’a amené à prendre connaissance d’une lettre ouverte aux deux finalistes de la Présidentielle de 2017, dans laquelle des pistes sont proposées pour améliorer les politiques d’aménagement du territoire.

Plusieurs d’entre elles peuvent prendre appui sur des outils numériques et notamment le principe de la multitude que nous évoquons si souvent au sein du Club. C’est justement le cas de la proposition n°9 reprise ci-dessous :

La France numérique n’est-elle pas l’occasion de réduire la fracture entre les grandes métropoles et le reste du territoire ? Peut-elle être le support de concertation citoyenne, d’une force locale au service de son économie territoriale ?

Le numérique est un média qui peut être vertueux et qui peut organiser des circuits courts entre une demande, un besoin et ceux qui peuvent y répondre. Chacun est équipé d’un téléphone portable aux applications multiples, ces dernières répondent à des besoins personnels, il faut, à notre sens, organiser des applications institutionnalisées et territorialisées. Le numérique peut-il être source de décentralisation et de démocratie ?

 

En 2013 déjà, la Cour des comptes publiait un rapport sur l’organisation territoriale de l’Etat, pointant des défauts de cohérence, de gouvernance et une ressource humaine mal adaptée…

Restreint au périmètre de l’Etat décentralisé, c’est-à-dire sans tenir compte de la réalité des collectivités territoriales, le rapport exposait déjà des pistes de progrès dans le domaine des systèmes d’information :

Accélérer le développement homogène des systèmes d’information et renforcer
l’e-administration

  • donner au secrétariat général du gouvernement (DISIC, aujourd’hui DINSIC) les moyens d’exercer son rôle de pilotage en matière de systèmes d’information, visant à favoriser leur interopérabilité ;

  • substituer aux démarches multiservices le système des plateformes internet, partagées ou partenariales, pour améliorer et simplifier les services aux usagers ;

  • développer toutes les formes de communication numérique comme nouveau moyen de proximité et de simplification des échanges (toutes les attestations administratives).

 

A l’évidence, le traitement de cette question comporte de nombreuses dimensions, dont l’épineux aspect organisationnel puisque le millefeuille territorial complexifie considérablement la cohérence de l’action et sa gouvernance. Il est cependant permis de penser que des solutions puissent émerger en associant davantage la société civile qui exprime ponctuellement son mécontentement dans les urnes.

L’avènement du digital est un fait dont il faut s’emparer pour créer des opportunités et notamment fluidifier les relations avec l’ambition du multicanal et du crosscanal.

Pour répondre aux enjeux de mutation de la société, le numérique ne doit plus être considéré comme un terme nouveau pour désigner l’informatique du passé. Il ne s’agit plus de scanner des documents pour les injecter dans un outil de gestion électronique de document (GED), démarche qui avait pour seule ambition d’informatiser des processus existants. Il s’agit d’un changement de paradigme. L’opendata, l’opensource, les réseaux sociaux… permettent à chacun d’être contributeur, d’apporter sa valeur pour que la société de demain soit davantage la sienne. A tous les étages d’une organisation publique ou privée, cette inclusion doit désormais être envisagée comme un postulat. Progressons vers l’openrepublic !




Data

Data ou, tout simplement, données, notamment informatiques. Au cœur de la transformation numérique, dont elles constituent la matière première, les données, qui se sont vues baptiser le “pétrole du XXIe siècle”, sont le nerf de guerre de l’économie numérique. La quantité et la rapidité de leur flux – d’où le terme Big Data ou données massives – sur le web et les réseaux sociaux, constituent un puissant levier de la connaissance… à condition d’être exploitées. Stockées sous forme brute dans les réservoirs portant le joli nom de « lacs de données » (data lakes), elles attendent d’être extraites par le data mining et analysées (data analytics) par des spécialistes tels que les data scientists, le tout dans une optique d’aide à la décision. Autant de nouveaux fondamentaux pour une entreprise data driven, autrement dit, pilotée par la donnée.




Cloud

Cloud ou cloud computing, en français, « l’informatique dans le nuage », fait désormais partie du vocabulaire courant. Désignant le stockage et l’accès aux données par le biais d’Internet plutôt que sur un disque dur, c’est un pilier de la transformation numérique qui connaît une véritable explosion. Selon les prévisions du cabinet américain IDC, pas moins de 67 % des budgets IT devraient être alloués à des offres dans le cloud d’ici à 2020.




CDO

CDO, pour le Chief Digital Officer et pour le Chief Data Officer. Un même acronyme pour deux fonctions, pourtant différentes. Si le premier est le chef d’orchestre de la transformation numérique d’une organisation, le professionnel qui doit en instaurer la culture à tous les niveaux, le deuxième est le pilote stratégique de la donnée. Selon nombre d’experts, leurs avenirs divergent tout autant : quantités et importance des data obligent, le Chief Data Officer serait une fonction plus pérenne que celle de Chief Digital Officer, amené à disparaître une fois la mue numérique de l’entreprise opérée.




BYOD

BYOD pour “bring your own device”, soit, en français, “apportez vos appareils personnels”. En clair, il s’agit de l’utilisation de ses équipements personnels, tels que le smartphone, l’ordinateur portable ou encore la tablette, dans un contexte professionnel. Un phénomène qui n’est pas sans poser des questions de sécurité comme de frontière entre vie personnelle et professionnelle.




Agile

Approche agile, dite aussi « méthode agile » ou tout simplement, « agile ». Cet ensemble de termes désigne des pratiques de pilotage et de réalisation de projets en cycles courts, permettant une grande réactivité en développant ou en gérant un produit de manière itérative, incrémentale et adaptative. Sa variante la plus connue : la scrum. Tirant son origine du Manifeste Agile, créé en 2001 aux États-Unis par 17 développeurs informatiques, la méthode érige en priorité la satisfaction du client. La déferlante « agile » gagne désormais de plus en plus de secteurs et de fonctions.




Algorithme

Loin d’être une invention récente, l’algorithme, qui se définit comme une suite d’instructions permettant d’obtenir un résultat, remonte à l’antiquité et tire son nom de celui du père de l’algèbre, Al-Kwharizmi (IXe siècle). Mais c’est surtout depuis sa rencontre avec l’ordinateur qu’il a pris de l’ampleur. Omniprésents, les algorithmes sont au cœur de la transformation numérique : sans eux, pas de Google, de Big Data, de réseaux sociaux, d’objets connectés… C’est en effet eux qui donnent leur véritable valeur à la donnée.




Big Data et datascience à la Banque de France

Le 24 avril 2017, le Club MOA, en première partie, a donné la parole à Stanislas BLANCHY (membre du Club) qui a présenté l’entreprise « SNCF Réseau », dans laquelle il travaille. Farid OUKACI lui a succédé pour un exposé complet du rôle de « Data Scientist » au sein de la Banque de France

1 SNCF Réseau et son SI

SNCF Un groupe public ferroviaire qui est composé de 3 EPIC exerçant 5 métiers.

EPIC SNCF (pilotage, support, Appui)

  • Métier : SNCF IMMOBILIER (optimisation de la gestion du parc immobilier)

EPIC SNCF RESEAU

  • Métier : SNCF RESEAU (Gestion, exploitation, maintenance, ingénierie, développement et mise en valeur du réseau ferré français.)

EPIC SNCF MOBILITES

  • Métier : SNCF VOYAGEURS
  • Métier : KEOLIS
  • Métier : SNCF LOPGISTICS (Transports et logistiques marchandises)

SNCF RESEAU en chiffre

  • 3 entités :
    • La Direction de la circulation Ferroviaire
    • La gestion des infrastructures
    • Réseau ferré de France
  • 25 000 agents mobilisés 24H / 24H ; 7 jours sur 7
  • 13 000 agents de circulation
  • 52 000 collaborateurs
  • 30 000 KM de voies dont 2000 à grande vitesse
  • 15 000 trains qui circulent chaque jour
  • 4,9 milliards d’euros investis en 2015
  • 1500 chantiers de modernisation en 2015
  • 20 000 sillons délivrés chaque jour

SNCF RESEAU : les enjeux et les métiers

  • Accès au réseau : gestion des sillons, gestion commerciale et tarifaire, élaborer le design du réseau
  • Circulation : sécurité, ponctualité, régularité
  • Ingénierie et projets : optimisation de la conduite de projets, être à la pointe de la technique
  • Maintenance et travaux : maintenir le réseau (sécurité, fiabilité, disponibilité)

Chiffres Clé du SI SNCF RESEAU (à fin 2016)

[…]

Au-delà de ces informations objectives, Stanislas Blanchy a évoqué quelques thèmes importants : L’ouverture à la concurrence qui est pour les cheminots une réelle révolution, la modélisation de 50 000 km de voies, le passage progressif des informations dans le Cloud (Dans 10 ans, 50% des informations dans le Cloud), le développement de l’internet des objets (mise en œuvre généralisée de capteurs)

Pour aller plus loin: http://www.sncf.com/fr/portrait-du-groupe/un-groupe-de-service

 

2 Banque de France

Mise en œuvre des techniques Big Data et Data science à la Banque de France

Introduction

Farid OUKACI présente le sujet en rappelant quelques exemples de questions et d’approches relevant des problématiques qui peuvent aujourd’hui être traitées plus complètement en mettant en œuvre les techniques de Big Data et notamment d’IA

  • Moneyball et sabermetric,
  • Peut-on connaître les personnes qui pourraient voter Obama et les pousser à aller aux urnes ?
  • Comment recommander des films que le client pourrait aimer pour augmenter sa fidélisation? NETFLIX avait conçu un algorithme de recommandation pour amener le client à rester sur son site, mais cet algorithme était inutilisable en temps réel.
  • L’algorithme « Page Rank de Google
  • Amazon qui a augmenté ses ventes de 30% grâce à ses algorithmes
  • SIRI : assistant personnel « intelligent » conçu par Apple et présenté en 2011

Le machine learning : Un avantage concurrentiel des entreprises disruptivesLe fait important est la pénétration du Machine Learning et de l’IA dans notre quotidien et dans tous les secteurs: Vente et grande distribution, transports, santé, télécommunications…

Big data et datascience dans le contexte d’une banque centrale

L’évolution de l’économie, des sociétés, sans doute en partie sous la pression de la transition numérique, de nouveaux enjeux sont apparus.Récurrence des crisesMondialisation financièreNouveaux rôle des banques centralesUne plus grande sensibilité du public (attente d’informations et d’explications)

Ces évolutions conduisent à une exploitation plus importante des données pour créer de nouveaux services et apporter de nouvelles réponses.

La « donnée » se place désormais au cœur de l’activité tant au niveau opérationnel que stratégique. Les données sont de plus en plus nombreuses. Les crises financières de 2008 et les évolutions des régulations ont ouvert un accès inédit, pour les banques centrales, à des données détaillées en provenance des organismes financiers.

Les crises de 2007 et 2008 ont amené de nouvelles régulations.

Genèse du big data à la Banque de France

Le recours aux technologies du Big Data permet de :

  • Tirer parti de cette nouvelle richesse de données,
  • S’ouvrir à des sources d’information encore plus larges,
  • Explorer de nouvelles pratiques dans l’approche de l’analyse de données

En 2013, La Banque de France lance une initiative Big Data et Data Science

Cette initiative concrétise une intersection entre 3 enjeux fondamentaux :

  • Les enjeux business (viabilité)
  • Les enjeux organisationnels (opportunités)
  • Les enjeux technologiques (faisabilité)

Cette intersection définit une zone de « Data Innovation »

La Banque de France a mis en place un service pour enclencher et opérer ces innovations. Une organisation pour le Big Data et la Data Science en deux entités.

1. Un centre d’innovation (Créer et expérimenter)

  • Réfléchir à de nouveaux cas d’usage
  • Implémenter des expérimentations (POC en Big Data et Machine Learning)
  • Promouvoir la culture Data
  • Aider les Directions métiers à mieux valoriser leurs données

2. Un Service à Valeur Ajoutée (SVA) (Construire et mettre en œuvre)

  • Préparer l’industrialisation des POCs
  • Définir et construire les infrastructures cibles
  • Assurer le déploiement
  • Fournir le support
  • Former les équipes

Depuis 2013 les réalisations importantes ont été les suivantes :

  • 7 infrastructures Big Data construites
    • Dont 3 clusters dédiés à l’innovation
    • 4 clusters en production
  • 5 projets Big data industrialisés
  • 6 Directions impactéesStatistiques, supervision, économie, fabrication et tri des billets …
  • 7 Séminaires, workshops, formation big data & data
    • Plus de 500 participants
    • Sujets : Big data, Text Mining, Data Science, Data visualisation
  • 14 POCs data science réalisés
    • GABI, GIPSI, MDT, COS, FIBEN, DSF, SMPS
  • …et plus de 140 serveurs installés

 

Les processus du Data Science

Passer de l’idée à l’expérimentation, selon un schéma bien déterminé !

  • 1. Génération d’idées
  • 2. Convergence (intérêt, complexité, priorisation)3.
  • 3. POC (prototype, résultats, ajustements, projection sur le réel)
  • 4. Industrialisation

[…]

Transformer les données à l’aide d’algorithmes (machine learning) pour produire de l’information pertinente (intelligence ou “insights”) et aider à la prise de décision

Machine learning

Le Machine Learning utilise des algorithmes basés sur l’IA (Intelligence Artificielle) et l’analyse statistique avancée pour comprendre la donnée ou découvrir des informations cachées que l’on appelle « Signaux faibles ».

A première vue, les signaux faibles sont des d’informations qui n’ont pas d’intérêt particulier, qui ne traduisent pas une utilité immédiate. Pourtant, en replaçant correctement ces informations dans un contexte précis et déterminé, ces dernières peuvent s’avérer capitales. Il faut donc rester attentif pour pouvoir les détecter. En effet, les signaux faibles peuvent permettre de prédire certaines actions ou certains événements

Exemples de traitement: associations, séquences, classifications, anomalies, prévisions, clusters (groupes homogènes, relations, tendances…

Méthodologie CRISP

La méthode CRISP7 (initialement connue comme CRISP-DM) a été au départ développée par IBM dans les années 60 pour réaliser les projets Datamining. Elle reste aujourd’hui la seule méthode utilisable efficacement pour tous les projets Data Science.

Elle se décompose en 6 étapes :

  • 1. La compréhension du problème métier
  • 2. La compréhension des données
  • 3. La construction du Data Hub (préparation des données)
  • 4. La modélisation
  • 5. L’évaluation
  • 6. Le déploiement

Cette méthode est agile et itérative, c’est-à-dire que chaque itération apporte de la connaissance métier supplémentaire qui permet de mieux aborder l’itération suivante.

Niveaux de valorisation de la donnée

La valorisation des données comprend 3 niveaux principaux qui sont fonction d’un niveau de complexité.

  • Niveau 1 : Analyse descriptive : Que s’est-il passé ? [Découvrir / Mesurer]
  • Niveau 2 : Analyse prédictive : Que va-t-il se passer ? [Anticiper / Prédire / Aider à décider]
  • Niveau 3 : Analyse prescriptive : comment y parvenir ? [Influencer]

La problématique actuelle, mise en œuvre par les GAFA dans certaines circonstances : Comment des données massives pour construire des modèles prédictifs de comportements humains, de prix ou de phénomènes sociaux

Le Data scientist : Mouton à cinq pattes

Le Data Scientist a pour mission le traitement et la valorisation de « Big data », c’est-à-dire de données massives. Ce métier, reconnu depuis peu est essentiel à l’entreprise. Il apporte des informations impossibles à obtenir par une voie classique en structurant (comparer les types de données et les moyens de stockage) et en manipulant habilement les données complexes du Big Data.

Farid OUKACI cite un ensemble de compétences utiles ou indispensables dans son travail :

  • Etre capable d’accéder à des bases de données
  • Savoir prototyper des applications
  • Coder des visualisations
  • Manipuler les technologies du Big Data
  • Comprendre les modèles, leurs différences et leurs conditions d’applications
  • Avoir une intuition sur le fonctionnement des modèles
  • Etre capable de customiser certaines parties calculatoires des algorithmes
  • Connaître les données étudiées
  • Maitriser les cibles métiers à valoriser
  • Imaginer de nouveaux axes d’analyses et de nouvelles variables explicatives

Cependant, la réalité du travail au quotidien comporte une partie importante de « nettoyage » de données de manière à rendre ces dernières exploitables par les technologies mises en œuvre. Il indique que les données peuvent naturellement être alphanumériques mais également graphiques (photo du réseau Instagram par exemple)

Exemples de Projets Data Science et traitement analytique avancé:

  • Expérimentations en data science et Big data sur les machines de tri des billets de banque
  • Maintenance prédictive sur les machines de tri des billets : Une machine va-t-elle tomber en panne demain ?
  • Projet CashCycle : Cycle de vie du billet : Mieux connaître le billet, de sa fabrication à sa destruction
  • Ecoute du web pour la détection de mauvaises pratiques commerciales
  • Nouvelle approche basée sur les données pour mesurer la nouvelle économie : application à l’hébergement et au transport de personnes

 

Conclusion

En conclusion d’un exposé passionnant et « touffu », Farid OUKACI jette un regard synthétique sur le « Data Scientism ».

C’est une démarche empirique et agile, avec des expérimentations faciles à mettre en œuvre et rapidement évolutives (scalables). La data science n’est pas chère : Elle peut être démarrée sur de petites quantités de données avec des outils open source. Il faut être vigilant, ne pas faire d’acharnement, limiter la durée du POC et ne pas hésiter à arrêter s’il n y a pas de résultats probants. Le travail se fait en équipe restreinte, le plus souvent en binôme (data scientist + expert métier) et en mode « Pizza Team » pour l’industrialisation et la construction de l’infrastructure.

Un projet data n’est pas qu’un projet technologique, il s’inscrit dans une stratégie data façonnée par les besoins des métiers, au sein d’une culture, d’une organisation.Enfin, il précise que le respect de la confidentialité des données est une priorité. La sécurisation des données pour protéger le capital informationnel de la Banque et de ses administrés est une préoccupation constante.

Pour aller plus loin.

 

 


NB: Le compte-rendu intégral est réservé aux adhérents




Management des collaborateurs et performance de l’entreprise

Existe-t-il un lien de corrélation entre les performances d’une organisation et la qualité de la cohésion du personnel ? C’est cette question que se propose d’aborder Didier J. Durandy dans un article intitulé “Pourquoi les entretiens annuels d’évaluation ne se passent pas du tout de la même manière selon que vous soyez un homme ou une femme” publié sur Atlantico.

Illustration du réseau social professionel

Si la performance d’une entreprise repose en partie sur sa capacité à combiner les talents individuels et collectifs, alors l’enjeu pour les différents échelons de management est de faciliter l’expression de ces talents.

Cela implique de déléguer davantage dans le cadre d’une relation de confiance avec l’ensemble des collaborateurs de l’entreprise.

Cela suppose un minimum d’empathie ainsi qu’une certaine maturité sur la vision du management, non plus basée sur une relation hiérarchique, mais une relation de partage des visions, des expériences, des savoir-faire et sur de la mise en relation… vaste programme !

Cette volonté de transformer les relations hiérarchiques vers plus de collaboration n’est pourtant pas nouvelle… Dans les années quatre-vingts, des livres de management évoquaient cette question…




Fusion de systèmes d’information, retour d’expérience d’Action Logement

Le 27 mars, le Club MOA a donné la parole à l’un de ses membres, Loïc LAVOUE, Directeur Transformation & Maîtrise d’ouvrage d’Action Logement Services.

En première partie, après avoir situé à grands traits les caractéristiques de cet organisme, Loïc LAVOUE en a retracé l’historique d’Action Logement. Il a ensuite développé le projet «Platine» : comment mettre en place très rapidement un système résultant de la fusion de 21 systèmes d’information. En conclusion il a exposé la stratégie retenue à l’égard de la DSI pour être en mesure de relever ce challenge

I – Présentation

Ce «Mouvement», qui a 74 ans, est plus connu sous son ancien nom de «1% Logement». Depuis le 1er janvier 2017, c’est une société de financement, qui collecte la PEEC (Participation des Employeurs à l’Effort de Construction).

Cette PEEC est une participation versée par les employeurs sous forme d’investissement direct en faveur du logement des salariés. Cette obligation de financement s’applique quelle que soit l’activité exercée ou la forme juridique de l’entreprise.

Sont redevables de la PEEC:

  • les employeurs d’au moins 20 salariés, tous établissements confondus
  • les employeurs agricoles, à partir de 50 salariés.

L’employeur soumis à l’obligation de participation doit consacrer au minimum une quote-part de 0,45% des rémunérations versées l’année N-1 sous la forme d’investissement en faveur de la construction de logements, à effectuer avant le 31 décembre de l’année N. Cet argent est redistribué aux salariés sous forme d’aides ou de prêts, l’objectif est d’aider les salariés à acquérir leur logement.

Action Logement gère également d’autres produits. Par exemple, des subventions pour aider les personnes en apprentissage à se loger, le cautionnement en cas de location, le financement de personnes morales (bailleurs) intervenant dans le logement social, le financement de l’ANRU (Agence Nationale pour la Rénovation Urbaine) [L’ANRU est financé à 94% par Action Logement], etc.

Quelques chiffres:

  • Action Logement gère un budget de 4 milliards annuels
  • 25% du parc des logements sociaux appartient à Action Logement
  • Action Logement gère 1 million de logements
  • Action logement distribue 800 000 prêts par an
  • 18 000 collaborateurs

Enfin la gestion de cet organisme est confiée aux partenaires sociaux. Elle est paritaire et sous tutelle du ministère du logement.

2 – Bref Historique

En 1943, Albert Prouvost, Directeur de la Lainière de Roubaix, va créer avec les syndicats et les patrons du Nord, un système paritaire pour faciliter le logement de ses salariés. En 1953, confronté à la pénurie de logements, l’Etat rend obligatoire la Participation des Employeurs à l’Effort de Construction (PEEC). Avec l’instauration du «1% Logement» obligatoire, toute entreprise peut construire des logements, participer au financement de programmes HLM, ou encore verser sa cotisation à un comité interprofessionnel du logement (CIL).

De 1972 à 1992, réduction progressive du taux de prélèvement de la PEEC de 1% à 0,45% de la masse salariale. Une fraction de 0,50% est affectée au budget du fond national de financement des aides personnelles au logement (FNAL). Les 0,05% restants contribuent à la baisse des charges des entreprises. La majorité des organismes collecteurs travaillent correctement, mais plusieurs scandales sont révélés dans la première moitié des années 2000.

En 2009, la Cour des comptes produit un rapport sur l’organisation de ce système. Les conséquences sont les suivantes :

  • Nouvelles règles de gouvernance et d’emploi des fonds, instaurées par la  Loi Boutin
  • Nouvelle organisation du réseau des CIL (qui passent de plus de 100 à 27.

Note : les 5 plus gros CIL réalisent 70% de la collecte des fonds.

En 2015, le Conseil d’Administration décide d’engager une réforme  en profondeur d’Action Logement afin de constituer un groupe national, inscrit dans l’économie sociale et solidaire. Le 9 avril 2015, les partenaires sociaux, en accord avec l’Etat, décident de fusionner les 21 CIL et créent « Action logement »

Le Groupe Action Logement, sous sa forme actuelle, existe donc officiellement depuis le 1er janvier 2017.

3 – Une fusion raisonnablement ambitieuse

Action Logement est contrôlé par l’ACPR. Ceci étant, Action Logement œuvre dans le domaine social et comme le souligne Loïc Lavoué, certaines aides n’ont pas vocation à être remboursées.

L’organisation mise en place repose sur 3 piliers:

  • L’offre
  • La production et les moyens
  • Le développement et les relations avec les territoires.

Organisation d'Action logement
Organisation d’Action logement

La mise en œuvre de cette fusion implique un calendrier complexe et imbriqué. Au plan du SI, Loïc Lavoué précise que si 2015 a été une année de bilan des 21 CIL, 2016 est l’année où on se pose la question : «Comment fait-on pour « fusionner 21 SI différents ?». Au printemps 2016 le projet Platine est lancé.

 

 

4 – Un programme de transformation mené en « Time-Boxing »

Le contexte est le suivant:

  • Une mosaïque de SI difficilement conciliables avec le maintien de la qualité de service actuelle
  • La présentation aux clients d’un «front-office» unifié
  • Une réponse aux besoins immédiats d’information opérationnelle des délégations régionales
  • La possibilité pour tout collaborateur en Délégation Régionale ou des CIL d’avoir une connaissance du ou des SI portant les informations.

Architecture simplifiée de la solution platine mise en place par Action logement
Architecture simplifiée de la solution platine

La solution retenue est le produit AGGREGO Server (Virtual Data base) de la société SEMSOFT.

Le principe est le suivant : récupérer quotidiennement l’ensemble des données issues des 21 SI des CIL et «mapper» ces données, c’est à-dire assembler dynamiquement les informations fragmentées dans les silos que sont ces 21 SI.

Le principe consiste à définir une ontologie (Modèle métier) sur laquelle les données issues de ces 21 SI sont projetées.

Les technologies utilisées sont issues du Big data et du Web sémantique.

Le volume interrogeable est de 200 téraoctets, la base comporte 20 millions de dossiers actifs, en moyenne le temps de réponse aux interrogations est de 30 ms (hors temps de transfert réseau).

Les requêtes adressées au système donnent une restitution de données en balayant l’ensemble des sources de données (environ 1000 sources). Les requêtes retournent un résultat avec un indice de probabilité. (Le moteur travaille en logique floue)

Le système mis en œuvre ne fait pas de gestion à ce stade ; l’application permettant uniquement de la consultation. L’ensemble des bases est rechargé tous les soirs.

La gestion proprement dite continue d’être exécutée par les 21 systèmes.

Toutefois, cet outil d’agrégation des données a été placé au centre des nouvelles procédures métier afin de tirer parti de cette visibilité sur l’ensemble des données existantes (par exemple pour les accueils qui disposent ainsi d’une vision 360 sur l’ensemble des produits et services dont une personne a pu bénéficier ou pour la constitution des tableaux de pilotage des activités).

Loïc Lavoué précise que ce projet a été mené «au pas de charge». Après une notification au prestataire le 19 septembre 2016 et une ouverture du service le 2 janvier 2017, la feuille de route du projet Platine s’étale sur 2017.

Janvier 2017, mise à disposition de:

  • La Fiche Client
  • La fiche entreprise
  • La fiche contact (Coordonnées des accueils de premier et second niveaux)
  • L’annuaire interne Action Logement Services

Avril – mai 2017 Mise à disposition de :

  • Bilan de services PEEC quantitatif agrégé
  • Bilan de services PEEC nominatif consolidé
  • Vision consolidée des demandes de logement

Mai – septembre 2017

  • Vision consolidée des offres de logement (Congés)
  • Statistiques du parc locatif
  • Tableau de bord du contrôle de gestion – Lot 1
  • Tableau de bord Gestion – recouvrement – contentieux

Second semestre 2017

  • Tableau de bord du contrôle de gestion – Lot 2
  • Suivi des engagements PM

Le rythme de production est élevé et s’appuie sur les principes des méthodes agiles avec la mise en production d’un élément toutes les deux semaines.

5 – Quel rôle pour la DSI ?

La DSI est soumise à une double contrainte car elle doit:

  1. Garantir la continuité des services existants… dans un contexte complexe, hérité de l’histoire et représentant souvent de grandes disparités technologiques.
  2. Garantir la sécurité des données et des traitements

…tout en devant être force de proposition pour les métiers et en organisant les activités innovantes.

Quatre grandes tendances de fond:

  1. Un SI de plus en plus stratégique
  2. Des évolutions technologiques toujours plus rapides et complexes
  3. Un marché IT proposant des services diversifiés et performants
  4. La performance économique au centre des préoccupations

Compte tenu des délais stratégiques de la fusion, Action Logement Services a décidé de mener le projet Platine en dehors de la DSI. Un budget spécifique lui a été alloué, l’exploitation a également été externalisée en prenant en compte les contraintes ACPR Loïc Lavoué indique que les relations entre la DSI et la Direction du projet Platine n’ont pas toujours été très simples. Ceci étant, cette phase est temporaire, et à terme le SI d’Action Logement Services sera refondu pour aboutir à un SI unique. Le transfert de connaissance a d’ailleurs déjà commencé. Il sera progressif, car il y a un «gap» culturel et technique à franchir par les équipes de la DSI.

La soirée s’est conclue par un échange riche et amical entre les participants.

Pour aller plus loin:


ACPR:  L’Autorité de contrôle prudentiel et de résolution – ACPR – est l’organe de supervision français de la banque et de l’assurance.

L’ACPR dispose à l’égard des personnes qu’elle contrôle:

  • d’un pouvoir de contrôle
  • de prendre des mesures de police administrative
  • d’un pouvoir de sanction.

Elle peut en outre porter à la connaissance du public toute information qu’elle estime nécessaire à l’accomplissement de ses missions. L’ACPR est adossée à la Banque de France. Son président est le gouverneur de la Banque de France.