Transforming the Future: Anticipation in the 21st Century

Lancement de la publication « Transformer l’avenir : l’anticipation au XXIe siècle »

Lancement de la co-publication UNESCO-Routledge
Transformer l’avenir : l’anticipation au XXIe siècle
Pourquoi et comment imaginer le futur ?

Lundi 2 juillet 2018 à 16 heures
Maison de l’UNESCO, salle XI
125, avenue de Suffren – Paris 7e | Accueil à partir de 15 h 30

Interprétation simultanée disponible en anglais et en français.

 

Couverture du livre Transforming-the-future-couverture
Couverture du livre Transforming the future

Un tour d’horizon sur les théories et pratiques liées à l’anticipation aujourd’hui dans le monde, tirées des 40 laboratoires du futur organisés par l’UNESCO et ses partenaires depuis plus de 5 ans. Universitaires, chercheurs et institutions partageront leurs expériences et points de vue sur l’utilisation de méthodes différentes, applicables à toutes les échelles et à tous les domaines, pour imaginer nos futurs afin de mieux orienter le présent.
Un élan vers une discipline de l’anticipation libérée des carcans, des conditionnements, des préjugés, des craintes : la littératie du futur

Cet événement est organisé par l’UNESCO, en collaboration avec l’Organisation de coopération et de développement économiques (OCDE), l’Organisation internationale de la Francophonie (OIF) et le Conseil international des sciences.

Lien vers la plaquette-programmehttps://club-transfo-num.fr/20180702-lancement_publication-transformer_avenir-anticipation-programme/

Lien vers la page d’enregistrement: https://fr.unesco.org/feedback/lancement-publication-transformer-avenir-anticipation-au-xxie-siecle-rsvp

Lien vers le livreTransforming the Future: Anticipation in the 21st Century

En 2017, Riel MILLER avait animé un séminaire au profit du Club, riche en enseignements… voir l’article.

An overview of today’s theories and practices across the world related to Anticipation, drawn from the 40 Laboratories of the Future organized by UNESCO and its partners, for more than 5 years. Academics, researchers and institutions will share their experiences and views on the use of different methods, applicable at all scales and to all fields, to imagine our futures in order to better guide the present.

A path towards a discipline of Anticipation free from shackles, conditioning, prejudices, fears: Futures Literacy.

This event is organized by UNESCO, in collaboration with the Organization for Economic Co-operation and Development (OECD), the International Organization of La Francophonie (OIF) and the International Science Council.




Le Big data appliqué aux données de la santé et de la médecine

Le Big data appliqué aux données de la santé et de la médecine

Dîner/débat Mardi 12 juin 2018

Le 12 juin 2018, le CLUB MOA a donné la parole au Dr Adnan EL BAKRI.

Il est chirurgien-urologue. Il a fait ses études de médecine générale à Marseille et sa spécialité à l’hôpital de Reims. En 2015 il intègre une équipe du CNRS qui travaille sur le Big data et l’intelligence artificielle appliqués au cancer. Ses travaux et ses réflexions l’amènent à créer une start-up : InnovSanté, il y a deux ans

1 Prédiction de la récidive d’un cancer du rein.

Le sujet de ses travaux était : comment prédire l’évolution du cancer. Plus précisément, à partir du moment où on diagnostique un cancer du rein chez un patient, comment prédire si le cancer va évoluer ou non vers des métastases. Dans les standards internationaux on suit le malade pendant 5 ans, et si aucune récidive n’est observée durant cette période, le malade est considéré comme guéri. Ceci étant, on voit des patients qui présentent une réapparition du cancer après 7 ans, 10 ans, voire quinze ans. La médecine prédictive présente donc un réel intérêt pour tenter de déterminer ces cas de récidive au-delà des cinq ans.

1.1 Etape 1 – Constitution de la base de données : Le Big Data

Or, pour mettre en œuvre un système prédictif il est nécessaire de disposer d’un vrai système Big Data pour exploiter un grand nombre d’informations, sur une base de données collaborative sur laquelle on peut faire de la recherche. Au départ des travaux du Dr ELBAKRI cette base de données n’existait pas.

NOTE : En termes de volume, à partir de un million de données, les statistiques deviennent significatives et les systèmes d’intelligence artificielle (IA) produisent des résultats

L’équipe du Dr ELBAKRI a élaboré un modèle en étudiant une cohorte de 100 patients. A partir de chaque cas opéré, l’équipe a produit plusieurs milliers de données en utilisant la technologie de micro-spectroscopie infrarouge. La lumière est envoyée sur le rein malade. Elle produit un spectre d’analyse qui produit plusieurs centaines d’informations. Cela a produit 4 000 000 de données qui ont été introduites dans la base de données. Ce Big Data est en somme le carburant de l’IA.

Le Big Data peut se définir par 4 « V » : Volume Vélocité Variabilité Véracité

1.2 Etape 2 : le « Machine Learning » Contextualisation des données

Le système a été entrainé pour interpréter les informations. Par exemple : Cette zone correspond à une zone saine, cette autre zone présente telle caractéristique, etc…

1.3 Etape 3 : le Data Mining

On pose des questions à l’ordinateur et la réponse est évaluée en fonction de l’étape 2. Plus précisément, en fonction de toutes les données entrées dans la base, est-ce que le système IA développé va être capable de prédire si il y aura récidive ou pas. La mise en œuvre du système se fait en deux étapes. Une étape non supervisée. On pose des questions au système IA et on étudie la réponse. Puis vient l’étape supervisée. On pose des questions à l’ordinateur et on valide ou non ses réponses. L’algorithme est donc amélioré au fur et à mesure du processus.

A partir de ce moment ont entre dans un processus de « Deep Learning » (apprentissage profond) qui met en œuvre des réseaux neuronaux artificiels. Il s’agit d’un algorithme qui s’auto-perfectionne au fur et à mesure de son utilisation.
C’est donc le deep learning qui aboutira, peut-être un jour, à l’automatisation du diagnostic et du pronostic. Le Dr ELBAKRI précise qu’actuellement nous sommes très loin de ce stade. On peut en conclure que la médecine des 5P n’est pas pour demain.

2 La médecine 5P

La médecine 5 P comprend les 5 éléments suivants : Préventive, Prédictive, Personnalisée, Participative, Précise

Le Dr ELBAKRI précise la notion de « Prévention », et de « Précision ».

La prévention indiquée ci-avant n’est pas celle du monde politique : ce n’est pas ajouter une consultation de prévention, faire de la publicité pour arrêter de fumer, c’est une prévention de nature scientifique, basée sur des informations, un parcours de soins et une épidémiologie ciblée. On ne peut pas, actuellement, réaliser cette prévention car on n’a pas ce parcours de santé connecté qui permet de suivre le patient.

La précision interviendra lorsque l’on pourra coupler ces informations (parcours de santé) avec les données génomiques.

2.1 Le concept d’Empowerment

Ce terme, assez intraduisible en français car polysémique, véhicule l’idée d’autonomisation de la personne. En l’occurrence, c’est donner au citoyen la capacité de gérer son parcours de santé, ses données, accéder à l’information. On parle souvent du patient acteur de sa santé, mais dans les faits, c’est assez compliqué dans la mesure où les outils n’existent pas.

2.2 Notion de Patients experts

Ce sont des patients qui ont été malades pendant une très longue période et qui ont la capacité à enseigner leur pathologie mieux que les professionnels.

2.3 Notion de e-patient

Ce sont les patients qui viennent consulter et qui ont fait un diagnostic : patient Google, patient Doctissimo. Le rôle du médecin est alors de contrôler ce diagnostic et d’argumenter en cas de mauvaise analyse et surtout convaincre le patient de son erreur. Cette notion de e-patient devient de plus en plus fréquente.

Pour mettre le patient au centre de ce parcours de santé il va falloir convaincre l’ensemble des professions médicales. Pouvoir réellement suivre un patient sur le terrain (épidémiologie ciblée) génèrera des économies importantes.

Aujourd’hui la technologie permet de mettre en œuvre un vrai suivi du parcours de santé des patients. Il faut pour cela des investissements et une vraie volonté politique, c’est-à- dire entrer en conflit avec certains lobbyings existants qui trouvent dans la situation actuelle pouvoir et bénéfices.

2.4 La BlockChain(1)

La technologie de la blockchain permet de décentraliser et de distribuer l’information. Elle permet de sortir des silos d’informations.

C’est un outil qui permet de suivre le parcours de soin du patient.

2.5 Les essais cliniques

80% des essais cliniques décrits dans les publications, ne sont pas reproductibles.

On estime que 50% des essais cliniques ne sont pas signalés. Par conséquent, les chercheurs ne parviennent pas souvent à partager leurs résultats d’étude (par exemple, près de 90% des essais sur ClinicalTrials.gov manquent de résultats).

Ceci crée des problèmes de sécurité pour les patients et des lacunes en termes de connaissances pour les intervenants médicaux, paramédicaux et les décideurs en matière de santé. Notamment les questions liées à l’anonymisation des informations, ne sont pas réglées aujourd’hui. Actuellement on anonymise à l’extérieur du système et ensuite on injecte les données dans la blockchain, ce qui n’est pas très satisfaisant.

La blockchain représente un véritable enjeu, tant pour fiabiliser les informations disponibles, que pour les économies potentielles qu’elle pourrait générer.

3 La réalité actuelle

On travaille aujourd’hui dans les hôpitaux avec des archives, des papiers, le DMP(2).

Le DMP créé en 2004 a d’abord été géré par le ministère de la santé (ASIP), puis basculé vers la sécurité sociale. La cour des comptes a épinglé la sécurité sociale pour le coût exorbitant de ce DMP. Il ne fonctionne pas au niveau du pays. Depuis décembre 2016, le nouveau déploiement du DMP se fait sur 9 départements pilotes : Bas-Rhin, Bayonne (Pyrénées-Atlantiques), Côtes-d’Armor, Doubs, Haute-Garonne, Indre-et-Loire, Puy-de- Dôme, Somme et Val-de-Marne. Ces départements ont été sélectionnés pour constituer un échantillon représentatif du territoire

Le Dr ELBAKRI indique, que selon lui, le DMP n’est qu’un entrepôt de données de santé, c’est-à-dire un silo d’informations supplémentaire qui permet de partager l’information, mais dont l’alimentation en informations dépendra de la volonté des professionnels et des patients, ces informations restant non structurées. Le DMP n’est pas pensé comme un projet Big Data.

La gestion en hôpital reste « archaïque » (pas de connexion avec la ville, avec les pharmaciens…) La France a un excellent système de soins, mais pas de système de santé.

(1) Voir l’exposé au CLUB MOA d’Emmanuel VAUR du 3 octobre 2016)

(2) DMP Dossier Médical Personnel puis Dossier Médical Partagé

Des évolutions ont eu lieu : Loi LMSS article 193(3)

La création du SNDS (Système National des Données de Santé) https://www.snds.gouv.fr/SNDS/Qu-est-ce-que-le-SNDS

(3) https://www.legifrance.gouv.fr/affichTexte.do;jsessionid=3E871CB6AC83615C3885CBEF769CEA27.tplgfr38s_2?cidTexte=JORFTEXT000031912641&dateTexte=29990101

4 Réflexions au niveau d’une Start-up

Le patient est la clef du système car c’est lui, l’électron libre, qui se déplace entre tous les intervenants. Il faut donc lui donner la technologie pour qu’il puisse se connecter au système, à l’intervenant qui est en face de lui, récupérer ses données. Il va ainsi véhiculer un flux unique de data et avoir un vrai parcours connecté.

Adnan ELBAKRI a créé sa propre start-up : Innovsanté il y a deux ans afin de mettre en pratique l’ensemble de ses réflexions
On ne peut pas aborder ce sujet sans aborder celui de l’identité numérique des personnes. La start-up a créer une empreinte digitale santé avec un modèle de cryptographie asymétrique qui permet d’associer une identité numérique à une clef publique.

L’ensemble se concrétise par une carte remise à la personne (Carte Passcare)

La clef privée est gérée automatiquement à chaque connexion, elle est éphémère.

La blockchain d’Innovsanté est la première blockchain-santé, privée opérationnelle en France.

La Blockchain santé privée hybride en consortium d’InnovHealth®, appelée ChainForHealth®, est un registre universel partagé ultra sécurisé qui permet gratuitement à toute structure de soins ou professionnel de santé dans le monde de chercher l’empreinte d’un patient pour pouvoir accéder à son historique de données de santé.

Chaque structure et chaque professionnel authentifiés sur cette blockchain distribuée pourra ainsi partager et faciliter l’accès à son propre système informatique en toute confidentialité, toujours avec le consentement du patient.

Le modèle a été testé sur 3000 patients sur la ville de Reims avec succès. L’entreprise diffuse son modèle en Afrique de l’ouest et au Liban, le pays natal du Dr ELBAKRI.

4.1 Le modèle économique.

On constate que 75% des start-up œuvrant dans le domaine de l’e-santé arrêtent leur projet au bout de deux ans. Soit parce que le modèle économique n’a pas été vraiment envisagé, soit parce que le produit n’est pas adapté au marché.

On ne peut pas adopter le modèle des plateformes
à l’e-santé.

Le modèle bifaces : Il y a deux parties économiquement interdépendantes. C’est le modèle des grands acteurs : Twitter, Instagram,
etc…

Ce point a été théorisé pat Jean TIROLE(4)

Dans la problématique de l’e-santé il faut que les deux parties soient interdépendantes, mais économiquement indépendantes.

(4) Jean TIROLE, Prix Nobel d’économie 2017

Le modèle présente ainsi deux entrées : une pour les professionnels et une pour les patients.

La solution est de mettre en place un Cloud-Santé, une vraie décentralisation au sein du Web. Les mots clefs sont l’interopérabilité et la portabilité des données. On sort ainsi des applications en silos.

L’intégralité du compte-rendu est réservée aux membres du Club.




La transformation numérique pour quoi faire ?

Oeuvre "The raft" (créée en 2013) par Miao Xiaochun
Oeuvre « The raft » (créée en 2013) par Miao Xiaochun

La soirée d’échange avec Henri Verdier à l’occasion des 20 ans du Club était une nouvelle occasion d’ouverture sur le large champ que recouvre la transformation numérique (voir lien vers l’article ci-dessous)…

Bien au-delà de l’Etat, dont Henri Verdier est le DSI groupe, les réflexions qui découlent de la souveraineté, des biens communs et d’autres notions connexes touchent la société tout entière.

Au moment où le programme Action publique 2022 engage l’ensemble de la sphère publique dans un vaste mouvement qui devrait nous rendre solidaires, des observations me conduisent dans des échappées nocturnes à quelques réflexions, partagées ci-après…

Depuis la nuit des temps, l’histoire des hommes et des civilisations nous ramène à des guerres de territoires. Mais dans mon appréciation personnelle de l’évolution, il me semble que ces batailles dérivent au-delà de la seule survie des tribus: elles visent la domination absolue. Les stratégies sont aussi diverses que perfides: attraction, rupture des chemins de repli, encerclement et, parallèlement, extermination ou réutilisation de toute initiative concurrente. Terrifiant, non? Qui gouverne le monde aujourd’hui? L’ONU, le FMI, le G20, le G7?

Cet « au-delà de la seule survie » pose plusieurs problèmes, le premier étant l’excès intrinsèquement porté dans une telle démarche d’ultra-domination. Cet excès constitue une forme d’irresponsabilité car dans l’équation implacable qui relie la production à la consommation, l’excès crée un déséquilibre, le plus souvent défavorable aux générations futures. D’une certaine manière, la lutte pour la survie se transforme en autodestruction. Incroyable contradiction qui émerge d’une société qui a hérité de tous les savoirs et qui est capable de les partager instantanément d’un bout à l’autre de la planète…

Dans le monde de l’entreprise, on retrouve des formes similaires. Les rivalités économiques donnent lieu, assez fréquemment, soit à des ententes illégales et plus ou moins éphémères, soit à des batailles dans lesquelles l’adversaire n’est épargné que s’il continue de servir les intérêts de l’entreprise dominatrice (crainte du monopole qui tomberait sous la législation anti trust). Dans les deux cas, l’équilibre est fallacieux et celui qui permettrait une saine émulation ne se résout probablement pas avec des lois mais avec du sens…

Dans les grandes organisations, on peut observer des batailles de castes: ici les X, là les énarques, ailleurs les centraliens… comme si la différence constituait un effort trop insurmontable pour envisager de collaborer avec une forme d’ « intelligence » issue d’un autre parcours, ou comme si l’origine commune était un facteur déterminant d’une organisation performante. Pourtant, ce que l’histoire de la vie nous enseigne est bien différent: la consanguinité mène à l’extinction, tandis que la variété et l’hybridation produisent des formes nouvelles toujours plus riches.

Dans cette époque bouleversée par la révolution numérique, on peut espérer qu’une nouvelle forme de conscience émerge et que l’accroissement global de la connaissance permettra d’avoir une meilleure conscience des communs et de leur fragilité. Dans ce contexte, quel meilleur encouragement pourrai-on avoir que celui qui pousse à dépasser les guerres de territoire et de de pouvoir qui son vaines pour l’humanité.

Toutes ces guerres intestines, que l’on retrouve dans la plupart des organisations, ne sont pas l’expression de la noblesse de l’humanité, mais les révélateurs de la peur, la peur de perdre quelque chose dont on se croit propriétaire, créant ainsi une crispation au lieu d’une libération créatrice, comme la suspension sans air entre l’expiration et l’inspiration suivante…

Au moment où les transformations s’imposent et déclenchent des hostilités, en se tournant vers les « communs numériques« , Henri Verdier nous propose ainsi une apologie de la paix au sein des organisations en se focalisant sur la valeur apportée à la société, à court, moyen et long terme qui sont en définitive le sens de toute son action.

Lire Sénèque nous rapproche de cette idée…

[…] Épicure dit: «Le sage n’approchera point des affaires publiques, à moins de circonstances imprévues;» et Zénon: «Le sage approchera des affaires publiques, à moins de quelque empêchement.» Le premier veut le repos par système, le second par nécessité. Or cette nécessité s’étend loin: l’État est-il trop corrompu pour qu’on puisse y porter remède, est-il envahi par les méchants, le sage ne fera point d’efforts qui seraient vains et ne se prodiguera pas en pure perte, s’il a trop peu d’autorité ou de forces; et la chose publique non plus ne l’acceptera pas, si sa mauvaise santé y fait obstacle. Comme il ne lancera pas en mer un vaisseau délabré, et ne donnera pas son nom pour la milice s’il est débile de corps, ainsi n’abordera-t-il pas une tâche qu’il saura inexécutable pour lui. On peut donc, même avec des ressources encore entières, sans avoir encore éprouvé nulle tempête, se tenir à l’abri, et tout d’abord se consacrer aux bonnes études, suivre en un mot cet heureux loisir, ce culte des vertus que peuvent pratiquer les mortels même les plus amis du repos. Qu’exige-t-on de l’homme en effet? Qu’il soit utile à beaucoup, s’il le peut; sinon, à quelques-uns; sinon encore, à ses proches; ou enfin, à lui-même. Car se rendre utile à autrui, c’est travailler au bien commun. Comme quiconque se déprave ne se nuit pas à lui seul, mais nuit encore à tous ceux que, meilleur, il eût pu servir; de même qui mérite bien de son âme rend service à la société; car il lui prépare un homme qui la servira un jour. […]

Sénèque, Éloge de l’oisiveté

 

 




Décryptage du RGPD Description et mise en œuvre

Décryptage du RGPD – Description et mise en œuvre

Dîner/débat Lundi 14 mai 2018

Le 14 mai 2018, le CLUB MOA a donné la parole à Gwendal Le GRAND, Directeur des technologies et de l’innovation à la CNIL. Ingénieur télécom, docteur en informatique, Gwendal Le Grand a mis en place l’expertise technologique à la CNIL.

Toutes les recommandations techniques qui sont faites par la CNIL sont réalisées par son équipe. Au fil du temps cette équipe est devenue une direction avec plusieurs entités : Le service de l’expertise technologique, le pôle innovation, études et prospective (cahiers IP), un laboratoire qui teste les produits et la DSI en charge du bon fonctionnement de l’ensemble de l’informatique de la CNIL (site web, serveurs, télé-services, etc…)

1 Rappels

1.1 La donnée personnelle

La donnée personnelle ce n’est pas seulement le nom et le prénom, mais c’est pratiquement tout ce que l’on a dans un système d’information qui peut être directement ou indirectement relié à l’identité de la personne.

NOTE : l’acronyme G29 est le groupe des CNIL européennes qui interprète les textes européens.

A partir du 25 mai, ce G29 va devenir une entité : le EDPB (European Data Protection Board – https://www.i-scoop.eu/gdpr/european-data-protection-board-edpb/) traduit par CEPD (Comité Européen de la Protection des Données : https://europa.eu/european-union/about-eu/institutions-bodies/european-data-protection-supervisor_en)

La CNIL met à disposition des programmes utilitaires. Exemple CARDPEEK qui permet de lire le contenu de certaines cartes à puce. Gwendal Le GRAND donne l’exemple de la carte Navigo. A partir de cette lecture la CNIL peut vérifier que les données sur la carte (qui peuvent être enregistrées par l’émetteur de la carte) sont en rapport avec le service rendu et l’utilisation de la carte.

1.2 La loi informatique et liberté (Résumé de l’essentiel)

Sous-tendus par la loi informatique et liberté, il y a beaucoup de principes de bon sens : Principe de finalité : A quoi servent les données collectées ?

Principe de proportionnalité : Collecter uniquement les données nécessaires à la finalité, et les traiter uniquement durant le temps qui est nécessaire à la finalité. Les données doivent ensuite être effacées ou anonymisées

Garantir le droit des personnes : accès, rectification, suppression, consentir aux traitements. Principe de sécurité des données : mise en place de mesures pour protéger la personne.

2 Activité et quelques chiffres sur la CNIL

https://www.cnil.fr/sites/default/files/atoms/files/cnil-38e_rapport_annuel_2017.pdf

2.1 Missions de la CNIL

Informer les personnes sur leurs droits et l’application de la loi

Conseiller les entreprises et les responsables de traitement (Privé et publique) Contrôler sur place et, éventuellement, sanctionner

2.2 Montant des sanctions

Pendant très longtemps la pénalité maximum a été de 150 000 euros. Avec le RGPD la pénalité peut monter à 20 millions d’euros ou 4% du chiffre d’affaire mondial consolidé des entreprises. C’est le chiffre le plus élevé qui est retenu. (Ex pour le GAFA c’est 4% du CA)

2.3 Chiffres

La CNIL emploie 200 personnes, sont budget annuel est de 17 millions d’euros Activité

  • 4100 avis et autorisations par an
  • 8360 plaintes
  • 4000 demandes de droit d’accès indirect
  • 8300 vérifications effectuées
  • 155000 appels
  • 14700 requêtes sur la plateforme « Besoin d’aide »
  • 4,4 millions de visites sur le site Web CNIL.fr
  • 93500 followers sur Twitter
  • 340 contrôles dont 14 ont donné lieu à sanction

2.4 Nouveaux pouvoirs

Au fil du temps la CNIL a acquis de nouveaux pouvoirs

  • Contrôles en ligne depuis 2014
  • Contrôle du blocage administratif des sites dans le cadre de la lutte contre pédopornographie et l’apologie du terrorisme depuis 2015.
  • Contrôle du déréférencement(1) – Une personne demande à ne plus apparaître dans les résultats des moteurs de recherche lors d’une requête sur son nom (https://www.cnil.fr/fr/le-droit-au-dereferencement-en-questions)

(1) Arrêt de la Cour de Justice Européenne (CJUE) de mai 2014 – C131/12

3 RGPD

Le texte : https://www.cjoint.com/doc/17_12/GLnmzFxp4tM_rgpd.pdf

RGPD : Règlement Général sur la Protection des Données ou GDPR : General Data Protection Regulation

Ce texte a été initié en 2012.

Le texte entre en application le 25 mai 2018

Ce texte est très important. Les principes directeurs, que l’on a en France depuis 1978, restent les mêmes. Nous les retrouvons dans le règlement. Un certain nombre de droits ont été ajoutés, les textes ont été modernisés les contraintes des responsables de traitement ont été renforcés, mais surtout, ce texte modifie les équilibres.

  • Suppression du régime de déclaration au profit de la responsabilisation du responsable de traitement. Ce dernier doit pouvoir prouver, à tout moment, à l’autorité de contrôle, que le traitement est en conformité avec la loi
  • Renforcement du pouvoir de sanction
  • Redonne de la souveraineté aux entreprises (article 3). Le règlement s’applique aux entreprises établies sur le territoire européen, et aux entreprises qui ciblent des populations de la communauté européenne. C’est notamment le cas des grandes entreprises américaines qui viennent «chasser» sur le territoire européen
  • Le règlement s’applique aux responsables de traitement et aux sous-traitants

NOTE : Le responsable de traitement est celui qui détermine la finalité et les moyens. Le sous-traitant est celui qui agit pour et sous les ordres du responsable de traitement, qui ne traite pas les données pour son propre compte.

3.1 Les outils développés par la CNIL

La CNIL a développé des outils pour aider les organismes à se mettre en conformité avec le règlement. Beaucoup de ressources se trouvent sur le site de la CNIL.

  • Une rubrique dédiée au règlement (Présentation, questions/réponses fréquentes, guidelines développés au niveau européen, un guide pour les sous-traitants
  • Une fiche : « Se préparer » en six étapes (avec cases à cocher). Il est indispensable d’avoir un pilote de l’opération, d’avoir cartographié les traitements et les données, prioriser les actions, gérer les risques, organiser les processus internes, documenter. Le règlement précise que la cartographie et la documentation doivent être mises à jour régulièrement.
  • Le règlement remplace le régime d’autorisation par une analyse d’impact sur la protection des données. C’est une réflexion que le responsable de traitement doit avoir pour gérer sa propre gestion de risques. La décision et la responsabilité sont déplacées de l’autorité vers le responsable de traitement. La CNIL met à disposition des guides pour mener cette réflexion inspirés de la méthode EBIOS (Expression des Besoins et Identification des Objectifs de Sécurité)

3.2 Le délégué à la protection des données

Le DPO (Data Protection Officer)

C’est le successeur du CIL (Correspondant Informatique et Liberté).

Le DPO devient obligatoire dans un certain nombre de cas et notamment dans le cas des organismes publics. On passe environ de 11 000 à 80 000 organismes qui doivent avoir un DPO, au moment où le règlement est applicable.

Le DPO peut être externalisé et mutualisé (petites structures n’ayant pas les moyens d’avoir un DPO en leur sein)

3.3 Principe de sécurité des traitements (Art. 32)

  • Le responsable de traitement doit mettre en place des mesures proportionnées aux risques, (mesures organisationnelles et techniques) en fonction du contexte, de la nature des données, des risques du traitement lui-même. C’est un travail de réflexion à conduire pour chaque traitement et non une « recette de cuisine » à appliquer systématiquement.
  • Le traitement doit assurer la confidentialité, l’intégrité et la disponibilité des données.
  • Le règlement contient un principe d’amélioration continue.
  • La conformité avec l’obligation de sécurité peut être prouvée par l’utilisation de certification ou l’adhésion à des codes de conduite.
  • DPIA (Data Protection Impact Assessment) https://www.cnil.fr/fr/ce-quil-faut-savoir-sur- lanalyse-dimpact-relative-la-protection-des-donnees-dpia – Article 35 du règlement Lorsqu’un traitement de données personnelles est susceptible d’engendrer un risque élevé pour les droits et les libertés des personnes concernées, une analyse d’impact sur la protection des données (DPIA) doit être menée. Pour aider les responsables de traitement la CNIL met à disposition (sur son site) des guides et un logiciel gratuit, open source.
  • Il y a obligation pour le responsable de traitement de documenter tous les incidents qui ont trait à la sécurité des données personnelles. Au-delà d’une certaine gravité de l’incident il y a obligation de le notifier à l’autorité (En France, la CNIL) dans un délai contraint (72H). Pour certains incidents très graves, les personnes doivent également être notifiées. Il faut donc avoir des procédures à jour et efficaces.

3.4 Droit à la portabilité (Art 20)

C’est la possibilité, pour une personne, de récupérer les données la concernant sous un format lisible, en machine ou naturellement (PDF par exemple) avec la possibilité de transmettre ces données à un nouveau responsable de traitement.

Ce droit favorise l’innovation et la liberté. Cependant ce droit à la portabilité comporte quelques limites.

La portabilité concerne les données fournies par la personne. Il y aura vraisemblablement des évolutions du règlement après le 25 mai.

3.5 Principe de mise en cohérence des décisions des autorités

Le règlement est une loi unique en Europe. Dans chaque pays européen il y a une CNIL, donc une autorité de protection des données qui agit sur son territoire. Il faut que les décisions prises soient cohérentes au niveau européen. Pour cela le règlement à mis en place un principe de mise en cohérence des décisions des autorités. C’est un principe de guichet unique. Dans le cas d’une entreprise ayant plusieurs établissements dans différents états membre, en cas d’incident, l’autorité de l’établissement principal rédige une proposition de décision qui est soumise aux autres autorités concernées. Ces dernières font des remarques et des observations qui doivent être prises en compte. En cas de désaccord un mécanisme d’arbitrage est sollicité au niveau du comité des CNIL européennes (Prise de décision à la majorité) Ce comité est le EDPB.

4 Ethique des algorithmes et IA

https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf

On a confié à la CNIL une mission d’animation du débat public autour des enjeux éthiques des algorithmes. Cette mission a abouti à un rapport dont les éléments essentiels sont les suivants :

Débats publics : 3 000 participants / 45 manifestations

Principes fondateurs : loyauté et vigilance; L’intérêt des utilisateurs doit primer

Recommandations opérationnelles

  • Former à l’éthique tous les acteurs-maillons de la « chaîne algorithmique »
  • Travailler le design des systèmes algorithmiques au service de la liberté humaine
  • Constituer une plateforme nationale d’audit des algorithmes ;
  • Encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général
  • Renforcer la fonction éthique au sein des entreprises

L’intégralité du compte-rendu est réservée aux membres du Club.




Henri Verdier – Plateformes, big data, innovation, devops… l’ère numérique vue par le DSI de l’Etat

L’évènement annoncé en début d’année pour célébrer les 20 ans du Club a bien eu lieu !

Oeuvre "zero degree-doubt" (créée en 2013) par Miao Xiaochun
Oeuvre « zero degree-doubt » (créée en 2013) par Miao Xiaochun

En parrainant les 20 ans du Club, c’est un magnifique cadeau qu’Henri Verdier a offert à ses adhérents et leurs invités.

Sa conférence sur l’inépuisable thème de la transformation numérique l’a amené à évoquer de nombreux sujets qui sont autant de préoccupations pour lui en tant que DSI groupe de l’Etat: open data, big data, maîtrise des grands projets, agilité, approche startup, compétences numériques, etc.

Mais son regard de citoyen et sa proximité vis-à-vis de l’échelon politique (lien étroit avec le secrétariat d’Etat au numérique de Mounir Mahjoubi) l’amène également sur le terrain de la souveraineté, des « communs numériques« , de l’open government partnership, une sorte de responsabilité non délimitée tant il a conscience des impacts sur la société de la vaste transformation qui bouleverse la planète.

Pour ceux qui étaient présents, c’était un moment privilégié pour renouer avec le sens de l’action. Henri Verdier nous invite à être conscient de cette réalité inquiétante que représente la domination de quelques acteurs.

Dans les échanges qui ont suivi, Henri Verdier est même allé plus loin dans l’expression de sa philosophie d’une société du numérique qui doit trouver de nouvelles marques.

La fenêtre ci-dessus vous permet de revoir la vidéo de sa conférence (enregistrement: Caroline Gimenez).

En fin de soirée, les facilitateurs graphiques Philippe Elie Kassabi et Michel Diament, désormais familiers des soirées du Club, ont apporté leur regard et leur talent d’illustrateur pour réunir autour de leur création graphique spontanée l’ensemble des participants.

Ce moment d’intimité et de convivialité était l’occasion de dévoiler la nouvelle identité du Club, qui après 20 années d’existence sur les fondamentaux de la maîtrise d’ouvrage au service des systèmes d’information, doit faire évoluer son intitulé pour adopter une dénomination davantage conforme aux thématiques qui sont abordées avec un trame de fond la transformation numérique dans laquelle chacun des membres est impliqué au sein de l’organisation qu’il représente.

Ainsi est né le 9 avril 2018 le Club de la transformation numérique (CTNum), qui rassemble des maîtres d’ouvrages et facilitateurs de la transformation numérique…

Une réflexion en amenant une autre, les échanges de cette soirée m’ont conduit à un autre article, invitation à réfléchir sur le sens de l’action




Maitrise des projets complexes: le prélèvement à la source

Le 5 mars 2018, le Club a donné la parole à Maryvonne LE BRIGNONEN. Directrice du projet « Prélèvement à la source » (PAS) rattaché à la DGFIP et à la DLF . Elle a présenté ce grand programme de transformation que représente le PAS.

La loi de finances pour 2017 prévoit la mise en place du prélèvement à la source de l’impôt sur le revenu fixée ensuite au 1er janvier 2019. Ainsi en 2019 par ordonnance du 22 septembre 2017, nous payerons l’impôt sur les revenus 2019. Grâce au mécanisme du crédit d’impôt modernisation du recouvrement (CIMR), aucun impôt ne sera dû sur les revenus non exceptionnels de 2018 qui entrent dans le champ de la réforme.

Maryvonne LE BRIGNONEN a divisé son exposé en 4 parties:

  1. Quelques rappels sur la réforme
  2. Le dispositif déclaratif
  3. La préparation de la DGFIP
  4. Le déroulement de l’année 2018

 

1 Rappels sur la réforme

Le Conseil des ministres du 17 juin 2015 a entériné la décision de mettre en place le prélèvement à la source (PAS). Initialement cette disposition devait être mise en œuvre au premier janvier 2018. Le Président Emmanuel MACRON a repoussé ce démarrage au 1er janvier 2019.

Cette réforme n’est pas une modernisation de l’administration fiscale. L’objectif de la réforme concerne essentiellement la taxation contemporaine des revenus. Elle vise à répondre aux difficultés posées par le système actuel : le décalage d’un an entre la perception d’un revenu et le paiement de l’impôt correspondant, ainsi que la nécessité de se constituer une épargne de précaution.
La taxation contemporaine permet une variation automatique de l’assiette de prélèvement et une adaptation du taux à la situation des contribuables. L’objectif est également de minimiser, pour ce dernier, la régularisation annuelle qui est aujourd’hui due le 15 septembre.

Les principes retenus sont au nombre de trois.
1. Une réforme du recouvrement, sans modification des modalités d’établissement de l’assiette de l’impôt et de son calcul
2. L’absence de double prélèvement en trésorerie en 2019 sur les revenus qui rentrent dans le champ de la réforme et qui sont non exceptionnels.
3. Le maintien de la campagne déclarative et de la campagne des avis en N+1, car ces déclarations permettent de recueillir des informations auprès des usagers dont l’administration ne peut pas disposer en cours d’année. Cette disposition permet également d’acquérir les informations nécessaires au calcul de la taxe d’habitation et aux taxes associées telle que la redevance audiovisuelle.

 

Table des matières

1 Rappels sur la réforme
1.1 Le calcul du prélèvement à la source
1.2 L’Année de transition (Revenus de l’année 2018)
2 Le dispositif déclaratif
2.1 Les déclarations : DSN ou PASRAU
2.2 La fréquence
2.3 La « maille » déclarative
2.4 Les déclarations rectificatives
2.5 Le lieu de dépôt
2.6 Le reversement du PAS
2.7 Le contenu de la déclaration
2.8 Zoom sur le taux
2.9 Un nouveau service offert pour récupérer les taux personnalisés
2.10 Documentation : Mise à jour au 31 janvier 2018
3 La préparation de la DGFIP
3.1 Gouvernance informatique du projet
3.2 Une organisation ad hoc avec le GIP MDS
3.3 Travaux de fiabilisation des états civils dans le cadre du PAS
3.4 Un dispositif de formation de grande ampleur
4 Déroulement de l’année 2018
5 Conclusion
6 Pour aller plus loin

 

1.1 Le calcul du prélèvement à la source

L’établissement du taux de prélèvement à la source
Le principe de la réforme est qu’à chaque revenu imposable à l’impôt sur le revenu sera appliqué un taux de prélèvement à la source personnalisé, qui sera calculé par la DGFiP sur la base du revenu de (N-2).
Le taux sera mis à jour automatiquement (rafraichi) le 1er septembre à l’issue de la taxation des revenus. Ce taux varie en fonction de la situation personnelle (mariage, pacs,…) de l’évolution des revenus. L’usager pourra faire état de ces changements en cours d’année et le taux pourra ainsi être adapté en permanence à la situation de la personne si sa situation respecte certains critères.
Deux options possibles :
– Option pour l’individualisation du taux de prélèvement au sein du couple, utile si les niveaux de revenus des deux personnes sont très différents. Le calcul des deux taux reste, bien entendu, du ressort de l’administration fiscale.
– Option pour la non-transmission du taux à l’employeur (taux non personnalisé). Dans ce cas l’employeur appliquera le taux applicable à un célibataire. Ce taux sera mécaniquement, souvent supérieur au taux réel car il ne prend pas en compte la situation de famille de la personne. Le salarié peut demander à l’administration fiscale de ne pas transmettre de taux à son employeur.
– Option pour le paiement trimestriel (au lieu de mensuel) des acomptes contemporains

L’usager aura l’obligation de signaler ses changements de situation de famille afin que la DGFiP recalcule automatiquement le nouveau taux.

Maryvonne LE BRIGNONEN fait remarquer que les taux en France sont « écrasés » et que c’est l’assiette qui fait l’essentiel de l’impôt sur le revenu. (Le taux moyen est de 6%)

Le taux sera disponible dès la fin de la déclaration en ligne. Il figurera sur l’avis d’imposition et également dans l’espace personnel de l’usager sur impots.gouv.fr.
NOTE – Le taux est confidentiel et sa divulgation pénalement sanctionnée
Pour les revenus versés par un tiers, le calcul du prélèvement par le collecteur
Le taux de prélèvement sera transmis par l’administration fiscale au collecteur de manière dématérialisée et automatique. Ce prélèvement correspondra à l’application du taux au revenu net imposable. En l’absence de taux transmis par l’administration, le collecteur appliquera un taux non personnalisé sur la base d’un barème publié chaque année. Pour les revenus non versés par un tiers, la DGFiP calculera un échéancier annuel de prélèvements mensuels ou trimestriels sur la base des revenus (N-2) et du taux. L’usager pourra moduler son assiette de prélèvement ainsi que son taux selon certaines conditions

1.2 L’Année de transition (Revenus de l’année 2018)

Les collecteurs ne sont pas concernés par l’année de transition, notamment, ils n’auront pas à qualifier le caractère exceptionnel d’un revenu versé. D’autre part l’administration fiscale met à la disposition des collecteurs un kit d’informations téléchargeable depuis le net (impots.gouv.fr) . Ce kit contient la réponse à beaucoup de questions techniques et juridique ; il met également, à la disposition des collecteurs, des outils de communication directement utilisables. Les informations concernant le PAS seront envoyées aux collecteurs en septembre. Les collecteurs ont la possibilité de faire apparaître le montant du PAS sur les bulletins de salaire à partir du mois d’octobre 2018. Mais ceci n’est qu’une facilité et non une obligation.

Un principe : pas de double prélèvement en trésorerie

L’impôt sur les revenus de 2017 sera payé en 2018

L’impôt sur les revenus de 2019 sera payé à partir de janvier 2019

L’impôt normalement dû au titre des revenus non exceptionnels perçus en 2018 sera annulé par le biais d’un crédit d’impôt spécifique (CIMR : crédit d’impôt modernisation du recouvrement), calculé automatiquement par l’administration fiscale sur la base de la déclaration des revenus 2018 déposée au printemps 2019.
Il resterait dû sur les revenus exceptionnels ou hors du champ de la réforme (ex : RCM )
• Le bénéfice des RI-CI acquis en 2018 sera conservé
• Des mesures anti-abus viendront éviter les comportements d’optimisation

L’intégralité du compte-rendu est réservée à nos adhérents…

 




Intelligence artificielle: état de l’art et perspectives

Le 8 janvier 2018, le Club MOA a donné la parole à Jean Pierre HUIN, secrétaire du Club MOA.

Ingénieur du Conservatoire National des Arts et Métiers de formation, Jean-Pierre HUIN a exercé des fonctions variées au cours de sa carrière professionnelle, notamment comme Ingénieur système, spécialiste des problèmes de conception des programmes complexes, puis responsable d’équipes de maîtrise d’ouvrage. Aujourd’hui retraité, Jean-Pierre HUIN s’est intéressé très tôt à l’intelligence artificielle. Il a proposé de partager son intérêt avec l’ensemble des membres du Club, en présentant un « état de l’art » puis en abordant les répercussions du développement de l’IA sur la société dans les prochaines années.

1 Définition

Il est difficile de donner une définition de l’intelligence. C’est un concept flou qui dépend beaucoup de la personne qui en parle. On peut parler de l’intelligence mathématique, de l’intelligence analytique ou de l’intelligence de l’âme. Dans le cadre de l’IA, on peut tenter de définir l’intelligence par ses caractéristiques. Un système d’IA permet :

  • D’apprendre
  • De comprendre
  • De s’adapter à des situations nouvelles
  • De traiter une information en vue d’un objectif
  • De communiquer avec son environnement

La caractéristique qui peut donner lieu à une controverse est la « Compréhension » qui est une notion par essence complexe.

Apparition de l’IA

L’IA repose sur une conjecture, et suppose :

  1. Que les caractéristiques de l’intelligence humaine puissent être précisément décrites
  2. Qu’une machine soit capable de simuler ces caractéristiques

L’IA apparaît dès que deux processus parallèles arrivent à maturité et se rejoignent:

  1. L’évolution des idées concernant la nature de l’intelligence et de la pensée humaine
  2. L’invention de machines capable de traiter de l’information et en particulier de calculer

L’IA est une discipline à la croisée des chemins. Elle fait appel notamment à :

  • La philosophie (Raisonnement, logique)
  • Les mathématiques (Logique, simulation, probabilités, statistiques)
  • La linguistique (Syntaxe, sémantique)
  • L’informatique (Méthodes, outils)
  • La biologie (Génomique, mimétisme)
  • Les neurosciences (Simulation, mimétisme, modélisation)
  • La psychologie (Reconnaissance, modèles cognitifs)

 

2 Historique

Rapidement évoquées, les réflexions et techniques de base de l’IA datent des années 1940 / 1950. JP HUIN cite quelques scientifiques dont les contributions à la naissance de cette discipline ont été fondamentales.

  • Norbert WIENER Le père de la cybernétique, voyait l’intelligence comme une boite noire fonctionnant essentiellement sur des processus de feedback
  • Warren Mc CULLOCH et Walter PITTS inventeurs du concept de neurone formel
  • Donald HEBB, inventeur de la règle qui porte son nom et qui décrit le fonctionnement d’un processus de mémoire et de fonctionnement entre deux neurones.
  • Herbert SIMON inventeur du concept de rationalité et Allen NEWELL utilisant le concept d’heuristique pour modéliser le processus de décision du cerveau.

Traditionnellement on fixe la naissance de l’IA en 1956, au Dartmouth College, où 4 scientifiques (J. Mc CARTHY, M. MINSKY, N. ROCHESTER, C.E SHANNON) posent les bases de ce qui deviendra l’IA.
A partir de cette époque de nombreux scientifiques vont apporter leur pierre à l’édifice :
F. ROSENBLATT, H. GELERNTER, O. SELFRIDGE, N. CHOMSKY, E. FEIGENBAUM, E. SHORTLIFFE, J. HOPFIELD et d’autres. La discipline connaît durant ces 60 ans des périodes d’enthousiasme et de déprime tant sur le plan scientifique que sur le plan financier et même moral.

Se demander si un ordinateur sait penser est aussi intéressant que se demander si un sous-marin sait nager. (Edsger DIJKSTRA)

L’IA demain

  • Aujourd’hui : Une informatique encore traditionnelle – Algorithme fait à la main
  • En cours : Le deep learning – des Réseaux de neurones de 10 à 30 couches – non auditable
  • Demain : Une IA de transfert learning. Quand on sait quelque chose dans un secteur on peut l’appliquer à un autre secteur. (2025 / 2035)
  • Après-demain ou jamais : Une IA dotée d’une conscience artificielle (film Ex-Machina) Une IA qui aurait un but propre et qui ne serai pas seulement à notre service.

3 Le modèle biologique

A partir du moment où on parle de neurone formel, il convient de décrire le neurone naturel et son fonctionnement afin de mesurer avec exactitude la différence entre les deux et en quoi cette dénomination peut prêter à des erreurs d’interprétation.

Le neurone est une cellule particulière, constitutive du cerveau humain. Chaque personne en compte environ entre 86 et 90 milliards. Chaque neurone est connecté à d’autres neurones via un système synaptique. Le nombre de synapses auquel un neurone est connecté varie de 1 à 100 000, en moyenne 10 000 connexions pour un neurone.

Une animation a clairement montré le fonctionnement d’un neurone et le mécanisme de la transmission des signaux. (Transmission saltatoire)

4 Le concept d’apprentissage

Dans cette partie de l’exposé, JP HUIN a expliqué le mécanisme de base du « Machine Learning » à partir d’un exemple simple : Au cours d’une promenade en forêt le relevé, pour une même essence d’arbre, de deux caractéristiques ! Hauteur et diamètre du tronc. L’ensemble des mesures peut-être porté sur un graphique orthonormé. Une régression linéaire (donc calcul du coefficient angulaire, a, et de l’ordonnée à l’origine, b) permet de faire une prédiction de la hauteur d’un arbre pour un diamètre connu. Une autre manière d’aborder la problématique et de mettre en place un algorithme qui va faire varier a et b et trouver les meilleures valeurs qui vont définir une droite passant le plus près possible de tous les points du graphique.

Le « Machine Learning » consiste à « éduquer » un système de sorte que lorsqu’on lui confie des données d’entrée, il soit capable de réaliser une prédiction sur les données de sortie.
Dans l’exemple ci-dessus, on entre le diamètre du tronc et le système prédit la hauteur de l’arbre. Il est assez facile de comprendre que plus l’éducation du système sera complète et dense plus la prédiction sera bonne.

Exemple opérationnel : détection de fraude à la carte de paiement. On entre des données telles que nature de la transaction, lieu, montant, date et on demande à l’algorithme si la transaction est une tentative de fraude.

En matière d’IA, une des applications phare du « Machine Learning » est la reconnaissance d’image. On présente à l’algorithme une image et on lui demande de déterminer si c’est un fruit, une lampe, une voiture ou un chat. C’est un problème très complexe.

5 Le « Deep Learning »

Le « Deep Learning » est un cas particulier du « Machine Learning ». Il repose sur la mise en réseau de neurone formel (ou neurone artificiel).
Le neurone formel

Un neurone formel est une construction mathématique, (analogue à la droite précédente) qui met en relation des entrées et une sortie.

Artificial Neuron Modelisation
Artificial Neuron Modelisation (source: wikipedia)

A chaque entrée on affecte un coefficient (poids synaptique). Ce poids varie et peut s’ajuster. Quand la somme est supérieure à S le neurone artificiel renvoie 1, sinon il renvoie 0. Les poids sont comme les coefficients a et b de la droite précédente.

Un neurone seul ne fait pas grand-chose. On les « empile » pour réaliser des fonctions très complexes. On obtient un réseau de neurones artificiels
Un réseau de neurones n’est pas fait pour reproduire le fonctionnement de notre cerveau, c’est juste une construction mathématique qui s’en inspire. Ces réseaux de neurones sont polyvalents. On peut les adapter à un grand nombre d’entrées et de sorties. Mais conceptuellement on les utilise comme la droite du premier exemple.

Premier point fondamental.

Les réseaux de neurones sont spécialisés. Si, par exemple, on entraîne un réseau de neurones à analyser des radiographies du thorax, il sera incapable de reconnaître une automobile sur une image. Ceci est un point fondamental des technologies et développements actuels.

Second point fondamental

La mise en œuvre d’un réseau de neurones comprend deux étapes.
La première est l’éducation. On présente au réseau un ensemble d’entrées, par exemple des images d’automobile. Un algorithme ajuste au fil de l’apprentissage les poids synaptiques de chaque neurone(Pn) et les seuils S. Plus on présente d’exemples (en général plusieurs centaines de milliers) plus le réseau sera performant.

Lorsque c’est terminé le réseau est prêt. Il est capable de faire une prédiction si on lui présente une nouvelle entrée. Le modèle est du type « Boite Noire » on ne sait pas interpréter la fonction mathématique qui a été mise en jeu. C’est un second point fondamental.

Types d’apprentissage

  • apprentissage supervisé : le système dispose d’exemples sous forme de couples (entrée, sortie attendue), et parfois de contre exemples et est capable de construire statistiquement une règle de décision qu’il appliquera par analogie.
  • apprentissage non supervisé : le système dispose d’entrées uniquement et les classe selon des critères, essentiellement statistiques, qu’il appliquera pour discriminer les nouvelles entrées.

La reconnaissance d’image a vraiment démarré en 2012. Lors du concours annuel de performance des algorithmes de reconnaissance d’images du «Stanford Vision Lab » un algorithme de « Deep learning » a pulvérisé les performances. Paul WERBOS, Geoffrey HINTON, Yann LECUN sont les principaux artisans de cette réussite qui a relancé la discipline. Ils ont mis au point les algorithmes basés sur la rétro-propagation du gradient d’erreur inventé par John HOPFIELD. Ces techniques, qui sont grosses consommatrices de puissance de calcul, s’appuient sur les GPU (graphic Processor Unit) dont la puissance a littéralement explosé depuis quelques années. Enfin, le dernier élément accélérateur est la mise à disposition de centaines de millions d’images disponibles sur les réseaux internet. Ces images permettent une excellente éducation des réseaux. Chaque jour 800 millions d’images sont ajoutées sur Facebook, par exemple.

Actuellement on peut fabriquer des réseaux qui ont une centaine de couches et plusieurs millions de neurones artificiels.
Enfin, le plus intriguant (et le plus étonnant), reste la capacité à transformer les réseaux « Deep Learning » en modèle génératif. Un réseau de neurones entraîné, par exemple à reconnaître des images de motos, peut être transformé en modèle génératif. On lui demande de générer des images de motos et il est capable de générer des milliers d’images différentes de motos.

IA forte et IA faible

Les spécialistes ne sont pas tous d’accord sur la définition ci-après.

IA FORTE : l’intelligence artificielle forte, ou ascendante, est l’approche la plus similaire du comportement humain.

IA FAIBLE : l’IA faible, ou descendante, vise principalement à reproduire le plus fidèlement possible, à l’aide d’un programme informatique, le résultat d’un comportement spécifique observé à l’avance et ne donnant pas d’application non prévue.

En suivant cette définition, observons que tous les systèmes actuels relèvent de l’IA faible.

6 Au cœur du sujet

L’IA nous renvoie à des questions importantes :

  • L’accélération technologique
  • La violence : drones tueurs autonomes
  • L’impréparation : Le monde politique semble absent, l’école n’enseigne pas comment vivre et travailler avec des systèmes IA, le pays ne semble pas prêt à la révolution qui avance.
  • Un trou noir de valeurs : Les entreprises qui ne sont pas dans l’IA ou qui ne l’utilisent pas prennent des risques importants. Les GAFAM et BATX approchent les 1000 milliards de dollars de capitalisation boursière.

Exemple : WHATSAPP, 4 ans d’existence, 55 salariés, vendu 23 milliards de dollars à Facebook !

  • Une désynchronisation entre le temps politique et le temps technologique
  • La notion d’IA renvoie au QI des personnes. Lorsque tout sera automatisé que deviendront ces naufragés du numérique.
  • L’IA génère un vertige démocratique : ce sont les entrepreneurs qui créent et organisent le futur.
  • La fin de la vie privée à cause des réseaux sociaux mais également à cause des capacités d’analyse de l’IA
  • L’augmentation des écarts : la concentration des richesses, la superposition des pouvoirs aux mêmes endroits.
  • Enfin l’IA est-elle liberticide ?

Fiévreusement, l’homme vit ce paradoxe, prédit depuis si longtemps, par les maîtres de la science-fiction: il est servi par une technologie qui l’asservit. Une technologie qui, certes, le libère de contraintes matérielles. Mais une technologie liberticide. Car l’homme d’aujourd’hui gagne en confort et en efficacité ce qu’il perd déjà en secret et en liberté. (Frédéric SICARD – Bâtonnier du Barreau de Paris)

Une nouvelle économie

Cette nouvelle économie se caractérise par un phénomène de « plateformisation ». Les GAFAM, et autres Baidu, Tencent, Ali Baba ou Xiaomi sont les champions incontestés de ce schéma. Leur développement, appuyé sur les réseaux internet, est quasi-exponentiel.

De fait, nous sommes en présence d’une « oligopolisation » de l’économie.
Les sociétés et les personnes vont devoir s’adapter. Les métiers vont changer.

Exemples : Un système d’IA est capable de détecter 14 pathologies différentes en analysant des radios du thorax et ce en quelques secondes. (Annoncé par une université américaine en décembre 2017)

Des métiers vont disparaître, d’autres vont se révéler. Il est cependant probable que ces nouveaux métiers demandent des capacités intellectuelles importantes.

Une nouvelle société va progressivement émerger. La question qui va se poser et sur laquelle il convient probablement de réfléchir déjà :

Comment régule-t-on une société profondément inégalitaire avec un nouveau type d’inégalité : la complémentarité ou la non complémentarité des personnes face à l’IA ?

Il y a une énorme prime pour les personnes les plus intelligentes, les plus innovantes, les plus adaptables, les plus entreprenantes

Dans cette économie qui émerge, ceux qui ont déjà une position majeure sont clairement avantagés. On peut se référer à la loi de Metcalf (ref): « La valeur d’un réseau croit comme le carré du nombre des utilisateurs du réseau. ».A partir de ce postulat et en fonction de la situation que nous connaissons aujourd’hui il semble bien que l’Europe soit en grande difficulté. Pour conclure il est important de savoir que les algorithmes mis en œuvre dans les systèmes IA se valent. Ce qui fait la différence est le nombre d’items utilisés lors de la phase d’éducation.

En conclusion de cet exposé JP HUIN a tenté de cerner les risques et les espoirs que l’IA a fait naître, ainsi que les premiers éléments d’une nouvelle éthique : l’éthique du numérique, une nouvelle façon d’aborder la définition des valeurs et des responsabilités.

 

Robert METCALF : scientifique américain, fondateur de la société 3COM a participé également à la naissance d’Internet.




Le Club MOA fêtes ses 20 ans !

 

Vous êtes directeur(trice) général(e), métier, organisation, innovation, business unit, ressources humaines, numérique, systèmes d’information… vous êtes impliqué(e) dans la transformation numérique de votre organisation…

Le Président du Club MOA et l’ensemble des membres du conseil d’administration sont heureux de vous convier le lundi 9 avril 2018, à 19h à Paris, au Salon des Vedettes, Port de Suffren -75007 – (M° Bir Hakeim / Ligne 6)

Le club des maîtres d’ouvrage est une association dont les statuts ont été déposés en 1997. A l’origine fondé par des acteurs s’intéressant aux systèmes d’information, les adhérents d’aujourd’hui se reconnaissent comme maîtres d’ouvrage de la transformation numérique.

Michel VOLLE, économiste et blogger en a été l’un des premiers présidents avant de rejoindre l’Institut Montaigne en tant que Président du groupe de travail « informatisation ».

Ouvert aux organisations publiques et privés, depuis 20 ans, le Club n’a cessé de se renouveler, tout en gardant une constante : la volonté de réunir des personnes désireuses de partager une expérience ou un point de vue sur les systèmes d’information et la transformation des organisations.

Bien que la révolution numérique soit engagée depuis plus d’une décennie, cette transformation qui touche l’ensemble de la société, n’est pas achevée. Elle demeure un défi quotidien, avec pour certaines entreprises un enjeu de survie, ce qui laisse présager d’intéressants débats…

A l’occasion de cet anniversaire, nous souhaitons partager plus largement nos valeurs et nos convictions, au cours d’une rencontre qui se veut amicale et fédératrice.

Henri VERDIER

Directeur interministériel du numérique et du système d’information et de communication de l’État (DINSIC), interviendra sur le thème suivant :

De l’entreprise collaborative aux plateformes d’intelligence collective : relever le défi de la transformation continue

L’intervention sera suivie d’un cocktail dinatoire

Pour en savoir plus sur Henri VERDIER, consultez sa page Wikipedia ou son blog.




Le Club vous souhaite ses meilleurs vœux pour 2018

À ses adhérents, mais aussi à ses amis et lecteurs, toute l’équipe du conseil d’administration du Club adresse ses meilleurs vœux pour 2018 et vous remercie pour votre intérêt, vos contributions et votre soutien.

Voeux 2018 du Club MOA, en image

Après une année 2017 riche en échanges pour le Club, l’activité reprend dès ce début d’année avec un dîner débat sur l’intelligence artificielle.

Les défis à relever pour les entreprises publiques ou privées ne manqueront vraisemblablement pas en 2018, notamment dans le domaine du numérique qui nous intéresse tout particulièrement… Aussi, nous espérons pouvoir compter à nouveau sur vous !

Pour l’année 2018, le programme envisagé est le suivant :

  • retour sur la question du RGPD avec la CNIL
  • à l’ère numérique, quelles démarches entreprennent les organisations publiques ou privées pour doter leurs collaborateur d’un environnement de travail performant ?
  • cloud computing et big data, retour d’expérience d’usages pratiques
  • l’Internet des objets (IoT) et smartcity (la ville intelligente et connectée)
  • Robotic process automation (RPA), les automates et le chaînage de tâches à l’ère industrielle
  • visite d’ateliers, démonstration et explications sur l’optimisation logistique
  • journée d’étude sur le design thinking pour conduire les projets autrement
  • la gouvernance des données, retour d’expérience d’un grand acteur
  • les chantiers numériques vus de la Cour des comptes
  • le prélèvement à la source, un projet d’envergure pour partager sur la complexité.

#RGPD #CloudComputing #BigData #IoT #SmartCity #RPA #SupplyChain #DesignThinking #Data #TransfoNum #Impot

Pour participer aux travaux du Club, vous pouvez directement adhérer à l’association ou découvrir notre fonctionnement en demandant une invitation à l’une de nos rencontres (voir calendrier).




Calendrier des rencontres du Club MOA en 2018

Comme chaque année, le conseil d’administration dresse un calendrier prévisionnel des rencontres prévues pour l’année.agenda

 

Vous pouvez consulter les dates prévisionnelles pour l’année 2018 ci-dessous ou télécharger le calendrier 2018 du Club MOA au format PDF ou simplement .

Pour obtenir des invitations et participer à nos rencontres, adressez une demande par courriel à notre secrétariat : secretariat [at] clubmoa.asso.fr

1er semestre 2nd semestre
8 janvier 2 juillet
5 février
5 mars 10 septembre
9 avril 8 octobre
14 mai 5 novembre
11 juin 3 décembre