Transition numérique : les enjeux et impacts de l’intelligence artificielle

En parallèle de mon activité professionnelle, je participe cette année avec un grand bonheur aux travaux de L’IHEST(l’institut des hautes études scientifiques et technologiques) pour le cycle 2019 2020. J’ai été admise comme Auditeur pour travailler sur une session de 3 jours par mois de septembre à juin à un thème choisi annuellement par la direction de L’IHEST, qui pour cette promotion 2019 2020 (Promotion Wangari Maathai) a entamé un cycle de réflexion sur les Transitions. Notre session d’études n° 7 de Mars 2020 était consacré à la Transition numérique. Tous les auditeurs de la promotion ont réfléchi en présence de scientifiques et chercheurs spécialisés dans les technologies numériques émergentes aux problématiques sociétales qui s’évincent de l’utilisation de ces nouveaux services liés à l’emploi de ces technologies comme notamment :

  • Les réseaux sociaux,
  • L’intelligence artificielle,

Nous avons terminé notre réflexion par une journée commune avec les auditeurs de L’IHEDN (L’institut des hautes études de la défense nationale) pour réfléchir aux problématiques issues de la « souveraineté numérique ». Je vous propose ici une brève présentation de nos travaux de réflexions issues de ces 2 journées d’études, agrémentés par mes propres réflexions personnelles croisées avec le regard que m’apporte aussi mes problématiques professionnelles. Par cet article sur un sujet d’actualité et passionnant j’espère donner aussi aux   lectrices et/ou lecteurs l’envie de postuler à la future promotion de l’IHEST promotion 2020- 2021 qui continuera la réflexion que nous avons, ouverte avec grande force et vigueur cette année sur « les Transitions ». (Quelques explications vous seront données à cet égard en fin d’article) Ainsi nous avons écouté avec beaucoup d’intérêt les exposés de Nicolas Sabouret et Fabien Tarissan, chercheurs à l’université « Paris Saclay » sur les enjeux posés par l’utilisation de l’intelligence artificielle : Pour ces 2 chercheurs, si la notion « d’intelligence artificielle » s’utilise de plus en plus, par contre la compréhension du concept reste encore évasive pour beaucoup et se polarise autour de 2 extrêmes qui parfois la discrédite c’est-à-dire : Où l’utilisation du concept tend à l’idolâtrie par des thuriféraires pétris d’enthousiasme et de vénération, Où le concept sert de repoussoir pour des détracteurs qui la considère comme une technologie qui signe la fin de l’humanité par la perte essentielle de ce qui signe « l’Humain », c’est à dire la Liberté en conscience. L’avocat-écrivain, François sureau, rappelle que  la liberté est par excellence la particularité de l’homme en citant Chateaubriand pour qui « sans la liberté, il n’y a rien dans ce monde ». Pour François sureau La liberté fédère la constitution des « sociétés politiques » autour des valeurs essentielles qui s’en évincent comme notamment : « La liberté d’aller et venir, de manifester, de faire connaître une opinion, de s’informer, de penser pour finir ! François Sureau : « Sans la liberté » In Tracts Gallimard n° 8 » Les opposants à « l’idolâtrie » de l’intelligence artificielle fédèrent leurs critiques sur justement l’atteinte inexorable aux fondements des attributs de la liberté tels que rappelés par François Sureau, et s’inquiètent de ce que cette Technologie pourrait à terme remettre en cause à la fois les bases et les fondements mêmes de cette « liberté individuelle d’être » et « de choisir » qui jusqu’alors ont définis « l’Humain ». Nos 2 conférenciers ont développé l’idée que cette notion « protéiforme » ô combien de l’intelligence artificielle, devait plutôt s’apprécier autour d’un « entre 2 » de ces visions et définitions extrêmes résumées ci-dessus de l’intelligence artificielle en nous rappelant que :

  • L’intelligence artificielle est une expression créée par Allan Turing, qui le premier a posé l’interrogation des conséquences qui pourraient advenir si un « programme » pouvait « devenir intelligent» par lui-même.
  • Pour celui-ci un ordinateur serait identifié comme intelligent lorsqu’il serait capable de se faire passer pour un humain auprès d’un autre humain !

Mais plusieurs années après son interrogation, l’intelligence artificielle aujourd’hui n’en est pas encore là et ne constitue rien d’autre qu’un « programme logiciel » au sens large. Soulignons qu’Il ressort du livre blanc publié par l’AFNOR, en avril 2018 sous le titre « l’impact et les attentes pour la normalisation dans l’IA », que même si les définitions de la notion sont en évolution constante elles se stabilisent autour d’une taxonomie posée par la communauté scientifique selon 2 sources de référence : Définition posée par la norme sur la terminologie de l’informatique ISO/IEC 2382. 2015 : « L’intelligence artificielle est la capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine, tels que le raisonnement et l’apprentissage. » (Livre blanc AFNOR page 9Définition donnée par « France intelligence artificielle » : « L’intelligence artificielle consiste à faire face aux machines, ce que l’homme fait aujourd’hui mieux qu’elles, notamment s’adapter, apprendre, communiquer et interagir d’une manière riche et variée avec leur environnement. » (Livre blanc AFNOR page9). L’IA se conçoit donc comme un « système complexe » alliant du Codedes calculs et du logiciel organisés vers la finalité d’écrire des « problèmes mathématiques » pour trouver une solution, et tout l’art de l’intelligence artificielle est d’utiliser des « heuristiques » (méthode de calcul efficace en temps) écrites par des humains. L’intelligence artificielle utilise par ailleurs des algorithmes qui sont des : « suites finies et non ambiguës d’opérations ou d’instructions permettant de résoudre une classe de problèmes ». Autrement dit un algorithme n’est rien d’autres qu’une méthode générale de calcul pour résoudre un type de problème. (Définition Wikipédia). Ainsi coexiste des algorithmes polynomials (système de calcul simple utilisé pour le classement.), et des algorithmes à complexité exponentielle comme par exemple les réseaux de neurones. L’intelligence artificielle ce n’est avant tout que du « programme » allié à différentes technologies : réseaux de neuronesarbre de décisionmachines à vecteur –support réseau convolutionnelle. L’intelligence artificielle dans l’instant et pour longtemps est donc une intelligence artificielle dite faible, qui a bien besoin de l’homme, et encore pour longtemps pour apprendreet fonctionner, car il lui manque pour prétendre au terme « d’intelligence artificielle forte », un élément essentiel : « La conscience », C’est-à-dire l’état de pouvoir comprendre par elle-même et pour elle-même ce qu’elle fait en temps réel. En continuation de l’exposé de son confrère Monsieur Savouret, Monsieur Tarissan a souligné combien aujourd’hui le problème essentiel notamment pour les utilisateurs des systèmes technologiques complexes embarquant de l’intelligence artificielle était de se rendre compte que l’intelligence artificielle gouvernait l’utilisation des réseaux au sens large et notamment « dirigeait » la navigation des internautes sur les moteurs de recherche. Ainsi bien peu d’utilisateurs sont conscients que leur navigation est prédéterminée par des « bulles de filtres » ou « chambre d’écho » qui répond à leur requête, et dont le résultat est avant tout une « offre personnalisée » issue d’une collecte d’information basée sur :

  • Leurs positions,
  • L’analyse historique de recherche,
  • Leur préférence !

Ainsi, alors que l’internaute pense avoir la liberté de choisir ce qu’il regarde, il ne fait que consulter de plus en plus tel « Narcisse », son propre miroir ! On voit que le combat des nouvelles libertés numériques est donc à venir et que l’écosystème organisé sur le marché économique de « la captation de l’intention de l’internaute » doit être réglementé par l’organisation d’une nécessaire transparence. Ce corpus législatif existe mais il est encore transversal et « épars » et en construction aussi par l’interprétation du juge, combinée aux avisrecommandations et décisions des autorités de régulation comme la CNIL. Le Conseil d’État dans son étude annuelle 2014 intitulé « Sur le numérique et les droits fondamentaux » avait fixé déjà des lignes directrices à destination du législateur pour construire notamment un Droit des algorithmes prédictifs, qui au demeurant n’est qu’un des aperçus des problèmes liés à l’utilisation de « l’intelligence artificielle ». Le Conseil d’État soulignait en 2014 que si déjà l’article 10 de la loi du 6 janvier 78 (devenu depuis la promulgation de la Loi Lil3 après la transposition du RGPD l’article 47) interdisait qu’une décision produise des effets juridiques à l’égard d’une personne, et qu’elle soit prise « sur le seul fondement d’un traitement automatisé de données destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité » : Pour les juges du Palais royal, il était nécessaire que le texte de loi alors applicable, ne confère pas aux personnes concernées des droits formels, et il invitait le législateur a imposer toute solution pour en assurer l’effectivité par des règles permettant un accès au contentieux à « Armes égales » (Principe de procédure civile) avec les opérateurs de l’écosystème afin d’éviter que :  Les systèmes présentés comme relevant de « l’aide à la décision » soient presque toujours suivis, et finalement à titre principal commandent la décision et que l’intervention humaine ne devienne qu’un leurre. Pour cela le Conseil d’État préconisait l’organisation d’un corpus de règles destinées à contraindre le responsable de traitement, par exemple la plateforme de propositions de services (gratuites ou payantes), ou le réseau social : À organiser l’effectivité du droit pour la personne concernée par la décision à la contester c’est à dire :

  • D’abord en pouvant avoir accès aux éléments d’information qui avaient permis à l’algorithmes prédictif de prendre la décision,
  • Et ensuite de pouvoir prétendre à l’organisation d’une autre décision que celle proposée par l’algorithme.

En 2014 le conseil d’État recommandait à destination :

  • Du responsable de traitement,
  • Et/ou concepteurs,
  • Et/ou utilisateur de l’algorithme prédictif,

D’abord de tenir des statistiques sur le taux de suivi de la proposition de l’algorithme, ce qui selon lui pouvait être un indicateur important du caractère effectif de l’intervention humaine. Cette procédure se généralise dans les codes éthiques et la future réglementation européenne à venir sur la responsabilité de l’Intelligence artificielle l’organise. Ensuite d’organiser le droit pour la personne concernée de faire valoir ses observations auprès de l’utilisateur de l’algorithme prédictif habilité à prendre la décision en produisant des arguments de nature le cas échéant à contrebalancer la proposition de l’algorithme. Pour parachever cette construction législative du droit de l’algorithme prédictif le Conseil d’État avait posé la première pierre du fondement de l’explicabilité de l’algorithme qui doit se comprendre par rapport à la notion de l’obligation de transparence c’est-à-dire s’expliquer sur : La nature des données personnelles ou pas d’ailleurs utilisées par l’algorithme,  et le raisonnement général de celui-ci. Toujours dans ses recommandations de 2014, le Conseil d’État soulignait que justement la problématique des garanties a donner sur les conditions d’utilisation de l’algorithme prédictif n’était pas « anodine » et devrait être réglementée en donnant notamment l’exemple des moteurs de recherche qui pour présenter les réponses à la requête de l’internaute pouvaient le cas échéant favoriser les services qui lui étaient affiliés !! Lors de ses recommandations de 2014 ce « Biais » préoccupait le Conseil d’Etat au regard de la généralisation de la mise en œuvre de ces algorithmes prédictifs dans l’écosystème des « Plateformes » au sens très large, ce qui devait amener à réfléchir au  principe de l’organisation de ces contrôles de fonctionnement. Il proposait donc que :

  • L’utilisateur,
  • Et/ou producteurs,
  • Et/ou concepteurs de l’algorithme,

Ne puissent opposer le secret industriel au sens très large (secret des affairesclause de confidentialité etc.) de la boîte noire algorithmique, lorsque au bout de la chaîne de l’utilisation la « personne concernée » par le fonctionnement de l’algorithme mettait en œuvre l’effectivité de ses droits tels que reconnus par la Loi Informatique et libertés. Il recommandait à destination du législateur d’organiser par une législation intelligible les droits à la contestation du résultat du fonctionnement de l’algorithme prédictif et que dans ce contexte ce qui importait ce n’était pas : La problématique de la connaissance du fonctionnement interne de l’algorithme, Mais bien pour celui qui a la responsabilité de son fonctionnement de justifier : Du test de la surveillance du résultat du fonctionnement à organiser par différentes approches et procédés. Ce corpus législatif existe actuellement et plusieurs textes se superposent soit :

  • L’article 47 de la loi informatique et libertés, qui reprend et les dispositions antérieures de l’article 10 de l’ancienne version de la Loi Lil,
  • Et le contenu de l’article 22 du RGPD

Je vous proposerai de revenir par d’autres articles sur l’interprétation de ce nouvel article 47 de la Loi Lil interprété à la lumière de l’article 22 du RGPD, les problématiques de lecture et d’application étant « Transversales » à de multiples situations Ces  recommandations de 2014 ont largement inspirées le gouvernement pour sa présentation du projet de loi sur la République numérique de 2016 qui a érigé le principe de la loyauté de la transparence des plateformes codifié dans le code de la consommation à l’article L. 111-7 sur l’obligation pour l’opérateur de plateforme de justifier des conditions de classement ou de référencement au moyen d’algorithmes informatiques des contenus de biens ou de services proposés par la plateforme ou mise en ligne par des tiers. Ce texte n’est pas d’application générale néanmoins au regard de son décret d’application qui ne soumet pas toutes les plateformes à cette obligation, il faut remplir des conditions de seuils. Or le Règlement européen du 20/06/2019 Reg UE 2019/1150 du Parlement Européen et du Conseil dit « Règlement promouvant l’équité et la transparence pour les services d’intermédiation en ligne » justement va généraliser ce principe mis en œuvre par la France de « Loyauté des plateformes » et va réglementer « l’accès à la transparence des données utilisées et détenues par les plateformes ». Cette nouvelle réglementation issue du Règlement européen va « libérer » et amplifier sans doute un contentieux nouveau qui s’amorce autour des principes de la liberté d’entreprise et de la libre concurrence par les « entreprises » qui ont besoin de recourir à cette facilité essentielle offerte par les plateformes pour offrir leurs produits par l’intermédiaire de méthodes de référencement loyales et transparentes. Ainsi s’amorce dans ce domaine aussi la « Transition des habitudes » dans l’écosystème des activités du numériques fonctionnant avec l’intelligence artificielle où se construit le droit pour toutes les personnes concernées consommateurs et/ou entreprises de revendiquer le droit à connaître « l’explicabilité du résultat de leur requête » et/ou « de leur référencement entre autres ». Puis le « Professeur chercheur » Dominique Cardon à la suite de ses collègues a bien confirmé cette même problématique de l’explicabilité et de la transparence des traitements des données personnelles à destination des utilisateurs des réseaux sociaux. S’y pose aussi la question corrélative de la réglementation de la liberté du droit d’expression, du droit à la circulation des connaissances et à la nécessaire préservation aussi de la neutralité de l’Internet à destination notamment des fournisseurs d’accès à Internet (FAI). Ceci pose aussi de réfléchir à moyen terme à la problématique notamment sur les réseaux sociaux de l’organisation d’une « métrique » de la pertinence, et de l’expertise du rédacteur du contenu par l’organisation de métadonnées de présentation de contenus référençant le nombre de citations du contenu, de l’auteur etc. La méthodologie des classements des publications scientifiques qui a créé une écriture normée et spécifique des « métadonnées d’identification de contenus » pourrait être un outil d’inspiration important pour les publications « hors secteur scientifique » stricto sensu. La plateforme Google commence semble t’il à réfléchir à ces « métadonnées de référencement de contenus » incluant des mesures de métriques de classement et d’identification diverses à propos des « jeux de données offertes en ‘Open Data’ » Puis nous avons terminés notre journée de réflexion du mercredi 11 mars par un dernier exposé, par Monsieur Claude KirchnerDirecteur de recherche émérite d’INRIA sur l’Ethique de l’utilisation des technologies numériques, et nous avons réfléchi ensemble à la signification des principaux concepts qui doivent gouverner l’utilisation des technologies utilisant l’intelligence artificielle savoir :

  • Concept d’éthique,
  • Concept moral,
  • Concept de déontologie,
  • Concept d’intégrité,
  • Concept de droit : (normes applicables)

Ce d’autant plus que pour le responsable de traitement qui met en œuvre une technologie numérique utilisant de l’intelligence artificielle, l’argument « Ethique » peut-être à haute valeur ajoutée concurrentielle. Etant précisé que de toutes façons de nombreuses normes d’Ethique rassemblées sous le concept « D’Ethique By Design » existent déjà et à très court terme l’Europe va vraisemblablement légiférer par une Directive sur la « Responsabilité de l’IA » : Voir notre récent post à cet égard :

https://www.cabinetrondeauabouly.fr/details-responsabilite+en+matiere+d+intelligence+artificielle+et+d+autres+technologies+numeriques+emergentes+rapport+de+la+commission+europeenne+du+19+02+2020-139.html

Enfin, nous avons clôturé nos travaux en examinant les enjeux de la Souveraineté numérique notamment au niveau européen, travaux que nous avons partagés avec la réflexion de nos amis auditeurs et auditrices de L’IHEDN. Appliqué à l’écosystème du numérique, la Souveraineté se définit au sens large comme la capacité de l’État à agir dans le Cyberespace en posant des instruments de contrôle sur des périmètres définis dont il apparaît que : Si dans l’univers numérique la donnée au sens très large reste l’élément essentiel puisque qualifiée selon la formule très connue de « L’or noir du XXIe siècle », alors cette métaphore du pétrole appliquée à cette matière première des activités du numérique peut nous aider à « déterminer les bases possibles de l’exercice de la souveraineté des états » en raisonnant sur l’écosystème de la protection des infrastructures de transport des énergies fossiles notamment ainsi : La Souveraineté numérique pourrait s’organiser au niveau européen en réfléchissant à la protection des « infrastructures essentielles » liées à l’activité numérique autour des données comme par exemple :

  • Les câbles sous-marins,
  • Les réseaux de toute nature,
  • Le Cloud, les serveurs et les lieux de stockage.
  • Les problématiques d’interopérabilité des systèmes avec la connectivité des liaisons

Ne participe-t-il pas de la « Souveraineté » aussi de déterminer et d’augmenter la réglementation actuelle d’avoir pour certaines activités l’obligation de stocker les données sur des serveurs obligatoirement situés sur le territoire européen ? Et finalement, ne faut-il pas reposer la question d’une nouvelle organisation du fonctionnement et de la protection du « Cyberespace ». Par ailleurs l’Europe a été la première à organiser la mise en œuvre de l’open data de données publiques de très grande valeur comme notamment celles du « climat », « de l’astronomie » etc. Ces données mises en « Open Data » réutilisées par des entreprises privées le cas échéant organisées en situation de monopole ont-elles profitées à l’Europe, lui permettant d’avoir un retour proportionné en valeur issu de son travail d’ouverture et de mise à disposition de ses données publiques ? Un bilan d’application notamment des avantages de « L’open science » en Europe pour appréhender la proportionnalité des avantages pour les développements dont l’Europe à profité serait intéressant dans cette grande remise à plat du questionnement sur l’organisation de la « souveraineté numérique ». Nos travaux se sont terminés, « curieux hasard » à l’heure où le Président de la République française dans son « discours important » du jeudi 12 mars 2020 posait au niveau national, les bases d’un plan de lutte visant à éradiquer la contamination par le virus « Covid-19 » afin de protéger dans les conditions optimales la population française. À cette occasion Monsieur le Président de la République a bien souligné que plus rien ne serait comme avant et qu’il y aurait à s’interroger sur les protections spécifiques de certains secteurs qui désormais devraient être redéfinis comme par exemple :

  • La santé,
  • Et certaines activités,

Le Commissaire Européen au numérique Monsieur Thierry Breton quelques semaines auparavant avait lui-même souligné que l’Europe devait aussi s’attacher à protéger bien au-delà de la donnée personnelle la « donnée industrielle », élément d’activité essentielle aux technologies numériques émergentes, préoccupation qui pourrait participer effectivement sur certains secteurs des nouvelles redéfinitions et réflexions sur la mise en place de l’organisation d’une Souveraineté numérique européenne. Telles sont ici mes commentaires très personnels à partir des travaux de réflexion auxquels j’ai participé en ma qualité d’auditeur de L’IHEST promotion Wangari Maathai 2019-2020. Je reviendrai par d’autres articles plus ciblés sur ces problématiques relevant de la Transition numérique et notamment sur celles liées à l’utilisation des algorithmes et à l’émergence des nouvelles règles sur la responsabilité induite par l’utilisation de l’Intelligence artificielle et des Technologies émergentes. Si la lecture de cet article en lien avec les travaux de L’IHEST vous a intéressée, j’invite lectrices et lecteurs à se rendre sur le site de L’IHEST qui a ouvert sa campagne de recrutement des auditeurs de la prochaine session (2020-2021qui continuera à travailler sur les Transition et s’intéressera spécifiquement à : Transitions : Affronter les transitions, entre prise de conscience paradoxes et initiatives. L’IHEST s’est donné comme mission à destination des décideurs quels qu’ils soient de favoriser la démarche scientifique, en menant annuellement des travaux de réflexions conçus pour favoriser la circulation de la connaissance sur la diversité des recherches en ouvrant la démarche scientifique à la pratique professionnelle de tous les acteurs de la société civile qu’ils soient chercheurs ou pas. Chaque session englobe dans ses travaux de réflexions des voyages à l’étranger et en région française, nous concernant nous sommes partis en Février au Maroc et nous avions programmé un second séminaire d’étude en Avril en Espagne !!!! Mais le Coronavirus en a décidé différemment !!!

https://www.ihest.fr/

Conclusions J’en terminerai pour vous présenter la figure tutélaire de notre promotion d’Auditeurs 2019-2020, soit la « biologiste-chercheur » originaire du Kenya : Wangari Maathai : C’est à la presque quasi-unanimité de notre promotion que nous avons fait le choix de désigner une femme, et comme nous avions un séminaire cette année en Afrique, continent en pleine expansion et parfaitement conscient des enjeux liés à toutes les transitions, et notre époustouflante visite du Maroc en Février qui est un pays en totale mutation « digitale », nous l’a démontré, nous avons donc choisi de rendre hommage à la : Première femme d’Afrique de l’Est et d’Afrique centrale, Docteur ès sciences et professeur d’université et première africaine à recevoir le prix Nobel de la paix. Etudiant  cette année toutes les problématiques liées aux transitions comme défi sociétaldémocratique et pour la connaissance afin de réfléchir pour ces sujets à promouvoir les enjeux démocratiques de la culture scientifique afin d’instaurer des rapports de confiance entre la science et la société ; baptiser notre promotion « Wangari Maathai» signait une convergence évidente avec  les valeurs portées par le parcours scientifique de cette femme remarquable qui s’est mise au service d’enjeux environnementaux et de sociétés majeurs et qui a mené à son niveau un combat exemplaire pour le développement durable dans un contexte de transition qui déjà s’annonçait, mais qui n’intéressait que bien peu de personnes !!! La devise de Wangari Maathai se résume dans cette citation : « Chaque arbre est le symbole vivant de la paix et de l’espoir, avec ses racines profondément ancrées dans la terre et ses branches qui s’élancent vers le ciel, il nous dit que pour aspirer à aller toujours plus haut, nous aussi nous devons t’être bien enracinés au sol car, aussi haut que nous nous énoncions, c’est toujours dans nos racines que nous puisons notre force ». La grave crise sanitaire que nous vivons en ce moment modifiera très certainement notre rapport à la Nature et à la Collectivité. A l’issue nous devrons sans doute et ce rapidement poser de nouvelles bases pour inclure dans nos pratiques individuelles et professionnelles le souci de prendre en compte la finalité du « Bien commun », tout en respectant les libertés individuelles parmi lesquelles celle « d’entreprendre » en mettant en œuvre cette pure impulsion humaine du   « pouvoir vouloir » et de « choisir » qui fonde depuis la nuit des temps  « l’organisation du monde » ; mais en y rajoutant un nouvel « élément » qui devrait passer pour chaque acte « choisi » d’y inclure de   « savoir conjuguer différence et respect de l’autre » , ce sans imposer par la force une « uniformisation » dictée par une intelligence artificielle qui ne soit plus loyale. Notre intérêt personnel et nos libertés essentielles doivent se redéfinir en respectant ces principes qui pourraient devenir les fondamentaux de notre nouvelle « Humanité numérique » ; et rassurons-nous l’environnement juridique le permet déjà et la « plasticité du Droit » permettra les adaptations et constructions nécessaires !!!! Oui, à tous égards nous ne le savions pas encore quand nous avons voté le choix du nom de notre promotion mais la référence à la démarche et à l’engagement d’une femme volontaire et courageuse était prémonitoire. Et depuis le 14 Mars 2020, pour chaque jour à venir désormais pour nousnos enfants et toutes les personnes que nous aimons nous nous devons et devrons de faire vivre en nous l’énergie de cet arbre « vivant » si cher à Wangari Maathai, et d’unir le ciel à notre terre, et nos « racines » n’en seront que plus fortes et solides pour les nouveaux fruits de l’espérance que le meilleur est à revenir. Rédigé à Marseille le :19 Mars 2020 Véronique RONDEAU Abouly Avocat au barreau de Marseille et DPO externe. Auditeur IHEST 2019-2020 promotion « Wangari Maathai » La rédaction de cet article a été conçue et organisée pour vous soumettre des informations utiles, des axes de réflexion pour une utilisation personnelle ou à visée professionnelle. Il est mis à jour régulièrement mais dans un contexte réglementaire et jurisprudentiel évoluant, nous soulignons que nous ne pouvons être responsable de toute péremption du contenu, ou de toute erreur juridique et/ou inexactitude qui pourrait se révéler en fonction de l’évolution,  le lecteur voudra bien considérer qu’en tout état de cause pour une application personnalisée chaque cas est unique et que bien sûr le cabinet reste à votre disposition si vous avez une question précise à poser en lien avec cet article, nous nous ferons un plaisir de collaborer avec vous, n’hésitez pas à prendre contact ou à nous téléphoner.  

  • Mots-clefsIntelligence artificielle- transition numérique-algorithme prédictif-IHEST- Wangari Maathai