Le vrai défi de l’Intelligence Artificielle : Le déploiement de l’Open Science

On parle de plus en plus de l’intelligence artificielle avec le rapport élaboré par le député Cédric VILLANI et récemment remis au Gouvernement. La lecture de ce rapport remet dans l’actualité le rapport de synthèse sur l’intelligence artificielle qui avait été déposé le 22 mars 2017 auprès du Ministère de l’Economie et des Finances à l’initiative de l’ancienne secrétaire d’Etat Axelle LEMAIRE où l’on constate qu’à près d’ un an d’intervalle, les mêmes problématiques demeurent par rapport aux enjeux notamment juridiques de l’évolution à venir. L’économie de l’intelligence artificielle est un défi protéiforme pour l’Etat français, mais au-delà de la formulation qu’en dire ? En tout cas ce défi se fédère autour d’un terme dont il va falloir apprendre toutes les nuances et implications :             C’est celui de l’Open Science (OS). Qu’est-ce à dire ? Très brièvement, on rappellera que parler d’intelligence artificielle, c’est essentiellement parler des algorithmes. En soi, l’intelligence artificielle n’est pas un phénomène nouveau, ce qui l’est, ce sont les conséquences du couplage entre les capacités de calcul des algorithmes de plus en plus puissantes, et le traitement des données de plus en plus « massives et matures » avec l’accroissement des capacités de stockage et un développement continu de nouvelles méthodes d’algorithmes comme l’apprentissage profond « deep learning » et les « réseaux de neurones ». C’est ce mariage entre puissance de calcul des algorithmes et « traitement de la donnée » qui multiplie à une vitesse insoupçonnée les innovations de toute sorte dans tous les domaines d’activité :

  • Services et produits,
  • Modèles marketing et commerciaux,
  • Economie de la santé.

Rapport de synthèse France Intelligence Artificielle page 1 paragraphe 1 (2017). Notamment, le véhicule autonome dont le décret d’application vient de paraître le 27 mars 2018 confirme combien le traitement de la donnée est important dans ce système comme dans toutes les fonctionnalités des objets connectés. (Un commentaire de ce décret est à paraître sur le site sous quelques jours, et nous reviendrons aussi sur le commentaire du rapport VILLANI sur l’intelligence artificielle de 2018). Donc l’intelligence artificielle recouvre en fait un ensemble de nouvelles règles et notions qui constitue déjà notre environnement actuel, et sont sources de nouveaux comportements  qui vont encore évoluer. Ainsi, là où l’intelligence artificielle a la mauvaise image d’être destructrice d’emplois et de compétences, là où nombre de commentateurs la présente de manière négative, il est temps d’avoir la volonté prométhéenne de devenir acteur des évolutions à venir en prenant plaisir pour chacun à prendre notre juste place. Si l’on veut bien « traverser le miroir » des projections négatives, sur l’intelligence artificielle, on peut se convaincre qu’elle est un domaine riche de promesses notamment pour la création de nouveaux métiers. Le rapport de synthèse France Intelligence Artificielle le souligne en regroupant en page 5 paragraphe 2, les sujets de recherche dans les grands domaines liés à l’intelligence artificielle en France notamment que sont :

  • « Apprentissage automatique, représentation des connaissances, modélisation des raisonnements, gestion de l’incertitude, satisfaction de contraintes, planification recherche heuristique, agents autonomes, systèmes multi-agents, web sémantique, traitement automatique des langues, robotique, vision, reconnaissance des formes, modélisation de la cognition, systèmes neuro-informationnels etc.».

Au regard de ces domaines de recherche ainsi caractérisés, l’intelligence artificielle pose les problématiques autour des questions du transfert des technologies des laboratoires des chercheurs vers les entreprises avec un but avoué, permettre l’industrialisation des produits de l’intelligence artificielle rapidement, ce qui n’est possible qu’avec l’émergence de « l’Open Science ». « L’Open Science » de manière rapide, est le terme qui désigne comment doit se partager la connaissance de participants multiples, pour résoudre un problème commun pour pousser de plus en plus loin l’innovation acquise et l’améliorer. Dans les participants multiples se trouvent « entreprises, individus, fournisseurs, distributeurs, chercheurs en laboratoire, universitaires etc. » Donc « l’Open Science » n’est pas sans rappeler la notion de « l’Open Source » qui en matière de logiciel libre notamment, a imposé les modalités d’un accès de tous et pour tous de la connaissance pour organiser une collaboration mondiale entre les chercheurs à partir des nouveaux outils de la communication informatique. Donc « l’Open Science » est une déclinaison plus récente ici d’un modèle économique tendant à permettre le partage des données, notamment des données scientifiques et techniques avec tous les outils y afférents. Le déploiement de l’intelligence artificielle dans les entreprises et les laboratoires de recherche publics ou privés est indissociablement lié à la disponibilité des données et des infrastructures numériques permettant de les traiter. Et ici appliqué à l’intelligence artificielle sous le vocable de « données nécessaires » on voudra bien comprendre au sens très large du terme la notion « d’information scientifique et technique ». La délégation à l’intelligence artificielle de la construction de modèles prédictifs fiables, impose que les « données prétraitées » qui seront utilisées par l’algorithme comme par exemple le « deep learning » soient fiables et intègres. Le niveau d’intégrité ou de fiabilité d’une donnée utilisable par l’intelligence artificielle aura un niveau différent selon sa catégorisation :

  • Données à caractère personnel,

Et/ou

  • Données techniques ou issues de la recherche qui vont constituer de plus en plus des actifs stratégiques pour leurs détenteurs.

Et le rapport de synthèse « France Intelligence Artificielle » précisait d’ailleurs en page 7 paragraphe 1, que pour la France en particulier pour alimenter les phases d’apprentissage machine, le manque de données en langue française était un problème. Pour les technologies d’intelligence artificielle, actuellement, bien au-delà de la recherche d’activité et/ou de financements nécessaires au développement de l’activité, l’un des problèmes cruciaux actuels est d’avoir à disposition la personne ou le service idoine qui pourra résoudre de rendre accessible aux solutions techniques existantes l’intégration de « données » qualitatives. Une donnée qualitative pouvant être intégrée dans un système d’intelligence artificielle devra avoir à cet égard une qualité protéiforme par rapport :

  • A sa qualité technique: si c’est une donnée issue de la recherche scientifique,
  • A sa qualité juridique: être libre de droit ou pas,
  • A sa qualité éthique : c’est-à-dire compatible avec les sciences humaines et sociales par rapport à leur finalité d’utilisation où la donnée utilisable est intégrable à un système d’intelligence artificielle devra être travaillée pour être conforme à la définition de solutions sécurisées et respectueuses aussi de la vie privée, par défaut « Privacy by Design» et « Security by Design », ce au sens très large du RGPD et aussi de la Convention 108 du Conseil de l’Europe.

Ce qui suppose donc que les systèmes reposant sur l’intelligence artificielle devront améliorer la transparence et la loyauté du traitement de leurs données de fonctionnement. Deux notions qui feront partie de la qualité protéiforme de la donnée nécessaire au fonctionnement du système d’intelligence artificielle. Pour pouvoir être conforme à tous ces critères, le système économique à venir est indissociable de la fédération d’un système qui organisera la « marchandisation des connaissances par l’Open Science ». Il s’ensuit que l’économie de l’intelligence artificielle sera nécessairement « collaborative », ce qui ne veut dire ni « gratuite », ni « ouverte sans condition ». L’économie collaborative de l’intelligence artificielle passe par la création de plateformes d’exposition de briques technologiques et de mise à disposition de donnéesRapport de synthèse France Intelligence Artificielle page 11 paragraphe 2. La finalité de ces plateformes étant que chaque déposant puisse ouvrir à la connaissance leurs briques technologiques à une audience la plus large possible. En effet, pour le rapport de synthèse France Intelligence Artificielle page 11 paragraphe 3 :

« Ces plateformes mutualisées dans lesquelles ces entreprises mettraient à disposition leurs briques technologiques pour des tests par des tiers, pourraient par exemple apporter une réponse concrète à ce nécessaire enjeu de la circulation de la connaissance ».Et être focalisées sur une ou plusieurs thématiques techniques horizontales (par exemple analyse de textes, vision par ordinateur etc.), et proposer des interfaces documentées permettant une prise en main rapide des briques exposées.Via ce dispositif il apparaît qu’ainsi, les intégrateurs pourront avoir une plus grande visibilité par exemple sur les solutions françaises disponibles et les tester facilement pour évaluer leur intérêt dans les champs d’application des systèmes qu’ils s’apprêtent à développer.La mise à disposition de ces données partagées au sein de l’ensemble de la communauté de recherche (publiques et/ou privées) nécessitant bien sûr la définition de métriques et de données techniques qui garantissent l’interopérabilité des solutions où il sera nécessaire de disposer de normes et de standards partagés ».

Extrait précité rapport France Intelligence Artificielle Donc l’on comprend que ce partage de données notamment techniques issues de la recherche, va imposer une nécessaire révision de notre législation interne sur les droits de propriété intellectuelle : (droits d’auteur, brevets, partage des données issues de la recherche et/ou de la collaboration sur les plateformes ; condition de la collaboration et de l’utilisation des métadonnées finales et de leur libre circulation). Le chantier de l’intelligence artificielle c’est donc aussi le nécessaire chantier de la rénovation des droits applicables à la propriété du savoir et de l’expérience à organiser dans les règles de fonctionnement de « l’Open Science ». Tout ceci se cumulant d’ailleurs avec la mise en œuvre de l’application de la nouvelle règlementation sur la protection des données personnelles issues de l’application directe à compter du 25 mai 2018 du règlement en procédant (RGPD), l’intelligence artificielle est donc bien un domaine qui va nécessiter de nouvelles compétences et spécialités et porteur de grandes espérances tant les chantiers à ouvrir sont nombreux. Particulièrement dans le domaine du droit où se pose déjà pour l’utilisateur de « la donnée personnelle » ou « donnée technique » ou du « fichier numérique de données », de recourir à l’assistance d’un juriste spécialisé ou « Data Scientist » pour l’accompagner dans la détermination de ses droits sur la donnée au sens très large du terme comme il a été exposé ci-avant. Si vous souhaitez déterminer vos droits sur les données ou contenus numériques que vous achetez, vendez ou développez : Contactez  :  Maître Véronique RONDEAU-ABOULY, Avocat à Marseille 51, rue Sainte 13001 Marseille, tel : 04 91 55 52 61, mail : cabinet@rondeau-abouly.com.