Intervention de Dominique Gillot

Réunion du 28 juin 2016 à 18h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Dominique Gillot, sénatrice, membre de l'OPECST :

– L'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) a été saisi, le 29 février 2016, par la commission des affaires économiques du Sénat, d'une étude sur l'intelligence artificielle. Lors de la réunion de l'Office tenue le 18 mai 2016, M. Claude de Ganay, député, et moi-même avons été désignés comme rapporteurs de cette étude. Dans ce contexte marqué par des délais contraints, nous avons réalisé l'étude de faisabilité qui vous a été distribuée. Je remercie l'administrateur qui nous a assisté, tant pour son investissement que pour sa diligence.

J'ai été sensibilisée aux enjeux de ce sujet par le colloque annuel de la conférence des présidents d'université (CPU) organisé l'année dernière autour du thème « Université 3.0 ». Deux lettres d'avertissement parues respectivement en janvier et en juillet 2015 ont également retenu mon attention. La première, signée par sept cents scientifiques et chefs d'entreprise, rejoints par plus de cinq mille signataires en un an, portait sur les dangers potentiels de l'intelligence artificielle. La seconde, signée par plus de mille personnalités, demandait l'interdiction des robots tueurs, à savoir les armes autonomes qui sélectionnent et combattent des cibles sans intervention humaine, arguant du fait que l'intelligence artificielle pourrait, à terme, être plus dangereuse que des ogives nucléaires.

Ces deux avertissements ont cherché à alerter l'opinion publique et à témoigner de l'urgence d'une définition de règles éthiques et d'une charte déontologique pour cadrer la recherche scientifique, qu'elle soit publique ou privée. En effet, les progrès en intelligence artificielle se font à une vitesse exponentielle et reposent de plus en plus sur un financement privé aux moyens considérables et poursuivant des objectifs parfois non avoués.

Lors de sa leçon inaugurale au Collège de France, le 4 février 2016, le Pr Yann LeCun, directeur du laboratoire d'intelligence artificielle de Facebook et professeur d'informatique et de neurosciences à l'université de New York, faisait valoir que « Comme toute technologie puissante, l'intelligence artificielle peut être utilisée pour le bénéfice de l'humanité entière ou pour le bénéfice d'un petit nombre aux dépens du plus grand nombre ». M. Stephen Hawking, professeur de mathématiques connu pour ses contributions dans les domaines de la cosmologie et la gravité quantique, a déclaré, l'année dernière, dans un entretien à la BBC que « Les formes d'intelligences que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés ». En 2015, Bill Gates, le fondateur de Microsoft, s'est aussi inquiété des progrès de la super-intelligence : « Dans quelques décennies, l'intelligence sera suffisamment puissante pour poser des problèmes ».

En effet, l'actualité nous rappelle les résultats de plus en plus significatifs obtenus en intelligence artificielle mais aussi les risques liés à celle-ci :

- le premier accident responsable de la voiture autonome de Google, la « Google Car », a eu lieu le 14 février 2016 ;

- « Tay », un avatar algorithmique créé par Microsoft dans le but de conduire des conversations sur Twitter, est devenu raciste en miroir de ses interlocuteurs quelques heures après son activation, le 23 mars 2016 ;

- le 15 mars 2016, le système d'intelligence artificielle AlphaGo a battu le champion de Go, M. Lee Sedol. Cette victoire, médiatisée à juste titre, marque l'histoire des progrès en intelligence artificielle et contredit la thèse de ceux qui estimaient une telle victoire impossible, tant le jeu de Go exige une subtilité et une complexité propres à l'intelligence humaine.

Le sujet de l'intelligence artificielle alimente donc, de manière grandissante, des espoirs, des utopies, des fantasmes et des peurs, comme le montre une enquête d'opinion récente de l'IFOP présentée dans l'introduction de la présente étude de faisabilité.

L'Institut du futur de la vie ou Future of Life Institute (FLI), qui est à l'origine, en janvier 2015, de la lettre d'avertissement sur les dangers potentiels de l'intelligence artificielle, affirmait que, étant donné le grand potentiel de l'intelligence artificielle, « Il est important d'étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges ».

La peur ne doit pas paralyser : nous ne voulons pas tomber dans la solution de facilité qui serait de faire un usage extensif du principe de précaution et donc de limiter, a priori, la recherche en intelligence artificielle. Une telle démarche serait contraire à l'esprit scientifique et serait également préjudiciable à l'intérêt national : sans rivaliser directement avec les États-Unis d'Amérique ou le Japon, la France dispose d'atouts considérables en matière de recherche en intelligence artificielle et ne doit pas perdre cet avantage comparatif, au risque de se placer hors-jeu dans la compétition internationale engagée.

L'OPECST ayant pour vocation d'anticiper les questions complexes d'ordre scientifique et technologique qui pourraient se poser au législateur, il lui revient de fournir des explications circonstanciées sur des enjeux dont les risques et les opportunités auraient été difficiles à identifier sans notre travail ou, alors, seraient restés dépourvus d'objectivité.

Or l'Office n'a jamais travaillé directement sur l'intelligence artificielle, ce qui plaide pour la poursuite de notre travail. Certains enjeux de l'intelligence artificielle, tels que son impact sur la santé, la protection des données ou les moyens de transport, ont pu être abordés et entrevus à l'occasion de certaines de nos études mais il semble nécessaire d'approfondir cette connaissance au moyen d'une étude plus poussée, surtout qu'aucun travail analogue n'a été conduit en dehors de l'OPECST.

Ainsi, d'après nos recherches, aucun rapport public ne fait le point sur les technologies d'intelligence artificielle ainsi que sur les opportunités et les risques qu'elles représentent. Différents travaux récents sur l'intelligence artificielle sont récapitulés dans notre étude mais ils ne sont pas de nature à dispenser l'OPECST d'engager une réflexion plus approfondie sur ce thème.

Comme le prévoit l'article 19 du règlement intérieur de l'OPECST, nous avons bénéficié du concours du Conseil scientifique de l'Office en prenant l'attache d'un de ses membres, M. Laurent Gouzènes, spécialiste en intelligence artificielle.

L'objectif de notre rapport sera donc d'aller au-delà des apparences et de regarder la réalité scientifique derrière les inquiétudes et angoisses s'exprimant face au développement de l'intelligence artificielle. Le débat public ne peut pas s'engager sereinement dans l'ignorance des technologies mises en oeuvre, de la méthode scientifique et des principes de l'intelligence artificielle. Lors de la victoire d'Alphago, une fièvre médiatique a, par exemple, conduit à dire tout et n'importe quoi. C'est pourquoi nous voulons mettre en lumière ces technologies en constante évolution.

Nous nous demandons aussi comment développer une culture de la responsabilité et une prise en compte des questions éthiques au sein de la communauté des chercheurs en intelligence artificielle et en robotique et même au-delà. La question de l'éthique en robotique a, d'ailleurs, fait l'objet du premier rapport de la commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique (CERNA) de l'alliance des sciences et technologies du numérique (Allistene). Il ne faut jamais oublier que « science sans conscience n'est que ruine de l'âme », ainsi que l'affirmait Rabelais.

Vous trouverez, dans notre étude, un point sur les technologies existantes d'intelligence artificielle. Il faut en retenir que les techniques utilisées sont très diverses, ce qui traduit la variété des formes d'intelligence en général. Elles vont de formes explicites à des formes plus implicites. Ainsi, du côté des formes explicites, nous rappelons les cas des systèmes experts et des raisonnements formels, qui correspondent à diverses logiques ou grammaires. Les formes plus implicites partent de la difficulté liée aux algorithmes classiques de gérer la complexité : l'explosion combinatoire des comportements possibles justifie de confier à des programmes le soin d'ajuster un modèle adaptatif permettant de simplifier cette complexité et de l'utiliser de manière opérationnelle en prenant en compte l'évolution de la base des informations pour lesquelles les comportements en réponse ont été validés.

On parle d'apprentissage automatique, ou machine learning, lorsque les ordinateurs peuvent apprendre et améliorer le système d'analyse ou de réponse. Cet apprentissage est dit supervisé lorsque le réseau est forcé à converger vers un état final précis. À l'inverse, lors d'un apprentissage non-supervisé, le réseau est laissé libre de converger vers n'importe quel état final. Entre ces deux extrêmes, l'apprentissage peut-être semi-supervisé ou partiellement supervisé. L'apprentissage automatique peut aussi reposer sur deux autres systèmes : l'apprentissage par renforcement et l'apprentissage par transfert.

Les algorithmes génétiques et les réseaux de neurones prennent en compte l'apprentissage de manière encore plus implicite.

Les algorithmes génétiques appliquent ainsi les mécanismes fondamentaux de l'évolution et de la sélection naturelle à des problèmes d'optimisation. On code les caractéristiques des objets manipulés et on définit une fonction qui évalue la valeur attribuée à chaque objet. On fait évoluer une population initiale en créant de nouveaux objets à partir des anciens et en permettant diverses mutations. La sélection permet alors d'éliminer les objets les moins efficaces.

Un réseau de neurones artificiels est constitué d'un ensemble d'éléments interconnectés, chacun ayant des entrées et des sorties numériques. Le comportement d'un neurone dépend de la somme pondérée de ses valeurs d'entrée. Si cette somme dépasse un certain seuil, la sortie prend une valeur positive ; sinon, elle reste nulle. Un réseau peut comporter une couche d'entrée (les données), une de sortie (les résultats) et une ou plusieurs couches intermédiaires, avec ou sans boucles. Les réseaux de neurones artificiels peuvent être à apprentissage supervisé ou non – ils sont le plus souvent supervisés, comme dans le cas du Perceptron conçu en 1957 par Frank Rosenblatt – avec ou sans rétro-propagation.

L'apprentissage profond, ou deep learning, regroupe des méthodes plus récentes d'apprentissage automatique, ou machine learning. Les réseaux de neurones profonds et les réseaux de neurones convolutifs sont des exemples d'architectures d'apprentissage profond.

Trois autres outils d'intelligence artificielle peuvent, enfin, être rappelés ici. La programmation par contraintes, qui se rapproche plus d'un raisonnement humain, les raisonnements à base de cas, qui se fondent sur la notion d'analogie et, enfin, les systèmes multi-agents, qui représentent une forme d'intelligence plus sociale.

Comme vous pouvez le voir aux pages 35 et 36 de l'étude, les outils d'intelligence artificielle sont de plus en plus systématiquement utilisés conjointement en combinant plusieurs techniques.

Ces outils se sont développés, ces dernières années, avec l'explosion du traitement des données massives, ou big data, et l'augmentation des vitesses de calcul, ainsi qu'en témoigne la loi de Moore, qui exprime une croissance exponentielle illustrée par un graphique dans notre étude.

La recherche française en intelligence artificielle est reconnue. Dans les années 1980, Claude-François Picard animait le « GR 22 ». MM. Jacques Pitrat, Jean-Louis Laurière, Jean-François Perrot et Jean-Charles Pomerol y ont, par exemple, travaillé. En 1987, il a pris le nom de LAboratoire FORmes et Intelligence Artificielle (LAFORIA) puis a rejoint l'Institut Blaise Pascal (IBP) en 1989, qui a lui-même donné naissance, en 1997, au Laboratoire d'Informatique de l'université Paris 6 dit « LIP6 ». La reconnaissance internationale de nos travaux doit beaucoup à nos universités, au CNRS, à nos grandes écoles, telles que les centres de recherche de l'Institut Mines-Télécom mais aussi, plus spécifiquement, à deux organismes : le Commissariat à l'énergie atomique et aux énergies alternatives (CEA) et l'Institut national de recherche en informatique et en automatique (INRIA). Les principaux laboratoires du CNRS en intelligence artificielle sont rappelés dans notre étude.

Pour conclure et avant de laisser la parole à notre collègue, le député Claude de Ganay, je retiens de notre tableau de la recherche en intelligence artificielle qu'il conviendra de tirer toutes les conséquences du caractère pluridisciplinaire croissant de la recherche en intelligence artificielle et répondre au défi de la prise en compte des enjeux de long terme. À propos de l'interdisciplinarité, je relève que l'intelligence artificielle, issue des mathématiques, de la logique et de l'informatique, fait, depuis des décennies, de plus en plus appel à la psychologie, à la linguistique, à la neurobiologie, à la neuropsychologie et au design. Dans la période plus récente, elle s'ancre encore davantage dans les sciences cognitives et mobilise les outils de la génétique et de la sociologie. D'ailleurs, c'est au croisement de ces différentes disciplines que nous avons été amenés à entendre parler des enjeux de l'intelligence artificielle.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion