Intervention de Jean-Yves Le Déaut

Réunion du 8 juillet 2015 à 17h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Photo issue du site de l'Assemblée nationale ou de WikipediaJean-Yves Le Déaut, député, président de l'OPECST :

- L'audition publique sur « La place du traitement massif des données (Big Data) dans l'agriculture : situation et perspectives » s'est tenue le 2 juillet à la demande conjointe du premier vice-président Bruno Sido et de moi-même.

Elle a été organisée pour répondre à une préoccupation manifestée par des responsables de l'INRA et de l'IRSTEA et par des représentants du monde agricole lors de la visite que nous avons effectuée ensemble au dernier salon de l'agriculture, en mars dernier.

Nous avons été alertés sur le fait que des constructeurs d'équipements (tracteurs et autres) placeraient des capteurs couplés à des systèmes de transmission de données (c'est-à-dire ce qu'on appelle des « objets connectés ») sur les machines qu'ils vendent, pour recueillir des informations et alimenter des traitements de type Big Data.

La sollicitation nous a paru très sérieuse, et nous sommes revenus du salon avec l'idée de creuser ce sujet dans le cadre d'une audition publique ouverte à la presse, suggestion que le bureau de l'OPECST a appuyée le 10 juin.

Ce sujet fait en effet typiquement appel aux compétences de l'OPECST telles qu'elles lui sont dévolues par la loi du 8 juillet 1983, c'est-à-dire explorer les questions relevant de l'évolution des sciences et des technologies pour détecter à l'avance les enjeux législatifs qui peuvent leur sont associés.

Cette audition a fourni l'occasion d'aborder, pour la première fois à l'OPECST, la problématique du Big Data et des objets connectés en tant que tel ; c'était l'objet de la première table ronde de l'audition, qui avait une vocation pédagogique pure.

Cette table ronde a retenu comme définition du Big Data la capacité à effectuer des traitements massifs de données et à offrir des services associés. Elle a mis en lumière les ruptures techniques à l'origine de la capacité d'accumulation d'un nombre considérable de données, multipliée par un milliard de 1950 à nos jours, le prix de stockage à l'unité diminuant lui-même parallèlement d'un facteur de l'ordre du milliard. Entre temps, les progrès de la programmation ont conduit à la mise au point d'algorithmes adaptés au traitement de volumes considérables d'informations, qui s'attachent à découvrir, via ce qu'on appelle le Data Mining, des motifs récurrents dans les flux de données.

Cela a rendu possible des services d'un type nouveau permettant de mieux cibler les offres commerciales à partir d'une analyse plus fine des comportements de consommation, mais aussi de repérer des « signaux faibles » au-delà des phénomènes directement accessibles, ce qui est utile, par exemple, pour identifier la survenue imminente de pannes, et organiser en conséquence une maintenance prédictive.

S'agissant des conditions pratiques de la mise en oeuvre du Big Data en agriculture, qui faisait l'objet de la deuxième table ronde, les données proviennent d'objets connectés qui analysent, par exemple, l'hétérogénéité de l'état des parcelles, les paramètres d'ambiance au sein des bâtiments et des serres, ou renseignent sur la santé des animaux. Le traitement des données fournit des outils d'aide à la décision, par exemple concernant le moment optimal d'épandage d'un fertilisant, mais aussi pilote des systèmes entièrement automatisés comme les régulateurs de température ou d'hygrométrie, les robots de traite ou les doseurs d'engrais embarqués s'ajustant sur la productivité différenciée des parcelles. Ce traitement des données alimente aussi des systèmes de surveillance pouvant déclencher des alertes sanitaires. La précision de ces dispositifs est encore accrue par l'élargissement de la base du traitement à l'ensemble des exploitations, permettant de caler les analyses sur des références multiples.

A partir du constat que la diffusion des techniques du Big Data devient clairement un enjeu de compétitivité pour l'agriculture, la troisième table ronde avait pour objet d'envisager les démarches stratégiques possibles, sachant que la constitution d'une capacité d'offre performante suppose un minimum de souveraineté.

Il s'agissait notamment d'examiner le degré de maîtrise que les agriculteurs et les pouvoirs publics peuvent et doivent avoir sur l'installation de capteurs ou objets connectés, compte tenu des conséquences que le développement des services fondés sur le Big Data ont, ou auront, pour la souveraineté nationale ou européenne dans le domaine de l'agriculture.

Aujourd'hui, une partie des données produites par les objets connectés est récupérée directement par les fabricants d'équipements comme John Deere. Et comme l'a signalé M. Stéphane Grumbach de l'INRIA, le rapide succès, depuis 2006, de Climate Corporation illustre le risque pour l'Europe de tomber bientôt sous une nouvelle forme d'emprise américaine à l'image de celle déjà à l'oeuvre dans le numérique : à partir d'un retraitement de données météorologiques permettant de piloter l'arrosage en lien avec de capteurs installés dans les champs, l'activité de Climate Corporation s'est étendue à la fourniture d'assurances pour aujourd'hui près de la moitié des surfaces céréalières aux États-Unis ; en 2013, elle est passée sous le contrôle de Monsanto.

L'offre américaine occupe ainsi une position de force sur les services associés au Big Data, et l'emprise qui en résulte pourrait se traduire par une atteinte à l'indépendance de la production agricole française et européenne.

M. Pierrick Givone, directeur général délégué à la recherche et à l'innovation de l'Irstea, a rappelé que l'information sur l'état des récoltes avait une valeur stratégique au temps de la guerre froide, au point que les Américains avaient lancé les satellites Lansat pour surveiller l'agriculture soviétique, et que, d'ores et déjà, en l'absence d'alternative européenne, tant que Galiléo ne sera pas pleinement opérationnel, la moitié des tracteurs français équipés de GPS verront leur performance dépendre entièrement du bon vouloir des autorités américaines.

Vis-à-vis du risque de mainmise nord-américaine, il a été constaté que l'ensemble des participants rejetaient tout à la fois l'angélisme et le protectionnisme, et prônaient une reprise en main collective de la gestion des données par l'ensemble des acteurs du secteur ; cette démarche collective étant unanimement perçue comme plus efficace qu'une réaction en ordre dispersé. Cela passe par un soutien politique fort à la mise en place d'une plateforme commune de gestion des données, d'abord à l'échelle de la France ; mais cette démarche est conçue d'emblée comme ouverte, en mode Open Source, et ensuite comme annonciatrice d'une solution élargie au niveau européen.

A cet égard, M. Pierre-Philippe Mathieu de l'ESA a présenté l'apport potentiel des satellites Sentinel 1 et 2, qui prennent en charge la composante spatiale du programme européen Copernicus d'observation de la Terre et qui fournissent des images précises, à dix mètres près, des zones agricoles.

Ce dispositif n'a pas d'équivalent dans le monde. La transparence qu'il induit sur l'évolution des récoltes permettra de mieux préserver les habitants de la planète contre les tentatives de manipulation des cours.

Les données sont accessibles en mode Open Source. En lien avec la Banque mondiale notamment, des aides sont prévues pour les entrepreneurs qui participent à l'exploitation des données, afin de les transformer en informations directement utiles, par exemple pour envoyer un SMS à l'agriculteur lui signalant que c'est le bon moment pour effectuer la récolte.

Les pistes qui se dessinent ainsi s'agissant de la reprise en main de l'offre de services s'appuyant sur le Big Data renvoient finalement à des problématiques transversales dans le domaine du développement du numérique.

La première dimension transversale concerne l'encouragement à l'innovation pour développer une alternative à l'offre américaine qui a pris de l'avance : tous les mécanismes de soutien financier, et toutes les simplifications réglementaires prévues pour encourager l'innovation doivent évidemment jouer au profit des nouveaux services du Big Data.

La deuxième dimension transversale concerne la gestion des données, avec les conditions de prudence qui s'imposent pour éviter les risques d'atteinte à la vie privée ou aux intérêts économiques et, en même temps, les obligations d'ouvrir l'accès à ce gisement précieux qui doit jouer comme une ressource au service de l'humanité.

De là, notre soutien total à la démarche Open Source de l'Agence spatiale européenne, et la nécessité de prohiber toute tentative d'exploiter de façon exclusive des fonds de données.

En conclusion, cette audition publique a permis de bien comprendre ce qu'est le Big Data, la manière dont il est mis en oeuvre dans l'agriculture, les raisons pour lesquelles il s'agit d'une étape incontournable de l'évolution de l'agriculture. En effet, il présente à la fois un évident intérêt économique pour les utilisateurs, et un intérêt collectif dans le cadre de l'effort pour la préservation de l'environnement et la lutte contre le changement climatique, puisqu'il permet globalement la diminution des intrants sans pénaliser les rendements.

Cette audition a permis de vérifier que la communauté agricole et scientifique française n'avait pas tort de s'inquiéter des conditions dans lesquelles s'effectuait cette nouvelle révolution en cours de l'agriculture, car il y a bien, en arrière-plan, un enjeu de souveraineté face au dynamisme de certains pays et notamment des États-Unis.

Un maître mot résume les débats : la nécessité de maîtriser les données dans un monde ouvert, où les frontières n'existent plus. Les nouvelles technologies de la communication remettent en cause l'espace, le temps et la gouvernance. Les problèmes d'usage, de propriété et de contrôle des données doivent être précisés comme les questions liées à la revente de ces données, au risque d'atteinte à la vie privée ou à des intérêts économiques ou encore à la sauvegarde de renseignements sensibles.

Cette communauté agricole et scientifique est prête à se mobiliser pour défendre son propre modèle du Big Data à partir de la constitution d'une plateforme commune de gestion des données, à l'échelle de la France, en Open Source, conçue comme ouverte. Ce gisement précieux doit être exploité comme une ressource au service de l'humanité. Une convention internationale doit donc prohiber l'utilisation exclusive de ces données. C'est la principale proposition qui ressort de cette audition publique.

Une autre proposition consiste à entériner le besoin d'un soutien fort du Gouvernement, non pas pour mettre en place une protection mais pour disposer d'un cadre juridique clair pour la gestion de ces données et pour favoriser la création d'une offre de services innovants. Dans ce domaine comme dans d'autres, le soutien à l'innovation est essentiel et doit être une des priorités gouvernementales. C'est la seule manière de développer une alternative à l'offre nord-américaine qui a pris de l'avance. À cette fin, l'État doit mobiliser les mécanismes spécifiques de soutien financier et d'adaptation aux barrières réglementaires.

Il serait d'autant plus justifié que ce dossier fasse l'objet d'une implication politique forte – et l'OPECST va agir en ce sens – que la préservation de la souveraineté en matière d'agriculture a pour enjeu, en arrière-plan, la maîtrise encore plus cruciale du développement du territoire.

Un futur rapport de l'OPECST pourrait permettre de clarifier les liens entre les différents types d'objets connectés, le traitement massif des données et les services associés.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion