Nous devons en effet revisiter la procédure de vigilance, qui est datée et qui se fonde pour l'essentiel sur une relation institutionnelle entre les services de l'État et les opérateurs comme Météo-France. Elle se déroule en lien avec le ministère de l'intérieur parce qu'elle est destinée à communiquer des données à l'intention des préfets avant tout, et non pas des maires ou, a fortiori, des populations. Ce système, conçu à l'ère du fax, comporte encore des contenus quelque peu ésotériques et une liste de destinataires non exhaustive, alors que nous sommes à l'heure du smartphone et de la géolocalisation, et que nous sommes de plus en plus tenus d'informer non seulement le monde institutionnel, en particulier les préfets qui sont légitimement chargés des questions de sécurité publique, mais aussi bien au-delà. Lors des différents programmes à venir, nous devrons donc envisager avec la direction générale de la sécurité civile et de la gestion des crises comme avec la direction générale de la prévention des risques comment moderniser cette procédure en tenant compte des nouveaux outils. Il faudra être particulièrement attentif au niveau infradépartemental : la même pluie ne produit pas du tout les mêmes effets en deux endroits distants de quelques kilomètres seulement, comme on l'a vu dans le Sud-Est : le ruissellement est immédiat lorsque l'eau tombe sur le bitume, mais pas dans la garrigue ou les calanques marseillaises.
Nous devons préciser davantage le contenu des messages communiqués aux populations, de sorte qu'ils soient bien compréhensibles de tous, et le cibler en fonction de l'impact et de la vulnérabilité des territoires : il n'est plus question de diffuser les mêmes messages partout dans un département au motif que le préfet est compétent à cette échelle.
J'en viens aux outils qui nous permettront de mieux anticiper : plus tôt nous savons, mieux c'est. Non seulement devons-nous disposer des connaissances au plus tôt, mais aussi être plus crédibles : j'entends le reproche qui nous est fait à juste titre de multiplier les alertes orange au point que l'on n'y fait plus attention, ou de déclarer une alerte rouge par prudence excessive, ce qui produit le même effet. Autrement dit, la pertinence et la qualité de l'information sont fondamentales. Tout ce qui contribue en amont à améliorer les outils est bon à prendre. Nous avons notamment besoin d'outils de calcul, car il nous faut modéliser au mieux l'atmosphère, la connaître à tout instant et anticiper son évolution dans les deux, quatre ou six jours suivants. Pour cela, une seule solution : nous devons la modéliser en adoptant une résolution spatiale extrêmement fine. Nos prévisions probabilistes actuelles utilisent une résolution de 2,3 kilomètres ; nous devons la diviser par deux et constituer un maillage très resserré au moyen d'ordinateurs traitant des volumes de données plus importants. Au cours de la prochaine période de programmation, Météo France – et le pays tout entier – doivent s'atteler à l'enjeu considérable qui consiste à nous doter d'un outil comparable à celui dont disposent nos amis allemands, britanniques et américains, afin de disposer d'une puissance de calcul qui améliorera notre capacité de modélisation. L'homme ne suffit pas : le bon sens paysan permet de prévoir sur vingt-quatre heures tout au plus mais, au-delà, rien ne vaut la modélisation numérique.
Il va de soi que la présence territoriale est tout aussi importante pour refléter les spécificités locales, en particulier en montagne, où nous ne travaillons pas de la même manière qu'en plaine en raison des phénomènes climatologiques particuliers qui s'y déroulent et qui nécessitent le maintien d'une présence physique sur le terrain. De ce point de vue, j'avoue que Météo France, qui perd soixante à quatre-vingts personnes par an, a quelques inquiétudes quant à sa capacité à préserver sa pertinence sur l'ensemble du territoire. Il serait inconvenant que je m'en plaigne devant vous, mais vous avez dû recevoir des représentants de Météo France qui ont raison d'exprimer leurs inquiétudes en la matière.
J'ajoute que nous comptons beaucoup sur le crowdsourcing, c'est-à-dire le développement des objets connectés qui permettront d'améliorer comme jamais l'information en intégrant les données captées par tout un chacun via des smartphones et des véhicules. Nous disposerons ainsi d'informations plus fines, plus précoces et mieux spatialisées qu'aujourd'hui.
Enfin, le réchauffement climatique est-il exceptionnel ? La réponse habituelle à cette question consiste généralement en une pirouette : nous ne pouvons pas juger des effets du réchauffement climatique à partir d'un seul événement – ce serait scientifiquement impropre – mais à partir de moyennes à long terme et sur plusieurs événements. Cela étant, nous connaîtrons assurément des événements de plus en plus intenses et fréquents, et nous devons nous y préparer – y compris s'agissant d'hypothèses que nous n'avons pas encore envisagées. N'ayons aucune illusion : nous ne retrouverons plus jamais des normales rêvées, car l'exceptionnel va se banaliser. À cet égard, j'invite les parlementaires à consulter nos sites internet, en particulier le site « Climat Hier et Demain » qui comporte des informations très fines sur la climatologie passée et des prévisions de précipitations et de températures : de telles données sont très instructives pour ne pas perdre la mémoire du passé climatique et pour prendre la mesure de l'évolution actuelle. Nous faisons ainsi oeuvre d'acculturation à ces phénomènes de changement climatique pour lutter contre l'ignorance, de sorte que l'on ne pourra pas prétendre en cas d'événement n'avoir aucune mémoire du passé.