Intervention de Jean-Ludovic Silicani

Réunion du 4 décembre 2014 à 8h00
Commission de réflexion sur le droit et les libertés à l’âge du numérique

Jean-Ludovic Silicani, président de l'Autorité de régulation des communications électroniques et des postes :

Avant d'aborder le principe de neutralité des réseaux, j'évoquerai le concept de neutralité en général. Le terme « neutralité » a trois significations assez différentes en français. Premièrement, la neutralité peut être envisagée du point de vue de l'égalité. Dans ce cas, elle consiste à éviter que s'expriment trop de différences, afin que les individus demeurent égaux. Son application la plus forte est la laïcité : préserver la neutralité dans une école, c'est éviter que les enseignants comme les élèves expriment trop leurs différences, religieuses ou philosophiques. Deuxièmement, la neutralité peut être envisagée du point de vue de la liberté, notamment de la liberté d'expression. Il s'agit alors, a contrario, de permettre que s'expriment des opinions différentes et de rester neutre par rapport à ces opinions. Troisièmement, dans une acception plus passive que les deux précédentes, la neutralité peut être envisagée du point de vue de la confidentialité. À ce moment-là, elle revient à ne pas se mêler de quelque chose. Il peut s'agir, en particulier, de protéger la vie privée ou l'intimité.

Chacune de ces trois définitions a eu des applications dans le droit positif, tant dans la législation que dans la jurisprudence du Conseil d'État ou de la Cour de cassation. La neutralité envisagée du point de vue de l'égalité se retrouve dans le principe de non-discrimination, que vous avez évoqué, monsieur le président. Depuis la transposition du troisième « paquet télécom », ce principe figure à l'article L. 32-1 du code des postes et des communications électroniques, aux termes duquel l'ARCEP doit veiller au respect du principe de neutralité, notamment « à l'absence de discrimination, dans des circonstances analogues, dans les relations entre opérateurs et fournisseurs de services de communications au public en ligne pour l'acheminement du trafic et l'accès à ces services ».

Pour ce qui est de la neutralité envisagée du point de vue de la liberté, on trouve deux grandes lois portant sur la liberté d'expression : la loi du 29 juillet 1881 sur la liberté de la presse, qui vise à ce que toutes les opinions puissent s'exprimer librement, sauf trouble grave sanctionné par le juge, et la version actuellement en vigueur de la loi du 30 septembre 1986 relative à la liberté de communication, qui dispose, dans son article 1er : « La communication au public par voie électronique est libre. »

S'agissant de la neutralité envisagée du point de vue de la confidentialité, s'appliquent d'autres dispositions du code des postes et des communications électroniques, dont l'origine est parfois très ancienne, qui tendent à protéger la vie privée et la correspondance privée. Dès la fin du XIXe siècle, la Cour de cassation a validé le principe selon lequel le transporteur du courrier n'avait pas à en regarder le contenu. Quelques décennies plus tard, dans la partie relative aux télécommunications du même code, a été introduite la règle en vertu de laquelle les opérateurs de télécommunications devaient assurer la confidentialité des communications téléphoniques. Enfin, tout un volet de la loi relative à l'informatique, aux fichiers et aux libertés porte sur la protection des données personnelles et de la vie privée.

Outre le juge, plusieurs autorités administratives indépendantes sont chargées de faire respecter le principe de neutralité : l'ARCEP veille à la neutralité – au sens de non-discrimination – des réseaux ; le Conseil supérieur de l'audiovisuel est compétent pour les contenus audiovisuels ; la Commission nationale de l'informatique et des libertés l'est en matière de protection des données personnelles.

J'en viens à la définition et au champ d'application du principe de neutralité des réseaux. Ainsi que vous l'avez rappelé, monsieur le président, il s'agit, à l'origine, d'un concept technico-économique apparu aux États-Unis, qui a trouvé ensuite, à la faveur d'une interprétation plus large, une application en matière de contenus et de libertés. Sa définition la plus générale et la plus simple est la suivante : tous les opérateurs de réseaux doivent acheminer, c'est-à-dire transporter, toutes les informations passant sur leurs réseaux dans des conditions techniques et tarifaires non discriminatoires et transparentes. Il existe quelques cas particuliers et des exceptions à ce principe général. Quant à son champ d'application, il est très vaste : le principe de neutralité s'applique à tous les réseaux de communication électronique, fixes ou mobiles – à ce stade, les premiers sont davantage concernés que les seconds –, notamment à ceux qui utilisent le protocole IP ou Internet Protocol, c'est-à-dire à l'internet mondial.

Le principe de neutralité des réseaux s'applique à la relation entre les opérateurs de réseaux, en particulier les fournisseurs d'accès à l'internet (FAI), et les utilisateurs de ces réseaux. Il existe deux grandes catégories d'utilisateurs : d'une part, les utilisateurs professionnels, notamment les fournisseurs de contenus ; d'autre part, les utilisateurs finals, que sont les internautes. En d'autres termes, les opérateurs de réseaux ont deux types de clients ; il s'agit donc d'un marché biface. Les utilisateurs professionnels ont besoin des réseaux des opérateurs de télécommunications pour acheminer leurs contenus et leurs services. Par exemple, France Télévisions et TF1 ont besoin des réseaux d'Orange, de SFR, de Bouygues Télécom ou de Free pour acheminer leurs contenus audiovisuels via les boîtiers multiservices ou box. Certains utilisateurs professionnels ont d'autres usages des réseaux : communication intermachines – machine to machine (M2M) – ou traitement des mégadonnées – big data. Quant aux internautes, ils peuvent utiliser les réseaux de façon relativement passive en consultant des sites et en recourant à des services en ligne, mais ils peuvent aussi devenir eux-mêmes en quelque sorte des fournisseurs de contenus en envoyant des fichiers, des textes ou des images sur des sites partagés. Ils s'apparentent alors à des utilisateurs professionnels, même s'ils n'agissent pas, en principe, à des fins marchandes.

Autre élément très important : le principe de neutralité des réseaux s'applique à la relation entre opérateurs de réseaux et utilisateurs de bout en bout, depuis l'interconnexion entre les réseaux et les contenus jusqu'à l'utilisateur final. À cet égard, une question se pose : où ces deux bouts se situent-ils exactement ? L'accès au réseau par les moteurs de recherche entre-t-il dans le champ d'application du principe de neutralité ? À ce stade, ce point n'est pas tranché. À l'autre bout, le terminal final – par exemple le smartphone – entre-t-il dans ce champ d'application ? Il faudra, à un moment donné, en définir les limites, non seulement pour des raisons juridiques, afin de déterminer la compétence de chacun, mais aussi dans un souci de bonne information des acteurs économiques et des particuliers.

Pourquoi la question de la neutralité de l'internet a-t-elle pris une importance croissante au cours des dernières années ? Le concept est apparu sous son angle technico-économique aux États-Unis pour deux raisons principales, d'ailleurs liées : d'une part, c'est d'abord dans ce pays que l'internet s'est développé ; d'autre part, les principaux acteurs de l'internet sont américains, et c'est aux États-Unis que le choc a été le plus fort entre les fournisseurs de contenus, qui cherchaient à utiliser les réseaux dans les meilleures conditions possibles, et les opérateurs de télécommunications, qui souhaitaient pouvoir financer les réseaux qu'ils mettaient en place.

Permettez-moi de faire un bref historique. Le développement de l'internet a connu, jusqu'à ce jour, quatre étapes – qui seront, bien sûr, suivies d'autres. Les années 1980 correspondent à la préhistoire de l'internet : à cette époque, le réseau était essentiellement américain, et ses usagers se limitaient à des universités et à des centres de recherche, civils ou militaires. Dans les années 1990, l'internet s'est développé dans l'ensemble du monde, les usages de base – échange de courriels, consultation des sites – se sont démocratisés, et le concept d'internaute est apparu. Les années 2000 et le début des années 2010 ont vu l'irruption massive de l'audiovisuel sur l'internet, notamment en France, avec l'invention du boîtier multiservice – box – et avec l'offre triple service – triple play – proposée par les FAI.

La diffusion de contenus audiovisuels sur l'internet s'est alors développée à un tel point que l'on a pu croire, légitimement, que l'internet et l'audiovisuel allaient finir par se fondre. D'ailleurs, de supposés grands industriels, notamment une société bien connue, ont plaidé à ce moment-là pour la convergence des contenus et des contenants, et ont organisé des groupes économiques sur ce fondement. Cependant, les évolutions récentes ont été plutôt inverses. En effet, seule une partie du raisonnement était exacte : les contenus audiovisuels – qu'ils soient classiques, linéaires ou non linéaires – sont bien en train de devenir numériques, et ils le seront entièrement dans quelques années. Nous assistons à leur transvasement très rapide notamment de la radiodiffusion vers la diffusion par les réseaux de télécommunication fixes, pour le moment, puis mobiles, demain.

En revanche, l'autre partie du raisonnement était fausse : le numérique ne se résume pas à l'audiovisuel. La part de l'audiovisuel dans les contenus circulant sur l'internet est devenue majoritaire dans les années 2000 et l'est encore actuellement, mais un pic a été atteint, et d'autres usages progressent aujourd'hui plus rapidement : les applications économiques et sociales, avec le commerce en ligne et les services – notamment l'éducation et la médecine – en ligne, la communication intermachines, l'internet des objets, l'internet des données avec le big data, l'informatique en nuage – cloud computing. Le développement massif de ces usages est d'ailleurs caractéristique des années 2010 et 2020, quatrième époque de l'internet, que nous vivons actuellement. Les spécialistes tels que Cisco, Akamai et certains centres d'études estiment qu'ils pourraient représenter, à terme, 80 % du trafic de données sur l'internet.

Après s'être développé sur l'internet fixe, l'usage des contenus audiovisuels croît désormais rapidement sur l'internet mobile. Mais il faut se garder, là aussi, des erreurs de perspective, car le cycle sera le même : la part de l'audiovisuel dans le trafic de données sur l'internet mobile va augmenter, puis baisser. Rappelons aussi que le trafic de données sur l'internet mobile représente actuellement un peu plus de 1 % du trafic sur l'internet fixe. Certes, à un moment donné, le trafic de données sur l'internet mobile – qui s'accroît de 80 % par an – rattrapera le trafic sur l'internet fixe – qui progresse, lui, de 20 % par an –, mais cela prendra beaucoup de temps.

Outre le choc frontal que j'ai mentionné entre grands acteurs de l'internet et grands opérateurs de réseaux aux États-Unis, c'est la croissance exponentielle des nouveaux usages de l'internet qui rend nécessaire la fixation de règles et qui a fait émerger le débat sur la neutralité de l'internet. La problématique actuelle est, somme toute, assez classique : de la même manière qu'il est apparu nécessaire à la puissance publique, au XIXe et au début du XXe siècle, de mettre en place un code de la route pour faire face à l'augmentation du trafic sur le réseau routier, il convient aujourd'hui de définir, sur les réseaux numériques, ce qui est permis et ce qui ne l'est pas – afin notamment d'éviter les encombrements –, ce qui est payant et ce qui est gratuit, ce qui doit demeurer accessible à tous et ce qui peut être réservé à certains, et dans quelles conditions.

J'en viens à l'application du principe de neutralité en France. L'ARCEP a été le premier régulateur en Europe à se saisir de cette question, dès 2009, même si elle ne se posait pas encore de façon névralgique à l'époque – aujourd'hui, elle commence à devenir importante. Elle a organisé un grand colloque international en avril 2010, puis publié dix recommandations en septembre de la même année. À la fin de l'année 2012, elle a remis au Gouvernement et au Parlement, à la demande de ce dernier, un rapport sur la neutralité de l'internet, qui reprenait tous les éléments de la problématique et faisait un état des lieux, notamment quantitatif, sur le trafic de données et les flux financiers. D'autre part, elle a travaillé avec de nombreux parlementaires, notamment avec vous, monsieur le président, qui avez été l'auteur d'une proposition de loi relative à la neutralité de l'internet, mais aussi avec Mme Laure de La Raudière ou encore avec les sénateurs Bruno Retailleau et Catherine Morin-Desailly. L'ARCEP a également réfléchi sur la neutralité de l'internet dans le cadre de l'Organe des régulateurs européens des communications électroniques (ORECE), qu'elle a fréquemment présidé. Plus récemment, des rapports sur le sujet ont été publiés par le Conseil d'État et par le Conseil national du numérique. Tous ces travaux permettent d'en comprendre les tenants et les aboutissants.

La transposition du troisième « paquet télécom » par la loi du 22 mars 2011 et par l'ordonnance du 24 août 2011 a constitué une autre étape structurante. Ces textes ont non seulement confié à l'ARCEP la mission de veiller au respect du principe de neutralité du réseau, en inscrivant dans le code des postes et des communications électroniques la disposition de l'article L. 32-1 que j'ai citée précédemment, mais elle lui a aussi donné le pouvoir de régler les différends entre les opérateurs de télécommunications et les acteurs de l'internet – par exemple, entre Orange et Google –, tant sur les conditions techniques et tarifaires de leur interconnexion que sur l'acheminement des données. Jusqu'alors, l'ARCEP ne pouvait connaître que des différends opposant deux opérateurs de télécommunications. À ce stade, elle n'a pas encore été saisie dans le cadre de sa nouvelle compétence, mais elle est prête à l'exercer.

L'ARCEP a pris deux décisions fondatrices à caractère réglementaire afin de mettre en oeuvre les nouveaux pouvoirs que la loi lui confiait. La première, adoptée en mars 2012, permet à l'ARCEP de collecter les données techniques et tarifaires de l'interconnexion entre, d'une part, les opérateurs de télécoms, en particulier les FAI, et, d'autre part, les acteurs de l'internet, notamment les fournisseurs de contenus. Cette décision a été attaquée devant le Conseil d'État par deux grands opérateurs américains au motif que, d'une part, elle ne devait pas s'appliquer à eux dans la mesure où ils n'étaient pas français et que, d'autre part, l'ARCEP n'avait pas le pouvoir de collecter des informations auprès d'autres acteurs que les opérateurs de télécommunications. Le Conseil d'État a rejeté la requête en jugeant qu'aucun des deux moyens n'était fondé : il a rappelé que la loi, conforme au droit communautaire, donnait cette prérogative à l'ARCEP vis-à-vis des deux catégories d'acteurs, même si leur siège se trouvait à l'étranger, dès lors que leur activité avait une influence sur le marché de l'internet en France. C'est un point très important : on entend souvent que le principe de territorialité du droit nous empêche d'agir ; or, en l'espèce, tel n'est pas le cas.

La deuxième décision générale, adoptée au début de l'année 2013, a défini les conditions dans lesquelles l'ARCEP mesure la qualité du service général d'accès à l'internet. L'ARCEP doit en effet s'assurer que le fonctionnement général de l'internet ne se dégrade pas, compte tenu du partage entre ce service général et les services spécialisés. C'est sur le fondement de cette décision que l'ARCEP a publié, il y a quelques jours, les premières mesures de la qualité du service général d'accès à l'internet. Cependant, nous avons précisé, dans nos publications, qu'il convenait de rester très prudent quant à l'interprétation de ces résultats. En effet, le comité technique qui associait l'ARCEP, les opérateurs, les associations de consommateurs et des experts, a relevé les difficultés inhérentes à ces mesures, d'autant qu'il existe un débat sur la pertinence des indicateurs retenus. Certains des chiffres que nous avons publiés sont globaux, d'autres sont détaillés par opérateur. En tout cas, nous veillons à ce que les opérateurs ne les utilisent pas pour lancer des campagnes commerciales qui ne seraient pas justifiées à ce stade. L'ARCEP effectuera ces mesures tous les six mois. Une fois la méthode consolidée, vérifiée et précisée, elles auront la même fiabilité que celles que nous réalisons régulièrement en matière de qualité de l'accès fixe ou de l'accès mobile, et permettront des comparaisons entre les différents opérateurs.

Je résumerais comme suit les recommandations que nous avons adressées aux acteurs du secteur afin de mettre en oeuvre progressivement le principe de neutralité de l'internet. Au niveau de l'interconnexion – pour qu'un contenu parvienne à l'utilisateur final, il faut d'abord que le fournisseur de ce contenu, par exemple Google, s'interconnecte avec un opérateur de réseaux, par exemple Orange –, les relations entre les acteurs sont libres. Les conditions techniques et tarifaires de l'interconnexion font l'objet d'un contrat oral ou écrit. L'interconnexion peut être directe – ce que l'on appelle peering ou appairage – ou indirecte, via des transitaires, c'est-à-dire des courtiers qui servent d'intermédiaire entre opérateurs de réseaux et fournisseurs de contenus, tels qu'il en existe sur tous les marchés. En outre, elle peut être payante ou gratuite, les deux cas de figure existant actuellement. À l'origine, lorsque les flux de données étaient relativement limités et symétriques, l'interconnexion était gratuite. Les acteurs estimaient qu'il était plus coûteux de calculer un prix que de faire payer. Mais, compte tenu de la croissance exponentielle du trafic de données, les enjeux économiques sont désormais beaucoup plus importants. De plus, l'asymétrie du trafic – les flux « ascendants » des utilisateurs d'Orange peuvent être très inférieurs aux flux « descendants », ou inversement – peut justifier une rémunération. En ce qui concerne l'interconnexion, le principe de neutralité de l'internet ne fait pas obstacle à ce que la relation entre les opérateurs de réseaux et les fournisseurs de contenus soit payante, mais rien ne l'empêche non plus d'être gratuite. L'ARCEP résume sa position par la formule suivante : il n'est ni interdit ni obligatoire que l'interconnexion soit payante.

Dans tous les cas, les conditions de cette interconnexion doivent être transparentes et non discriminatoires. L'absence de discrimination signifie que, si un opérateur de réseaux fait payer un grand acteur de l'internet pour accéder à son réseau, il devra également faire payer les autres acteurs de taille comparable. De même, s'il accorde à un petit acteur de l'internet l'accès gratuit à son réseau, il ne pourra pas le refuser à d'autres petits acteurs. Le principe de non-discrimination impose en effet de traiter de la même manière des acteurs qui se trouvent dans une situation similaire, mais il n'interdit pas de traiter de manière différente des acteurs qui sont dans des situations différentes. Telle est la façon dont le Conseil constitutionnel, le Conseil d'État et la Cour de cassation appliquent le principe d'égalité. Quant à la transparence, elle signifie que les acteurs professionnels doivent connaître les règles de tarification existantes.

Sur le fondement de sa décision de mars 2012, l'ARCEP surveille le marché de l'interconnexion et s'assure que les principes que je viens d'énoncer sont respectés. En outre, sur ce marché s'appliquent non seulement le droit sectoriel des télécommunications, mais aussi le droit de la concurrence, comme sur tous les autres marchés. Enfin, ainsi que je l'ai indiqué précédemment, c'est sur ce marché de l'interconnexion notamment que l'ARCEP peut être amenée à régler les différends, soit à la demande d'un opérateur de réseaux, soit à la demande d'un fournisseur de contenus.

Une fois le stade de l'interconnexion franchi, le principe de neutralité s'applique à l'acheminement du contenu jusqu'à l'utilisateur final. À cet égard, il convient de distinguer deux modes d'acheminement : via le service général d'accès à l'internet ou via des services spécialisés. Dans le premier cas, le principe de neutralité s'applique strictement : le FAI ne peut pratiquer aucune discrimination dans la façon dont il achemine les différents contenus sur son réseau jusqu'à l'utilisateur final ; en d'autres termes, il ne peut privilégier aucun contenu par rapport à un autre. Néanmoins, il est autorisé à mettre en place une gestion technique du trafic de manière à éviter des « embouteillages », dès lors qu'il l'applique de la même manière à tous les contenus. Il est d'ailleurs souhaitable qu'il le fasse, afin d'optimiser les flux. La règle qui prévaut est celle du best effort : il n'y a pas de qualité garantie, mais la FAI doit acheminer tous les contenus du mieux qu'il peut, compte tenu des investissements qu'il a réalisés pour disposer de « tuyaux » efficaces du point de vue quantitatif et qualitatif. Plus le FAI investit, meilleure est la qualité générale du trafic sur l'internet.

Quant aux services spécialisés, leur apparition n'a nullement été concomitante des débats entre la Commission et le Parlement européen sur le projet de règlement relatif au marché unique européen des communications électroniques : ils existent depuis longtemps. Ainsi les médias audiovisuels utilisent-ils des services spécialisés – via les boîtiers multiservices ou box – pour diffuser leurs contenus auprès des internautes. Depuis six mois, ces services sont même devenus le principal mode d'acheminement des contenus audiovisuels en France, devant la radiodiffusion. À la différence du service général d'accès à l'internet, tout service spécialisé fait l'objet d'un contrat entre un fournisseur de contenus – par exemple, France Télévisions, Google ou Netflix – et un FAI – par exemple, Orange. Celui-ci achemine le contenu jusqu'à l'utilisateur final en garantissant une certaine qualité de service, moyennant une rémunération.

Dans quelles conditions le service général d'accès à l'internet et les services spécialisés doivent-ils cohabiter ? Cette question, tout à fait légitime, a animé les débats à la Commission européenne, au Parlement européen et, désormais, au Conseil des ministres de l'Union. Plusieurs positions existent. À ce stade, il faut, selon moi, continuer à réfléchir et éviter de se précipiter sur des rédactions qui seraient inapplicables ou inappliquées. Il existe un risque indéniable que les services spécialisés à qualité de service garantie finissent, du fait de leur multiplication, par écraser la qualité de l'accès général à l'internet. À ce stade, en France, ce risque n'est pas d'actualité, compte tenu de l'importance des investissements réalisés dans les réseaux fixes – notons que les mêmes questions se poseront pour les réseaux mobiles, mais seulement dans quelques années. Néanmoins, il pourrait se matérialiser si les services spécialisés étaient multipliés par dix.

Comment traiter ce problème ? L'ARCEP utilise à cette fin le pouvoir de surveillance de la qualité du service général d'accès à l'internet que lui a donné le cadre européen transposé dans la loi française. Si elle constatait que cette qualité se dégrade ou que, sans se détériorer, elle est inférieure à un niveau standard, elle pourrait d'abord rechercher les causes de ce phénomène. Ensuite, elle pourrait prendre des mesures. Par exemple, si elle établissait que la qualité d'accès général à l'internet offerte par un opérateur est insuffisante – compte tenu de ce qu'elle a été, de la moyenne du marché et de ce qu'on peut estimer nécessaire au moment considéré –, elle pourrait interdire à cet opérateur de s'appeler FAI. Ce premier outil, qui peut sembler banal, est en réalité très puissant : son utilisation peut entraîner la mort de l'opérateur. Nous ne pouvons pas prévoir aujourd'hui si nous aurons besoin d'y recourir, mais il est important qu'il existe.

Deuxième outil : la concurrence. Sur un marché peu concurrentiel, l'internaute a le choix entre un nombre limité de FAI. Si la qualité de l'accès à l'internet offerte par ces FAI se dégrade, il ne pourra que subir cette situation. En revanche, sur un marché concurrentiel, si l'internaute constate une telle dégradation et que l'ARCEP l'attribue, le cas échéant, à une multiplication excessive des services spécialisés, il pourra changer de FAI, en en choisissant un qui apporte une qualité de service satisfaisante. C'est l'une des vertus de la concurrence. Ainsi, le consommateur a un rôle actif à jouer pour que le marché fonctionne bien. Celui-ci s'autorégule grâce à l'addition des choix individuels des internautes.

Il existe donc des solutions. Faut-il aller plus loin ? Faut-il définir strictement, dans une norme européenne ou nationale – éventuellement, au niveau du régulateur – les cas limitatifs dans lesquels il est possible de créer un service spécialisé ? C'est une des questions qui fait actuellement débat au niveau européen et national. La position de l'ARCEP n'est pas encore arrêtée. À ce stade de nos réflexions, nous pensons qu'il n'est guère utile de définir par écrit les cas limitatifs dans lesquels les services spécialisés peuvent être créés car, dans ces domaines où la technologie et les usages évoluent très rapidement, nous serons toujours dépassés : ce que nous écrivons un jour risque d'être privé de sens et de portée le lendemain. Néanmoins, nous devons veiller à ce que la qualité de l'accès général à l'internet ne se dégrade pas en raison d'un excès de services spécialisés, et nous disposons d'outils à cette fin. Telle est la méthode que nous préconisons. Dans son étude sur le numérique, le Conseil d'État a proposé que tout nouveau service spécialisé établi entre un opérateur de télécommunications et un fournisseur de contenus soit déclaré auprès de l'ARCEP – les opérateurs de télécommunications en tant que tels sont déjà soumis à une telle obligation de déclaration. Cela nous paraît une bonne formule. Il s'agirait d'une déclaration très courte à faire sur l'internet, précisant notamment la raison sociale des contractants et les principales caractéristiques du service spécialisé sur lequel porte le contrat. Ces informations seraient protégées par le secret des affaires.

Tous les outils que je viens d'évoquer – mesure de la qualité de service, surveillance des marchés – sont très coûteux pour l'ARCEP, tant en moyens humains qu'en crédits d'études. Je profite donc de cette audition, madame la présidente, monsieur le président, pour appeler l'attention des parlementaires sur ce point et leur demander d'être cohérents avec eux-mêmes – je ne doute pas qu'ils le seront : s'ils souhaitent que le régulateur fasse bien son travail et s'assure que le principe de neutralité de l'internet est respecté, il faut lui donner les moyens nécessaires à cette fin ou, à tout le moins, ne pas lui enlever ceux dont il dispose.

J'évoquerai, pour terminer, les débats en cours au niveau européen. Le projet de règlement relatif au marché unique européen des communications électroniques présenté par la Commission il y a un peu plus d'un an comporte un chapitre sur la neutralité de l'internet. La rédaction proposée par la Commission à cet égard est relativement souple, celle du Parlement européen très stricte. Actuellement, le sujet revient au niveau du Conseil des ministres de l'Union, c'est-à-dire des États membres. Il y a quelques jours, le Conseil des ministres chargés des télécommunications a estimé qu'il convenait d'approfondir la réflexion, notamment du point de vue technique, sur quelques aspects du projet de règlement, en particulier sur la neutralité de l'internet. S'agissant de la définition des services spécialisés, une majorité d'États membres, dont la France, est favorable à une solution intermédiaire entre la position probablement trop souple de la Commission et celle, trop rigide, du Parlement. La question reste donc sur la table, et votre commission pourra apporter sa contribution à ces travaux. L'intérêt des services spécialisés est, au demeurant, de favoriser l'innovation. Il convient donc de trouver le bon équilibre entre le laisser-faire, qui nous amènerait à tolérer des situations inacceptables, et la fixation de règles trop rigides qui deviendraient vite obsolètes et, donc, inapplicables, voire un excès d'intervention qui dissuaderait l'innovation.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion