LA RESPONSABILITÉ DES MOTEURS DE RECHERCHE DANS LA LUTTE CONTRE LES « FAKE NEWS »

La campagne des élections présidentielles aux Etats-Unis a été l’occasion de grandes vagues de « fakes news »
où chaque camp répandait des informations fausses, incomplètes ou encore sorties de leur contexte. Le
caractère amplificateur des réseaux sociaux et le fait que les deux candidats principaux utilisaient des
technologies big data pour adapter leur message électoral en fonction des tweets et messages FB des électeurs,
ont mis en lumière ces fake news. C’est dans ce cadre que les grands opérateurs, à commencer par Google,
Facebook ou Twitter, ont décidé (certes, sous une forte influence politique) de mettre en place des mesures de
lutte contre ces fausses informations. Ce souhait se heurte pourtant à une réalité juridique…promue par ces
mêmes acteurs.
1. Les promesses de lutte contre les fake news
Cible de nombreuses « fake news », le clan Clinton a obtenu assez rapidement de la part des grands acteurs
(Google, Facebook, Twitter, etc) la mise en place de mesures contre le développement de celles-ci. Ainsi,
Google et Facebook (dont le business model repose notamment sur une très puissante régie publicitaire) ont
annoncé couper les revenus publicitaires aux « faux » sites d’information.
Cette décision pouvait comprendre, dans l’exemple de Google, l’interdiction aux sites visés, de participer au
programme AdSense qui permet de recevoir une rémunération en tant que support de publicité Google : « Nous
allons commencer à interdire les publicités sur les contenus trompeurs, de la même manière que nous
interdisons les publicités mensongères », a expliqué Google dans un communiqué à l’Agence France-Presse du
15 novembre 2016. Pourtant, Google n’a pas modifié sa Policy sur le programme AdSense ni les Conditions
Générales de celui-ci qui ne fait que « combattre les sites illicites ». En d’autres termes, seuls les sites dont le
contenu est « illicite » pouvaient (et peuvent) être concernés par cette mesure. En outre, aux termes du
« Règlement du Programme AdSense » qui a valeur contractuelle, « les éditeurs ne sont pas autorisés à insérer
du code AdSense sur des pages dont le contenu n'est pas conforme à nos consignes en la matière. Il peut s'agir,
par exemple, d'un contenu réservé aux adultes, ou incluant des incitations à la violence ou au racisme. Pour en
savoir plus, consultez notre article relatif au contenu interdit ». On peut toutefois regretter que le « contenu
interdit » visé par ce Règlement ne contienne rien sur les « fake news » spécifiquement, juste des contenus
« illicites ».
(https://support.google.com/adsense/answer/48182?utm_source=aso&utm_medium=link&utm_campaign=ww-
ww-et-asfe_#expand)…
Facebook avait promis, exactement au même moment, de mettre également en place des mesures concrètes de
lutte contre les fake news. Les mêmes envolées en conférence de presse ont conduit à la même absence de
changements juridiques et contractuels : aucune modification des Conditions Générales de Facebook sur ce
sujet n’est à signaler.
Le principal impact de ces déclarations et de cet axe de communication est que ces acteurs ont fait croire au
monde entier, à commencer par les politiques, qu’ils allaient réellement lutter contre les « fake news ». Il est
d’évidence que ces acteurs ont été pris de court au moment de l’élection présidentielle aux US (et probablement
un peu avant avec le Brexit) et qu’ils ont réagi, c’est-à-dire qu’ils ont dit ce que les journalistes (et sûrement les
politiques) attendaient qu’ils disent.
Or, cette communication les rattrape désormais. Par exemple, fin avril 2017, 26 eurodéputés ont interpellé
Google (sur papier à en-tête du Parlement européen, ce qui a une valeur symbolique, mais aussi juridique) car
un site américain « proche de l’extrême droite (…) déformait la vérité, dans le but de provoquer la haine et la
division » (http://rebecca-harms.de/files/1/4/142eay7yuu2o/attc_15VYM9xZ3MSbuc24.pdf). Etonnamment, ce
site participe toujours au programme AdSense (uniquement par le moteur de recherche interne), ce qui lui permet
de recevoir des recettes de la part de Google. Google a apporté une réponse très générale, se référant
principalement aux termes de sa Policy mais n’a évidemment pas répondu spécifiquement au cas présenté, en
renvoyant la responsabilité aux annonceurs eux-mêmes, qui utilisent Google : « Nous avons conçu des outils
complets pour que les annonceurs puissent définir, de façon très précise, les contenus et les sites qu’ils jugent

appropriés pour leurs publicités. Les annonceurs peuvent, pas exemple, cibler et bloquer des contenus par sujet,
catégories, niveau de sensibilité, et même par URL [l’adresse d’un site]. »
(http://g8fip1kplyr33r3krz5b97d1.wpengine.netdna-cdn.com/wp-content/uploads/2017/05/GoogleMEPs.pdf).
Concomitamment, Google indiquait le 25 avril 2017 avoir apporté des modifications à son moteur pour limiter la
visibilité des fausses informations (https://blog.google/products/search/our-latest-quality-improvements-search/).
Comme Abondance l’annonçait en avril, le projet "Google Owl" (ou hibou) propose notamment, dans un effort de
crowdsourcing, des formulaires permettant aux internautes de donner leur avis sur la qualité des résultats de
l'autocomplétion et des featured snippets du moteur (https://www.abondance.com/actualites/20170428-17934-
project-owl-google-va-crowdsourcer-lutte-contre-fake-news.html). A priori, ce sont les Internautes qui peuvent
signaler des fausses informations (ou informations douteuses), mais il ne s’agit pas d’une action intrinsèque de
Google.
2. La problématique juridique de la lutte, par les intermédiaires, des fake news
Google, comme tous les autres intermédiaires, est confronté à un problème majeur: depuis 1997 aux Etats-Unis
et 2000 en Europe, les intermédiaires ne sont juridiquement pas responsables tant qu’ils restent neutres.
Voici 17 ans que l'Union européenne a adopté un texte concernant les intermédiaires techniques, au travers de la
directive 2000/31/CE du 8 juin 2000 sur le commerce électronique, qui a été transposée en droit français grâce à
la loi "Confiance en l'Économie Numérique" du 21 juin 2004 (la « LEN »). C’est toujours ces textes qui
s’appliquent pour Google, Facebook, Twitter & co. En matière d'intermédiaires sur Internet, la loi a posé le
principe suivant:
– "l'éditeur" est responsable du contenu (texte, images, etc.) du contenant (site, forum, serveur, etc.) qu'il gère,
– "l'intermédiaire technique" n'est pas responsable du contenu qu'il héberge ou traite ou transporte, sauf si un
tiers lui notifie valablement un contenu illicite. La raison de cette irresponsabilité de principe est qu'un
intermédiaire ne peut pas tout surveiller et tout vérifier. Google ne peut pas vérifier la validité et la licéité de
tous les sites que son robot référence.
Ainsi, par exemple (et il y en a beaucoup désormais), la Cour d’appel de Paris a, par arrêt du 19 mars 2009,
rappelé l’irresponsabilité des moteurs de recherche dès lors qu’ils sont neutres. En l’espèce, une société avait
assigné Google et Yahoo ! en se plaignant du référencement naturel d’un site la dénigrant, leur reprochant de ne
pas avoir vérifié le contenu du site. Les moteurs se sont défendus en soulignant qu’ils procédaient à un
référencement de manière automatique, sans aucun contrôle a priori sur leurs robots, et ne pouvaient en
conséquence maitriser le référencement. La Cour a rejeté la responsabilité de Google et Yahoo!, en précisant
que ces moteurs n’avaient pas à vérifier le contenu de chaque site et à s’assurer de leur conformité à la loi.
Toutefois, la Cour a souligné que « l'exploitant du moteur de recherche n'échappe pas à toute responsabilité et
que celle-ci peut être engagée pour les fautes, imprudences ou négligences qu'il commet dans l'exercice de son
activité », avant d’ajouter que « le fonctionnement intrinsèque du moteur de recherche exclut tout contrôle a priori
des sites indexés par l'exploitant ». Elle a ainsi conclu que « ce caractère automatique des résultats affichés et
l'absence de toute analyse de contenu excluent une intention de nuire ou délictueuse, que ce soit de diffamer ou
de dénigrer ».
En conséquence, le caractère automatique du référencement naturel et la neutralité de celui-ci permet aux
moteurs d’échapper à toute responsabilité naturelle.
Ce principe d’irresponsabilité tant que le moteur est neutre, n’a pas été remis en cause, de manière significative,
depuis près de 20 ans. Et c’est notamment (mais pas uniquement) ce principe d’irresponsabilité qui a permis à de
tels empires de s’ériger: en étant certains de ne pas avoir de procès, les moteurs sécurisaient leur business
model.
C’est donc très probablement pour cette raison que les moteurs et autres intermédiaires refusent, en pratique, de
rentrer trop dans l’analyse et dans la sanction de sites : pour ne pas devenir acteur sur le contenu et donc,
potentiellement, responsables.

3. La limite juridico-philosophique de ces éventuelles interventions
Au-delà de l’aspect juridico-juridique, il est aussi intéressant de se demander s’il est réellement opportun de
laisser Google, Twitter et Facebook déterminer seuls ce qui est bien ou mal, ce qui est une vraie ou une fausse
information.
D’une part, la « vérité » n’a jamais été uniforme et sera toujours fonction de la position et du temps de l’analyse. Il
apparaissait évident en février 1933 que les communistes avaient incendié le Reichstag, on sait aujourd’hui que
ce sont les nazis qui l’avaient fait.
La « vérité officielle » actuelle veut que le Président Kennedy ait été assassiné par Lee Harley Oswald seul, sans
complice. Si le principe absolu de « fake news » était appliqué de manière implacable, tout site qui viendrait à
remettre en question cette « vérité officielle » serait alors considérée comme « hors la loi » de Google ou de
Facebook. Oliver Stone n’aurait donc pas le droit de faire et/ou de promouvoir son film « JFK »… Pourtant,
chacun peut avoir une opinion différente de la « version officielle » de la mort du Président Kennedy.
Tant que nous voudrons rester en démocratie, il est donc important de bien s’interroger sur la limite entre d’une
part la lutte contre de scandaleuses « fake news » qui sont des atteintes à l’honneur ou à la dignité de la
personne humaine et, d’autre part, la censure douce et silencieuse qui amène à la dictature… La vérité,
historique, scientifique ou autre, repose également sur le débat, la liberté d’expression, la confrontation d’idées…
en d’autres termes sur une vie démocratique et saine.
D’autre part, si une « vérité » devait malgré tout être fixée (comme c’est malheureusement de plus en plus le
cas), le juge (fonctionnaire d’Etat et non salarié du privé) reste l’acteur le plus neutre et le plus légitime pour
entreprendre cette mission. Même si cela peut en faire sourire certains, le juge reste un professionnel de la
neutralité, comme un arbitre au football, même s’il n’est pas parfait. Personne n’est plus professionnel de la
neutralité que le juge. Le seul intérêt du juge est d’appliquer les règles et de faire respecter la loi. Ce propos
philosophique amène à la question centrale de savoir s’il est opportun de laisser à une entreprise privée, dont le
but est avant tout mercantile, de trancher sur la notion de vérité.
Enfin, il est important de conclure en rappelant que les « fakes news », le fait de divulguer de fausses
informations est pénalement sanctionné par l’article 27 de la loi du 29 juillet 1881 « La publication, la diffusion ou
la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou
mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura
été susceptible de la troubler, sera punie d'une amende de 45 000 euros ». Il n’y a pas besoin d’inventer de
nouvelles lois, celles en vigueur depuis près d’un siècle et demi sont parfaitement applicables par n’importe quel
juge français…

Nous estimons donc qu’il est peu probable que les intermédiaires, comme Google, Facebook ou Twitter aient un
intérêt à se positionner réellement (au-delà de la communication) comme un acteur de la lutte contre les « fake
news ».