2011/06/27

Facebook: un espace public avec une police privée

La lecture de la semaine, il s’agit d’un article de Mathew Ingram qui est journaliste. Il a été mis en ligne le 21 juin sur GigaOm et s’intitule “The downside of Facebook as a public space : censorship” (”l’inconvénient de Facebook comme espace public : la censure”).




Les bénéfices à être sur Facebook, commence le journaliste, sont aujourd’hui assez évidents : on peut être en relation avec notre famille et nos amis, partager toutes sortes de choses avec eux, et gratuitement. Mais ce quasi-espace public est aussi possédé et contrôlé par une entreprise qui a sa propre conception de la manière dont on doit se comporter. Cela pose inévitablement des questions sur le degré de censure qui est pratiqué par le site – des questions qui ont refait surface il y a une dizaine de jours quand la page Facebook du critique de cinéma Roger Ebert a disparu, et quand un groupe de militant britannique a vu ses contenus bloqués. Qui surveille les surveillants ? se demande Mathew Ingram.

j30-strike-facebook-block

Image : Comment Facebook bloque-t-il des contenus ? L’exemple de la page de l’organisation britannique J30 Strike.

Et le journaliste raconte les faits. Roger Ebert a essuyé une salve de critiques suite à la mort d’une star de la série Jackass, qui s’est tuée dans un accident de voiture. Ebert – qui s’est inscrit sur Twitter après une opération d’un cancer qui a entraîné la perte de sa mâchoire inférieure, et qui compte aujourd’hui 475 000 followers – a écrit un tweet moqueur qui lui a attiré les foudres des autres membres de Jackass et du blogueur star Perez Hilton. Le critique cinéma a ensuite tweeté que sa page Facebook avait été retirée (même si ses commentaires sur Twitter n’y étaient jamais apparus) et remplacée par un message d’erreur expliquant que la page avait supprimée suite à des violations des conditions d’usage de Facebook qui proscrivent tout contenu haineux, menaçant ou obscène et les attaques ciblant des individus ou des groupes. En réponse, Ebert a dit que sa page Facebook était inoffensive et a tweeté : “Pourquoi avez-vous retiré ma page Facebook à cause de connards anonymes ?” Facebook a répondu que la page avait été fermée par erreur, et elle a été rétablie. Mais, comme l’avait noté dans un post Jilian York, de Global Voices Online, l’erreur qui a entraîné la disparition de la page n’est pas clairement expliquée. A-t-elle été retirée automatiquement ou après avoir été désignée comme injurieuse ? York – qui a travaillé dans le passé sur la manière dont des pages Facebook de dissidents du Moyen-Orient et d’ailleurs avaient disparu – explique que Facebook nie que ces retraits soient automatiques. Faut-il donc considérer qu’il y a derrière cela une erreur humaine ? Et si tel est le cas, quelles mesures l’entreprise prend-elle pour que cela ne se reproduise pas à l’avenir ?

Si des gens hostiles au Tweet de Ebert ont signalé de manière répétée sa page Facebook, ils ont suivi la même méthode que celles de certains gouvernements qui essaient de faire taire la dissidence : le bien connu Evgeny Morozov a récemment dit qu’il connaissait au moins un état qui désignait les pages Facebook des dissidents comme pornographiques dans le but de les faire fermer. Facebook a aussi retiré par le passé des pages considérées comme anti-musulmanes ou anti-israéliennes – pour parfois les réinstaller ensuite – et aussi fait disparaître des contenus plus inoffensifs, comme des pages consacrées à l’allaitement maternel.

Mais Facebook ne se contente manifestement pas de fermer des pages d’usagers. Selon le post d’un des organisateurs britanniques d’une manifestation anti-gouvernement, un grand nombre d’usagers ont rapporté que Facebook avait non seulement bloqué les liens vers le site internet du groupe, mais vers un post de blog qui y faisait référence. Un porte-parole du réseau social a expliqué qu’il s’agissait aussi d’une erreur, et elle été corrigée. Mais encore une fois, note le journaliste, le type de l’erreur n’était pas clairement décrit. Tout comme ne sont pas clairs les critères de Facebook pour prendre ces décisions.

Comme le note le blogueur britannique dans le billet qui raconte l’incident, Facebook “devient l’espace dans lequel les gens reçoivent l’information, même celle qui concerne la vie politique”. Ingram reprend : nos vies publiques et l’information qui nous alimente passent de plus en plus par des réseaux sociaux comme Facebook ; et plus ils deviennent puissants – comme on l’a vu lors des révolutions arabes – plus notre information est filtrée par une entité privée, avec ses propres désirs et ses propres règles, dont aucun ne sont évidents. Les implications de tout cela sont profondes, conclut le journaliste.

Intéressant papier, me semble-t-il, qui dit bien l’ambiguïté d’un espace public qui n’est pas public, d’un espace public dont les règles ne sont pas, non seulement le fruit de discussions entre les usagers, mais ne sont pas clairement données à tous. Bien sûr, il y a les conditions générales d’usage, que personne ne lit, mais, au-delà, qui décide vraiment de leur interprétation (tout texte de loi nécessite interprétation) et de leur respect ? Je trouve assez terrifiante cette description de Facebook. Un espace public avec une police privée, invisible, et toute puissante.
Xavier de la Porte

Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 26 juin 2011 était consacrée à Internet Archive, avec son fondateur Brewster Kahle et au hacking artistique du groupe tchèque Ztohovenen compagnie de Jérôme Thorel.

2011/06/13

Le risque de l’individualisation de l’internet

La lecture de la semaine, il s’agit d’une petite partie d’un article paru dans la New York Review of Books. Intitulé “Mind Control and the Internet” (Internet et le contrôle de l’esprit), l’article de Sue Halpern consiste, comme c’est le cas la plupart du temps dans la New York Review of books, en le développement d’une thèse qui s’appuie sur la critique de plusieurs livres récemment parus. Je n’ai gardé qu’un passage de ce long article, celui où Sue Halpern recense le livre de Eli Pariser, The Filter Bibble : What the Internet Is Hiding from You.




Ce livre montre notamment que depuis décembre 2009, Google vise à donner à toute requête effectuée sur le moteur de recherche un résultat qui corresponde au profil de la personne qui fait la recherche. Cette correspondance s’applique à tous les usagers de Google, même si elle ne prend effet qu’après plusieurs recherches, le temps qu’il faut à l’algorithme Google pour évaluer les goûts de l’usager.

The Filter BubbleEn d’autres mots, le processus de recherche est devenu personnalisé. Ce qui signifie qu’il n’est plus universel, mais idiosyncrasique et impératif. “Nous pensons tous que quand nous googlons un mot, explique Pariser, tout le monde a les mêmes résultats – ceux que le fameux algorithme de Google, PageRank considère comme faisant autorité du fait qu’un grand nombre de liens pointe vers eux.” Avec la recherche personnalisée, poursuit Pariser “vous obtenez le résultat que l’algorithme de Google pense être le plus adapté à vous en particulier – mais quelqu’un d’autre verra apparaître d’autres résultats. En d’autres mots, il n’y a plus de standard Google”. Sue Halpern fait une analogie éclairante : c’est comme si en cherchant le même terme dans une encyclopédie, chacun trouvait des entrées différentes – mais personne ne s’en apercevant car chacun étant persuadé d’obtenir une référence standard.

Parmi les multiples conséquences insidieuses de cette individualisation, il en est une qui inquiète plus particulièrement Sue Halpern, elle explique : “en adaptant l’information à la perception que l’algorithme a de ce que vous êtes, une perception qui est construite à partir de 57 variables, Google vous adresse un matériau qui est susceptible de renforcer votre propre vision du monde et votre propre idéologie. Pariser raconte par exemple qu’une recherche sur les preuves du changement climatique donnera des résultats différents à un militant écologiste et au cadre d’une compagnie pétrolière, et donnera aussi un résultat différent à quelqu’un dont l’algorithme suppose qu’il est démocrate, et à un autre dont l’algorithme suppose qu’il est républicain (évidemment, pas besoin de déclarer qu’on est l’un ou l’autre, l’algorithme le déduit de nos recherches). De cette manière, poursuit Sue Halpern, l’internet, qui n’est pas la presse, mais qui souvent fonctionne comme la presse en disséminant les informations, nous préserve des opinions contradictoires et des points de vue qui entrent en conflit avec les nôtres, tout en donnant l’impression d’être neutre et objectif, débarrassé de tous les biais idéologiques qui encombrent le traitement de l’information dans la presse traditionnelle.”

Et Sue Halpern de citer une étude récente (.pdf) menée entre 2001 et 2010 au sujet du changement climatique. Cette étude montrait qu’en 9 ans, alors qu’un consensus scientifique s’établissait sur le changement climatique, la part des républicains pensant que la terre se réchauffait passait de 49 % à 29 %, celle des démocrates de 60% à 70 %, comme si les groupes recevaient des messages différents de la science, avec pour conséquence de rendre impossible tout débat public. Et pour Sue Halpen, c’est ce que suggère ce que Elie Pariser raconte sur Google : si ce sont nos propres idées qui nous reviennent quand on fait une recherche, on risque de s’endoctriner nous-mêmes, avec notre propre idéologie. “La démocratie requiert du citoyen qu’il voit le problème du point de vue de l’autre, et nous, nous sommes de plus en plus enfermés dans notre bulle” explique Pariser. “La démocratie requiert de s’appuyer sur des faits partagés, et nous, on nous offre des univers parallèles, mais séparés.”
Sue Halpern poursuit sa diatribe : “Il n’est pas compliqué de voir ce à quoi cela nous mènerait – toute organisation dotée d’un agenda (un lobby, un parti politique, une entreprise, un Etat…) pourrait noyer la chambre d’écho avec l’information qu’elle veut diffuser. (Et dans les faits, c’est ce qui s’est produit à droite avec le changement climatique). Qui s’en rendrait compte ?” Et Sue Halpern de citer les propos que Tim Berners-Lee, l’inventeur du Word Wide Web, tenait récemment dans Scientific American : “Le web tel que nous le connaissons est menacé… Parmi ses habitants qui connaissent le plus grand succès, certains ont commencé à pervertir ses principes… Des états – totalitaires tout autant que démocratiques – contrôlent les comportements en ligne, mettant en danger les droits de l’homme.”

Xavier de la Porte
Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 12 juin 2011 était consacrée à l’ouverture des données publiques, avec Séverin Naudet, directeur d’Etalab, portail interministériel destiné à rassembler et mettre à disposition l’ensemble des informations publiques de l’Etat via data.gouv.fr et Gabriel Kerneis, doctorant au laboratoire Preuves, Programmes et Systèmes de l’université Paris 7 – Diderot, membre de Regards citoyens, association pour la diffusion et le partage de l’information politique. Elle était également consacrée à la Déconnexion en revenant avec l’écrivain et blogueur Thierry Crouzet, deux mois après le lancement de son expérience de déconnexion totale (voir l’émission du 17 avril).