• Facebook précise pourquoi, et comment, il supprime des photos et messages litigieux

    Facebook précise pourquoi, et comment,

    il supprime des photos et messages litigieux

    Le Monde.fr | <time datetime="2014-10-10T17:27:29+02:00" itemprop="datePublished">10.10.2014 à 17h27</time> • Mis à jour le <time datetime="2014-10-10T19:03:11+02:00" itemprop="dateModified">10.10.2014 à 19h03</time> | Par

    lien

    Le PDG de Facebook, Mark Zuckerberg, lors d'une conférence à Delhi, le 9 octobre.

    La politique de censure de Facebook sur son site a souvent été épinglée pour son manque de clarté. Dans certains cas, le réseau social laisse passer, parfois sciemment, des contenus jugés choquants par beaucoup : on se souvient des images et des messages incitant à la violence contre les femmes, que Facebook avait au départ refusé de supprimer, avant de finalement revoir sa charte.

    Dans d’autres cas, Facebook peut se montrer très (trop ?) sévère. Une image reproduisant la peinture L’Origine du monde, de Gustave Courbet, assimilée à de la pornographie, avait par exemple été dépubliée et avait conduit à la fermeture d’un compte. 

    « C’EST COMPLIQUÉ »

    « Facebook a des règles qui doivent s’appliquer à 1,3 milliard de personnes [se connectant au moins une fois par mois] dans le monde entier, habitant dans des pays différents et avec des cultures d’expression variées. C’est très compliqué », a volontiers concédé Monika Bickert, la responsable mondiale de la modération chez Facebook, lors d’une rencontre avec la presse à Paris le 8 octobre.

    Le sujet n’en est pas moins primordial pour une plate-forme qui a mis en place des règles strictes encadrant la liberté d’expression, proscrivant entre autres les « violences et menaces », « intimidations et harcèlements », « discours incitant à la haine »« contenus explicites » (soit des images trop violentes) ou encore la « nudité ».

    Une telle ligne, en apparence plus stricte que celle s’appliquant sur d’autres réseaux sociaux (comme Twitter), doit permettre aux utilisateurs de Facebook d’utiliser le site avec leur véritable identité sans crainte d’être associés à des contenus douteux ou trop violents – et aux publicitaires de pouvoir diffuser leurs messages dans un environnement sécurisé.

    Lire : Facebook revoit ses règles pour rassurer les annonceurs

    « Nous voulons que Facebook soit un lieu où les gens partagent d’une manière positive et responsable », a résumé Monika Bickert, une ancienne juriste, en décrivant comment Facebook tente de faire respecter ses règles.

    LA SUPPRESSION N’A LIEU QU’APRÈS SIGNALEMENT

    Première précision : Monika Bickert assure que Facebook « ne cherche pas proactivement » les contenus problématiques. Selon elle, ce travail est impossible face à la masse de données publiées chaque jour par des profils et des pages (Facebook parle de 400 milliards de photos postées sur le réseau depuis octobre 2005).

    Toutes les actions de modération sont donc effectuées après qu’un contenu (statut, commentaire, photo, vidéo, etc.) a éte signalé par un utilisateur de Facebook – grâce aux boutons ad hoc.

    <figure class="illustration_haut " style="width: 534px">

     

     </figure>

    Cette modération a posteriori, et fondée uniquement sur le signalement, explique pourquoi de nombreux messages litigieux restent accessibles pendant plusieurs heures ou jours, même s’ils contreviennent à la charte de Facebook.

    Une fois signalé, le message part dans un circuit à l’apparence passablement compliquée, établissant un ordre de priorité du traitement en fonction du motif. « Les signalements liés à du harcèlement ou à des menaces physiques sont prioritaires et traités en quelques heures », détaille Monika Bickert.

    <figure class="illustration_haut " style="width: 534px">

    image: http://s2.lemde.fr/image/2014/10/10/534x0/4504422_7_f0b5_2014-10-10-7d40b85-21045-i1dldc_72129a5bcb57f7fd3cf62a8ff00e7aed.png

     </figure>

    Si le nombre moyen de contenus concernés par jour reste un mystère, Facebook promet qu’ils sont pour la plupart du temps traités « en moins de soixante-douze heures ». Une fois signalé, chaque contenu est examiné par l’un « des centaines  » de modérateurs de Facebook, répartis dans quatre bureaux (deux aux Etats-Unis, un en Irlande, un en Inde), et qui vont décider de dépublier – ou non – le contenu.

    Ces décisions sont toutes « prises manuellement par des vraies personnes », qui appliquent les règles de communauté sur Facebook, selon Monica Bickert. La responsable a démenti l’existence d’outils permettant de détecter et de supprimer automatiquement des contenus spécifiques, comme la pornographie.

    Les logiciels assistant les modérateurs ne sont selon elle utilisés que dans deux cas précis : la pédopornographie (avec le programme PhotoDNA, développé par Microsoft) et la lutte contre le terrorisme (les contenus signalés comme faisant l’apologie du terrorisme sont analysés en profondeur par un outil spécifique, afin d’identifier, par exemple, les cercles d’amis ou d’autres données liées au compte qui a posté le message).

    MODÉRATION THÉMATIQUE ET GÉOGRAPHIQUE

    En plus d’une application basique de la charte Facebook, les choix de modération sont affinés en fonction de la zone géographique d’où est émis le signalement. Les modérateurs sont « spécialisés, par pays ou par langue. Si vous utilisez Facebook en russe, le message parviendra à l’équipe Russie ». Cela pour évaluer le contexte dans lequel a été posté un message, et l’impact qu’il peut avoir en fonction des références culturelles, éthiques, morales ou religieuses. Facebook a noué des partenariats avec de nombreuses associations locales (en France, par exemple : la LICRA, le CRIF, SOS Racisme, l’UEJF, SOS Homophobie).

    Un autre type de modération « géographique » peut se faire sur demande des gouvernements ou des juridictions. « Nous respectons les lois de chaque pays. Et nous pouvons rendre inaccessible un contenu pour une région particulière, en fonction de différents signaux : l’adresse IP, la langue utilisée par les profils, etc. », selon Monika Bickert.

    Les modérateurs sont également répartis en équipes spécialisées selon les types de contenus litigieux (sécurité des utilisateurs, harcèlement, terrorisme, etc.). Monika Bickert précise que « tous ont reçu des formations approfondies sur chaque thème de notre charte », pour pouvoir notamment transférer les messages aux services directement concernés (« Les gens signalent souvent des choses qui ne violent pas nos standards de communauté pour les raisons qu’ils croient »).

    En cas de doute sur l’action à entreprendre, il arrive que « le problème remonte à des supérieurs, qui peuvent prendre des décisions et consulter d’autres personnes ». Facebook travaille par exemple directement avec les « gouvernements » pour des questions liées au terrorisme, dans un contexte où de nouveaux groupes utilisent fortement les réseaux sociaux pour promouvoir leurs actions.

    POLITIQUE « ANTITERRORISTE »

    « Facebook ne peut pas être un endroit où des utilisateurs anonymes font des choses qui ne respectent pas nos règles, a souligné Monika Bickert. Lorsqu’on nous signale qu'une personne fait l’apologie d’un groupe terroriste, ou la présence sur Facebook d’un groupe terroriste, nous supprimons ce contenu et nous utilisons nos outils automatisés pour nous aider à détecter d’autres comptes associés. Les membres de l’Etat islamique ne peuvent pas utiliser notre site, nous avons une politique antiterroriste très ferme », a-t-elle poursuivi.

    Le jour même, pourtant,  Arrêt sur images publiait une enquête sur la manière dont les djihadistes et leurs sympathisants utilisent Facebook pour décrire leurs actions ou vendre des armes.

    « Nos modérateurs suppriment de toute façon les images trop violentes », a aussi commenté Monika Bickert. Dans les faits, une telle ligne n’a pas non plus toujours été aussi évidente. Facebook avait par exemple longuement hésité à statuer sur une vidéo de décapitation, passant plusieurs jours à la supprimer, puis à la réautoriser, avant de la retirer complètement – s’attirant les foudres de David Cameron. Le Daily Dot a aussi rapporté le cas d’une vidéo montrant un animal en train d’être battu, pour laquelle Facebook avait répondu deux fois de manière différente.

    « Il peut arriver que nos équipes retirent ou laissent un contenu par erreur. Dans ce genre de cas, nous permettons aux utilisateurs de faire appel de la décision et si nos équipes se sont trompées, elles rétablissent la situation dans les plus brefs délais », promet Facebook dans un document consacré à la question.

    Dans ce contexte, la modération des contenus à portée publique postés par des pages Facebook peut se révéler plus complexe que pour ceux postés par des profils privés. Nous-mêmes, au Monde, avons été confrontés à la désactivation temporaire de notre page après avoir diffusé une photo d’actualité considérée comme trop violente (ce qui a été l’occasion d’apprendre qu’il « n’y a pas de charte spécifique aux sites d’information » chez Facebook, comme l’a confirmé Monica Bickhert).

    La structure même des pages ne permet pas, par ailleurs, de signaler à Facebook un commentaire potentiellement litigieux d’un autre utilisateur. « Les pages font partie des zones que nous devons améliorer en termes de signalement des contenus », a admis Monika Bickert.


     

  • Commentaires

    Aucun commentaire pour le moment

    Suivre le flux RSS des commentaires


    Ajouter un commentaire

    Nom / Pseudo :

    E-mail (facultatif) :

    Site Web (facultatif) :

    Commentaire :