Après deux mois de critiques, Facebook défend son bilan en matière de modération

0

[ad_1]

Quelque 1,8 milliard de faux comptes supprimés en trois mois, tout comme 777,2 millions de spams, ou 22,3 millions de messages haineux… Facebook (désormais appelée « Meta ») a présenté, mardi 9 novembre, son rapport trimestriel, pour la période allant de juillet à septembre, sur ses pratiques de modération.

Barbancourt

le rhum des connaisseurs



        <p class="article__paragraph ">Sur Facebook comme sur Instagram, l’entreprise affirme, chiffres à l’appui, avoir non seulement de nouveau amélioré ses capacités à supprimer les contenus interdits sur ses plates-formes (nudité, apologie du terrorisme, harcèlement…), mais aussi avoir progressé dans leur détection automatique. D’après les données publiées par l’entreprise, la quasi-totalité des messages incitant au suicide ou à la violence, comme la quasi-totalité des contenus interdits sur le réseau social, sont désormais repérés automatiquement, sans signalement de la part d’utilisateurs.</p>            <p class="article__paragraph ">Mais le principal outil utilisé par Facebook pour mesurer l’efficacité de ses services de modération est particulièrement critiqué depuis plusieurs semaines, et la publication des <a href="https://www.lemonde.fr/facebook-files/">«&nbsp;Facebook files&nbsp;»</a>, ces centaines de documents copiés par l’ex-employée du réseau social Frances Haugen, auxquels <em>Le Monde</em> et plusieurs autres rédactions ont eu accès.</p>                                              <h2 class="article__sub-title">Prévalence et problèmes de langues</h2>            <p class="article__paragraph ">Le principal chiffre que met en avant Facebook est la «&nbsp;prévalence&nbsp;» de mauvais contenus sur ses plates-formes, à savoir la fréquence à laquelle un utilisateur est confronté à une photo de nu ou à un message haineux. Selon les chiffres de l’entreprise, la prévalence des messages de haine sur Facebook est ainsi passée à 0,03&nbsp;%&nbsp;: en moyenne, seuls trois messages sur 10&nbsp;000 vus par les utilisateurs sont haineux, un chiffre divisé par trois en un an.<em> «&nbsp;Nous pensons que la prévalence est la meilleure mesure pour évaluer nos progrès&nbsp;»</em>, a répété Guy Rosen, vice-président de Meta, chargé de l’intégrité (modération, protection des utilisateurs…), mardi, lors d’une conférence de presse.</p>              <p class="article__paragraph ">Mais ces chiffres sont donnés uniquement à l’échelle mondiale et constituent une moyenne. Ils ne sont pas représentatifs du parcours de tous les utilisateurs. Ni de tous les pays. Comme le montrent les «&nbsp;Facebook files&nbsp;», dans de nombreux endroits du monde, les outils automatiques de détection de Facebook ne fonctionnent pas, ou mal, et les modérateurs humains sont très peu nombreux. C’est notamment le cas pour la plupart des dialectes de l’arabe. Dans de nombreux pays arabophones, la modération du réseau social est déficiente, et donc la mesure de la prévalence des contenus interdits.</p>                                              <p class="article__paragraph "><em>«&nbsp;Les chiffres que nous publions sont mondiaux et sont élaborés à partir d’échantillons dans plusieurs pays et dans plusieurs langues</em>, a défendu M. Rosen. <em>Nous effectuons des tests manuels de vérification, et nous faisons tout notre possible pour comprendre la prévalence de certains types de contenus également dans les pays qui sont confrontés à des risques particuliers liés à l’actualité.&nbsp;»</em> Pourquoi, dans ce cas, ne pas publier les données pays par pays et langue par langue&nbsp;? <em>«&nbsp;C’est quelque chose que nous envisagerons peut-être à l’avenir&nbsp;»</em>, a fait savoir M. Rosen.</p>            <p class="article__paragraph ">Dans son rapport, Meta a rendu publiques de nouvelles données, dont des chiffres sur les messages supprimés pour harcèlement, avec une prévalence évaluée entre 0,14&nbsp;% et 0,15&nbsp;% sur Facebook, et entre 0,05&nbsp;% et 0,06&nbsp;% sur Instagram. Le harcèlement est l’un des sujets sur lesquels les systèmes de détection automatique restent moins performants, en raison des difficultés qu’ils éprouvent encore à comprendre le contexte nécessaire pour savoir si un message peut être considéré comme tel.</p>                                         <section class="author">  <p class="author__detail">  <span class="author__name">Le Monde</span>  </p>  </section>    <section class="article__reactions">            </section>   

[ad_2]

Source link

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More