International

La première tendance moyenne des discours de haine de Facebook devrait être sur la plateforme

Facebook a déclaré avoir traité 22,1 millions de contenus haineux au troisième trimestre.

Facebook Inc. a révélé jeudi les chiffres pour la première fois sur sa plate-forme sur l’utilisation du discours de haine, affirmant que 10 à 11 sur 10 000 vues de contenu au troisième trimestre incluaient des discours de haine.

La plus grande société de médias sociaux au monde, qui enquête sur le cas d’abus, en particulier autour de l’élection présidentielle américaine de novembre, a publié des estimations dans son rapport trimestriel sur la modération du contenu.

Facebook a déclaré avoir pris des mesures sur 22,1 millions de contenus haineux au troisième trimestre, dont environ 95% en ont identifié 22,5 millions par rapport à la semaine précédente.

L’entreprise définit “ prendre des mesures ” comme la suppression de contenu, le recouvrir d’avertissements, la désactivation de comptes ou l’étendre à des agences extérieures.

Cet été, des groupes de défense des droits civiques ont organisé un boycott publicitaire généralisé pour tenter de faire pression sur Facebook contre les discours de haine.

La société a accepté de divulguer la mesure du discours de haine, qui a été calculée en examinant un échantillon représentatif de contenu consulté sur Facebook et soumis à un audit indépendant de ses dossiers d’application.

Lors d’un appel avec des journalistes, le responsable de la sécurité et de l’intégrité de Facebook, Guy Rosen, a déclaré que l’audit serait achevé sur une période de 20 à 20 ans.

L’Anti-Defamation League, l’un des groupes derrière le boycott, a déclaré que la nouvelle métrique de Facebook manquait toujours de contexte suffisant pour évaluer pleinement ses performances.

“Nous ne savons toujours pas, d’après ce rapport, combien d’utilisateurs de Facebook ~ CHECK ~ signalent ou si des mesures ont été prises”, a déclaré le porte-parole de l’ADL, Todd Gutnick. Ces données importent, a-t-il dit, “qu’il existe de nombreuses formes de discours de haine qui ne sont pas supprimées, même si elles sont signalées”.

Twitter et YouTube, les concurrents d’Alphabet Inc. appartenant à Google, ne révèlent pas de statistiques de diffusion comparables.

Rosen de Facebook a également déclaré que, du 1er mars au 3 novembre, la société avait supprimé plus de 265000 contenus de Facebook et Instagram aux États-Unis pour avoir enfreint ses politiques d’intervention des électeurs.

En octobre, Facebook a déclaré qu’il mettait à jour sa politique linguistique abusive pour interdire les contenus qui nient ou déforment l’Holocauste, une réfutation des commentaires publics du PDG de Facebook, Mark Zuckerberg, sur ce qui a permis Devrait être connu

Facebook a déclaré avoir traité 19,2 millions de contenus violents et graphiques au troisième trimestre, contre 15 millions au deuxième. Sur Instagram, il a traité 4,1 millions de contenus violents et graphiques.

Plus tôt cette semaine, le PDG de Zuckerberg et de Twitter Inc., Jack Dorsey, a été interpellé par le Congrès sur la pratique de modération du contenu de leurs entreprises, allant des allégations républicaines de partisanerie politique aux décisions de discours violentes.

La semaine dernière, Reuters a rapporté que Zuckerberg avait déclaré lors d’une réunion de tout le personnel que l’ancien conseiller de Trump à la Maison Blanche, Steve Bannon, n’avait pas suffisamment violé les politiques de l’entreprise pour justifier la suspension, lorsqu’il a demandé à deux responsables américains. Était.

La société a été critiquée ces derniers mois pour avoir permis à de grands groupes Facebook de gagner du terrain pour avoir fait de fausses déclarations électorales et une rhétorique violente.

Facebook a déclaré que c’était la règle avant de signaler par les utilisateurs qu’il signalait dans la plupart des domaines en raison des améliorations des outils d’intelligence artificielle et de l’expansion de sa technologie de détection dans plus de langues.

Dans un article de blog, Facebook a déclaré que l’épidémie de COVID-19 continue de perturber sa main-d’œuvre chargée de l’examen du contenu, bien que certaines mesures d’application soient revenues à des niveaux pré-épidémiques.

Une lettre ouverte publiée mercredi à https://www.foxglove.org.uk/news/open-letter-from-content-moderators-re-pandemic a accusé plus de 200 modérateurs de contenu Facebook d’appeler ces entreprises Renverser. Bureau et vie «inutilement risquée» pendant l’épidémie.

«Les installations respectent ou dépassent les directives sur un espace de travail sécurisé», a déclaré Rosen de Facebook.

(À l’exception du titre, cette histoire n’a pas été éditée par le personnel de NDTV et publiée à partir d’un flux syndiqué.)

Related Articles

Close