Étiquette : moderation (Page 7 of 9)

“Un journal local texan, The Liberty County Vindicator, a publié sur sa page Facebook différents extraits de la déclaration d’indépendance américaine, les jours précédant la fête nationale américaine du mercredi 4 juillet. L’un de ces extraits, le dixième publié, a été supprimé par Facebook, qui a signalé au journal qu’il violait le règlement du réseau social : le contenu a été identifié comme discours de haine. L’extrait en question est depuis longtemps objet de discussions. Il y est notamment question des « Indiens, ces sauvages sans pitié, dont la manière bien connue de faire la guerre est de tout massacrer, sans distinction d’âge, de sexe ni de condition »”.

Source : Un extrait de la déclaration d’indépendance américaine supprimé par erreur par Facebook

“Parmi les indicateurs, qui se compteraient par « centaines », le fait qu’un compte n’ait pas confirmé d’adresse email, qu’une même personne ait créé simultanément plusieurs comptes, ou qu’elle mentionne dans ses tweets des personnes qui ne la suivent pas.
Comme pour la modération de ses contenus, Twitter compte, pour repérer les « trolls », sur une combinaison de moyens techniques (détection automatique grâce à des algorithmes) et humains (signalements des utilisateurs, modérateurs). Une fois identifiés, ils verront leurs commentaires non pas supprimés, puisqu’ils « ne transgressent pas les règles de Twitter », mais invisibilisés par défaut.Le réseau social se défend pour autant de toute volonté de censure, et assure ne pas dépasser sa mission d’hébergeur en triant les contenus”.

Source : Twitter rend les « trolls » moins visibles sur sa plateforme

“Sur le réseau, les insultes s’enchaînent et se comptent par milliers. Le compte Twitter ayant diffusé la fausse information est resté actif jusqu’à dimanche soir — soit quatre jours après la publication du message. Une éternité qui laisse aux noms et aux photos le temps d’être partagées par centaines, et vues par millions. A l’agitation virtuelle des réseaux sociaux succèdent des menaces bien réelles pour la victime et qui vont au-delà du choc émotionnel, déjà violent. D’après une source de la gendarmerie locale suivant de près le dossier, Céline F. n’a pas pu rentrer chez elle le soir de la publication du tweet car « deux individus menaçants étaient postés à la porte de son domicile » ”.

Source : Mort de Naomi Musenga, le calvaire des trois opératrices accusées à tort

«Nos règles ne correspondent pas au droit américain. L’exemple le plus parlant, ce sont les propos haineux. Ils sont légaux aux Etats-Unis. Mais nos règles sont beaucoup plus proches des normes européennes : nous n’autorisons pas les attaques contre les gens sur la base de leur genre ou de leur orientation sexuelle par exemple. Nos règles ne seront jamais juste américaines ou françaises mais doivent s’adapter au monde entier.
[…] Il y a certains domaines où la technologie est déjà très utile. Notamment dans le champ de l’image : il est facile pour une machine de reconnaître certains types de contenus comme des vidéos de décapitation ou de la pédopornographie. C’est beaucoup plus difficile pour du texte. Selon leur utilisation, les mêmes quatre mots peuvent être une attaque ou être totalement acceptables. C’est très dur pour nos outils automatiques de distinguer ces deux situations. Mais nous pensons y arriver. Actuellement, ils nous servent à repérer des contenus problématiques avant de les présenter à des modérateurs humains, qui prennent la décision. Cette dernière est ensuite incorporée à nos outils pour les améliorer».

Source : Facebook : la directrice de la politique des contenus explique les règles de modération

Facebook - Fake

«In its first quarterly Community Standards Enforcement Report, Facebook said the overwhelming majority of moderation action was against spam posts and fake accounts: it took action on 837m pieces of spam, and shut down a further 583m fake accounts on the site in the three months. But Facebook also moderated 2.5m pieces of hate speech, 1.9m pieces of terrorist propaganda, 3.4m pieces of graphic violence and 21m pieces of content featuring adult nudity and sexual activity».

Source : Facebook closed 583m fake accounts in first three months of 2018 | Technology | The Guardian

«Afficher des extraits de pages Wikipédia ne réglera sans doute pas ces enjeux plus larges. D’autant plus que ces « signaux d’information » (information cues) ne concernent pas ce que la plupart des experts considèrent être la source du problème : l’algorithme de recommandation. Ce dernier permet de suggérer à l’internaute des vidéos qu’il estime similaires à celle qu’il est en train de consulter et donc susceptibles de l’intéresser.Plusieurs experts, dont un ancien ingénieur de YouTube, estiment que l’objectif principal est de faire en sorte que les utilisateurs visionnent des vidéos le plus longtemps possible. Ce système favoriserait ainsi les vidéos les plus accrocheuses, notamment celles… sur les théories du complot et les fausses informations».

Source : Pour combattre le complotisme, YouTube fait appel à Wikipédia

«Par-delà la fiction collectivement admise que le harcèlement du web est pratiqué par des ados inconscients, des personnes qui n’oseraient dire à voix haute l’inanité de leurs commentaires, Philippe est ce roc imperturbable qui ne bouge pas. Quand tu as soixante ans, que tu fais ça pendant des années, tu es la preuve qu’il n’y a pas de profil type de harceleur».

Source : Le cyber-harceleur était un retraité – Pop culture – Numerama

«Une « erreur »…« Nous nous excusons pour cette erreur et avons indiqué à l’annonceur que nous approuvons son annonce », a déclaré auprès de l’AFP une porte-parole de Facebook. Facebook a souligné jeudi que sa « politique en matière de publicité ne permet pas la nudité ou la nudité suggérée ». « Mais nous faisons une exception pour les statues, et à ce titre cette annonce aurait dû être approuvée », a précisé la porte-parole».

Source : Facebook présente ses excuses après la censure d’une Vénus paléolithique

«Après la fusillade du lycée de Parkland, YouTube s’est retrouvé sous le feu des critiques, pour avoir laissé la vidéo conspirationniste d’Infowars en ligne, et qui plus est dans son onglet « tendances ». Le site s’en était expliqué, assurant dans un communiqué que le contenu en question avait été identifié à tort par un algorithme comme respectant les règles d’utilisation de la plate-forme».

Source : YouTube sanctionne une chaîne pour une vidéo conspirationniste sur la tuerie en Floride

« Older posts Newer posts »

© 2025 no-Flux

Theme by Anders NorenUp ↑