“After a few hours, I had to stop. If the rapid string of sad videos made me feel bad, how would a 14-year-old feel after watching this kind of content day after day? One account is dedicated to “sad and lonely” music. Another features a teenage girl crying in every video, with statements about suicide. One is full of videos filmed in a hospital room. Each of the hospital videos contains text expressing suicidal thoughts, including, “For my final trick I shall turn into a disappointment.”
Users have developed creative ways to skirt TikTok’s content filters. For instance, since TikTok won’t allow content referencing suicide, people use a sound-alike such as “sewerslide,” or just write “attempt” and leave the rest to the viewer’s imagination. Creators of videos about disordered eating have also evaded TikTok’s filters.
Policing all the content on a service used by more than one billion monthly users is no easy task. Yet there is a difference between stamping out harmful content and promoting it. “If tech companies can’t eliminate this from their platforms, don’t create algorithms that will point kids to that information,” said Arthur C. Evans Jr., chief executive of the American Psychological Association.”
Étiquette : moderation (Page 2 of 9)
“La publication du code source de Twitter est-elle dangereuse ? Elle va en tout cas permettre à des utilisateurs d’optimiser leur TweepCred pour améliorer leurs chances de passer devant les autres devant l’algorithme. Cependant, plusieurs éléments importants restent cachés, comme le fait que l’on ne sache pas comme l’onglet « Pour Vous » classe les tweets. Être vu par l’algorithme est important, mais apparaître à la 54ème place n’a aucun intérêt… On note aussi l’existence de paramètres amusants, comme celui qui détermine pour chaque tweet si l’auteur est Elon Musk, mais seulement dans un but statistique. Dans le futur, Twitter compte faire évoluer son algorithme, ce qui rendra cette publication obsolète. En attendant, Elon Musk a tenu sa promesse. ”
Source : Les secrets de l’algorithme de Twitter rendus publics : voici ce qu’on apprend – Numerama
“But an AI bot cannot always distinguish between helpful and hateful content. According to George Washington University’s Ding, after ChatGPT was trained by digesting the 175 billion parameters that inform it, parent company OpenAI still needed to employ several dozen human contractors to teach it not to regurgitate racist and misogynist speech or to give instructions on how to do things like build a bomb. This human-trained version, called InstructGPT, is the framework behind the chat bot. No similar effort has been announced for Baidu’s Ernie Bot or any of the other Chinese projects in the works, Ding said. Even with a robust content management team in place at Baidu, it may not be enough. Zhao, the former Baidu employee, said the company originally dedicated just a handful of engineers to the development of its AI framework. “Baidu’s AI research was slowed by a lack of commitment in a risk-ridden field that promised little return in the short term,” she said.”
Source : China’s chatbots, like Baidu’s Ernie, grapple with tech and censorship – The Washington Post
“… la solution n’est pas de laisser ces entreprises privées trancher seules des questions de société complexes, mais « de laisser les gens choisir ce qu’ils veulent voir ou non ». « Les endroits où l’on peut parler de sexualité ou se montrer nu en ligne se réduisent petit à petit, et cela a un impact sur tout le monde. Aux yeux de certains, une travailleuse du sexe et une éducatrice en santé sexuelle, c’est la même chose, et il faudrait les censurer toutes les deux. Pour moi, ce n’est pas seulement un sujet de liberté d’expression. C’est un enjeu de droits humains. »”
Source : Comment Meta est devenu le symbole de la censure du corps féminin en ligne
“Le Conseil de surveillance a annulé les décisions initiales de Meta de supprimer deux publications d’Instagram représentant des personnes transgenres et non binaires à la poitrine nue. Il recommande également à Meta de modifier son Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes afin qu’il soit régi par des critères clairs qui respectent les normes internationales en matière de droits de l’homme.
Meta devrait modifier son approche de la gestion de la nudité sur ses plateformes en définissant des critères clairs pour régir la politique relative à la nudité et aux activités sexuelles des adultes, qui garantissent que tous les utilisateurs sont traités d’une manière conforme aux normes en matière de droits de l’homme. Elle devrait également examiner si la politique relative à la nudité et aux activités sexuelles des adultes protège contre le partage non consenti d’images, et si d’autres politiques doivent être renforcées à cet égard. ”
Source : Conseil de surveillance | Un avis indépendant. Transparence. Légitimité.
“Présentée à tort comme un simple moyen d’acheter une certification, l’annonce d’Elon Musk va en réalité beaucoup plus loin. Le petit badge bleu sera bien attribué à tous les abonnés de Twitter Blue (8 dollars par mois, avec des prix différents dans tous les pays), mais n’est qu’un appât pour attirer des abonnés. Sa signification va complètement changer puisqu’elle ne sera plus synonyme de « célébrité », mais tout simplement de la participation au programme payant de Twitter. Les personnalités publiques conserveront une indication secondaire sur leur profil, pour authentifier leur identité, mais elle ne sera plus visible sur leurs tweets (celles qui ne payent pas perdront d’ailleurs leur badge).
S’abonner à Twitter Blue n’ajoutera pas seulement un badge bleu à côté de son nom. Le changement le plus important annoncé par Elon Musk concerne l’algorithme, réécrit pour mieux mettre en avant les comptes payants.”
Source : Avec sa version payante de Twitter, Elon Musk change complètement le réseau social – Numerama
“Cheep a été justement présenté partout comme un contributeur historique de l’encyclopédie, actif depuis 15 ans, et qui a profité de cette aura pour se sortir de certaines situations houleuses — notamment lorsqu’il avait tenté de publier sur Wikipédia que « la responsabilité dans la Shoah en France [de Philippe Pétain et Pierre Laval] est sujette à débat.» À l’heure où nous écrivons ces lignes, le 18 février à midi, Samuel Lafont dénonce une « censure » de Wikipédia en générant de nombreux tweets sur le sujet. Il y a deux semaines, le Monde décortiquait ces opérations d’exposition sur Twitter, menées et assumées par le responsable de la stratégie numérique d’Éric Zemmour, qui permettent à certains hashtags de devenir artificiellement populaires sur le réseau social.”
“Twitter a 300 millions d’utilisateurs et utilisatrices actives par mois, pour seulement 1 867 modérateurs dans le monde. Cette disproportion a été révélée par BFM TV, qui s’est procuré les chiffres que la plateforme a elle-même communiqués au CSA (Conseil supérieur de l’audiovisuel) en septembre dernier. « Nous avons récemment doublé le nombre de personnes chargées de faire respecter nos règles. Chez Twitter, 1 867 personnes se consacrent exclusivement à l’application de nos politiques et à la modération des contenus. Ce chiffre représente plus d’un tiers de l’ensemble de nos effectifs mondiaux », peut-on lire.”
“L’une des raisons invoquées en filigrane est la dureté des images et contenus auxquelles les modérateurs et modératrices sont exposées : il serait plus « humain » selon Twitter de ne pas leur infliger ce travail. Sur ce point, il serait difficile de contredire la plateforme, tant les enquêtes et reportages médiatiques ont montré, depuis des années, la dureté du métier de modérateur en ligne, des « petites mains » invisibles du web qui sont exposées en première ligne au pire de la violence humaine”.
Source : Twitter assume n’avoir quasiment pas de modérateurs humains – Numerama
“Facebook’s internal documents reveal just how far its AI moderation tools are from identifying what human moderators were easily catching. Cockfights, for example, were mistakenly flagged by the AI as a car crash. “These are clearly cockfighting videos,” the report said. In another instance, videos livestreamed by perpetrators of mass shootings were labeled by AI tools as paintball games or a trip through a carwash. If the situation sounds grim in the US or among English-speaking countries, it appears far worse elsewhere. In Afghanistan, for example, the company said in reports that it lacks a dictionary of slurs in the country’s various languages. As a result, Facebook estimates that it identified just 0.23 percent of hate speech posted on the platform in Afghanistan.”
Source : Facebook AI moderator confused videos of mass shootings and car washes | Ars Technica
““Facebook puts users in a near-impossible position by telling them they can’t post about dangerous groups and individuals, but then refusing to publicly identify who it considers dangerous,” said Faiza Patel, co-director of the Brennan Center for Justice’s liberty and national security program, who reviewed the material. The list and associated rules appear to be a clear embodiment of American anxieties, political concerns, and foreign policy values since 9/11, experts said, even though the DIO policy is meant to protect all Facebook users and applies to those who reside outside of the United States (the vast majority). Nearly everyone and everything on the list is considered a foe or threat by America or its allies: Over half of it consists of alleged foreign terrorists, free discussion of which is subject to Facebook’s harshest censorship.”
Source : Facebook’s Secret Blacklist of “Dangerous” Groups and People