“Jennifer Jacquet, a social scientist at New York University who has studied how companies have undermined the scientific consensus on climate change, says collaborating with prestigious scientists is part of the playbook companies employ when threatened with regulation. “I think this is all part of the strategy of buying time, against any regulation, which they’ve been very good at doing,” she says. “There’s no doubt that these scientists [are] lending their credibility to these companies themselves and that would make me a little bit uncomfortable.”
But unless companies are forced to share their data, there are few ways to study them without collaborating, says Freelon. “Absent some outside enforcer, we are at their mercy and that’s just how it is.”
Michael Wagner, a social scientist at the University of Wisconsin-Madison who was asked to observe the work and wrote a commentary accompanying the Science papers , says Meta’s business interests may have influenced the project at some points. For instance, he says Meta researchers believed that the experimental studies changing users’ feeds were unlikely to show any big effects—and they pushed to get these papers done first. “You could read it as ‘the big splash is going to be that there aren’t huge effects that are so deleterious to democracy that we need to have a bunch of new regulations on our platform.’””
Étiquette : algorithms (Page 1 of 12)
“La publication du code source de Twitter est-elle dangereuse ? Elle va en tout cas permettre à des utilisateurs d’optimiser leur TweepCred pour améliorer leurs chances de passer devant les autres devant l’algorithme. Cependant, plusieurs éléments importants restent cachés, comme le fait que l’on ne sache pas comme l’onglet « Pour Vous » classe les tweets. Être vu par l’algorithme est important, mais apparaître à la 54ème place n’a aucun intérêt… On note aussi l’existence de paramètres amusants, comme celui qui détermine pour chaque tweet si l’auteur est Elon Musk, mais seulement dans un but statistique. Dans le futur, Twitter compte faire évoluer son algorithme, ce qui rendra cette publication obsolète. En attendant, Elon Musk a tenu sa promesse. ”
Source : Les secrets de l’algorithme de Twitter rendus publics : voici ce qu’on apprend – Numerama
“It is a huge thing, and therefore it is important to distinguish what we are talking about. One of the insights in my research at the Max Planck Institute is that if you have a situation that is stable and well defined, then complex algorithms such as deep neural networks are certainly better than human performance. Examples are [the games] chess and Go, which are stable. But if you have a problem that is not stable—for instance, you want to predict a virus, like a coronavirus—then keep your hands off complex algorithms. [Dealing with] the uncertainty—that is more how the human mind works, to identify the one or two important cues and ignore the rest. In that type of ill-defined problem, complex algorithms don’t work well. I call this the “stable world principle,” and it helps you as a first clue about what AI can do. It also tells you that, in order to get the most out of AI, we have to make the world more predictable. […]
Think about a coffee house in your hometown that serves free coffee. Everyone goes there because it is free, and all the other coffee houses get bankrupt. So you have no choice anymore, but at least you get your free coffee and enjoy your conversations with your friends. But on the tables are microphones and on the walls are video cameras that record everything you say, every word, and to whom, and send it off to analyze. The coffee house is full of salespeople who interrupt you all the time to offer you personalized products. That is roughly the situation you are in when you are on Facebook, Instagram or other platforms. [Meta Platforms Inc., the parent company of Facebook and Instagram, declined to comment.] In this coffee house, you aren’t the customer. You are the product. So we want to have a coffee house where we are allowed again to pay [for] ourselves, so that we are the customers.”
Source : A Psychologist Explains How AI and Algorithms Are Changing Our Lives – WSJ
“… la solution n’est pas de laisser ces entreprises privées trancher seules des questions de société complexes, mais « de laisser les gens choisir ce qu’ils veulent voir ou non ». « Les endroits où l’on peut parler de sexualité ou se montrer nu en ligne se réduisent petit à petit, et cela a un impact sur tout le monde. Aux yeux de certains, une travailleuse du sexe et une éducatrice en santé sexuelle, c’est la même chose, et il faudrait les censurer toutes les deux. Pour moi, ce n’est pas seulement un sujet de liberté d’expression. C’est un enjeu de droits humains. »”
Source : Comment Meta est devenu le symbole de la censure du corps féminin en ligne
“Le Conseil de surveillance a annulé les décisions initiales de Meta de supprimer deux publications d’Instagram représentant des personnes transgenres et non binaires à la poitrine nue. Il recommande également à Meta de modifier son Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes afin qu’il soit régi par des critères clairs qui respectent les normes internationales en matière de droits de l’homme.
Meta devrait modifier son approche de la gestion de la nudité sur ses plateformes en définissant des critères clairs pour régir la politique relative à la nudité et aux activités sexuelles des adultes, qui garantissent que tous les utilisateurs sont traités d’une manière conforme aux normes en matière de droits de l’homme. Elle devrait également examiner si la politique relative à la nudité et aux activités sexuelles des adultes protège contre le partage non consenti d’images, et si d’autres politiques doivent être renforcées à cet égard. ”
Source : Conseil de surveillance | Un avis indépendant. Transparence. Légitimité.
“The new documents and a similar batch released this month provide a dramatic account from inside the network, depicting a frantic scramble as Fox tried to woo back its large conservative audience after ratings collapsed in the wake of Mr. Trump’s loss. Fox had been the first network to call Arizona for Joseph R. Biden on election night — essentially declaring him the next president. When Mr. Trump refused to concede and started attacking Fox as disloyal and dishonest, viewers began to change the channel. The filings also revealed that top executives and on-air hosts had reacted with incredulity bordering on contempt to various fictitious allegations about Dominion. These included unsubstantiated rumors — repeatedly uttered by guests and hosts of Fox programs — that its voting machines could run a secret algorithm that switched votes from one candidate to another, and that the company was founded in Venezuela to help that country’s longtime leader, Hugo Chávez, fix elections.”
Source : Murdoch Acknowledges Fox News Hosts Endorsed Election Fraud Falsehoods – The New York Times
“La numérisation à marche forcée des services publics ne découle pas de la prétendue « révolution numérique ». La dématérialisation des démarches administratives, les algorithmes de contrôle CAF, le profilage des chômeurs et des chômeuses, les logiciels de gestion et d’aide à la décision qui régissent les tâches des travailleurs et des travailleuses sociales sont la concrétisation de choix politiques et d’orientations du service public. S’inscrivant dans une logique gestionnaire et comptable de l’action publique et dans une politique de restriction d’accès aux droits, le déploiement de ces technologies de contrôle participe à la dégradation du service public pour les usagères et usagers comme pour les travailleuses et travailleurs.”
Source : Dématérialiser pour mieux régner – Le Mouton Numérique
“Twitter a 300 millions d’utilisateurs et utilisatrices actives par mois, pour seulement 1 867 modérateurs dans le monde. Cette disproportion a été révélée par BFM TV, qui s’est procuré les chiffres que la plateforme a elle-même communiqués au CSA (Conseil supérieur de l’audiovisuel) en septembre dernier. « Nous avons récemment doublé le nombre de personnes chargées de faire respecter nos règles. Chez Twitter, 1 867 personnes se consacrent exclusivement à l’application de nos politiques et à la modération des contenus. Ce chiffre représente plus d’un tiers de l’ensemble de nos effectifs mondiaux », peut-on lire.”
“L’une des raisons invoquées en filigrane est la dureté des images et contenus auxquelles les modérateurs et modératrices sont exposées : il serait plus « humain » selon Twitter de ne pas leur infliger ce travail. Sur ce point, il serait difficile de contredire la plateforme, tant les enquêtes et reportages médiatiques ont montré, depuis des années, la dureté du métier de modérateur en ligne, des « petites mains » invisibles du web qui sont exposées en première ligne au pire de la violence humaine”.
Source : Twitter assume n’avoir quasiment pas de modérateurs humains – Numerama
Algorithms shouldn’t be protected by Section 230, Facebook whistleblower tells Senate | Ars Technica
“Haugen made sure to distinguish between user-generated content and Facebook’s algorithms, which prioritize the content in news feeds and drive engagement. She suggested that Facebook should not be responsible for content that users post on its platforms but that it should be held liable once its algorithms begin making decisions about which content people see.
“They want you to believe that you must choose between a Facebook full of divisive and extreme content or losing one of the most important values our country was founded upon: free speech,” she added. “That you must choose between public oversight of Facebook’s choices and your personal privacy. That to be able to share fun photos of your kids with old friends, you must also be inundated with anger-driven virality. They want you to believe that this is just part of the deal.
“I am here today to tell you that’s not true. These problems are solvable. A safer, free-speech-respecting, more enjoyable social media is possible.”
Source : Algorithms shouldn’t be protected by Section 230, Facebook whistleblower tells Senate | Ars Technica
“Changing algorithms is easier than changing people: software on computers can be updated; the “wetware” in our brains has so far proven much less pliable. None of this is meant to diminish the pitfalls and care needed in fixing algorithmic bias. But compared with the intransigence of human bias, it does look a great deal simpler. Discrimination by algorithm can be more readily discovered and more easily fixed.”
Source : Biased Algorithms Are Easier to Fix Than Biased People – The New York Times