Mois : avril 2026

Social media is populist and polarising; AI may be the opposite

AI conversations were discussions about policy and social issues; the data shown represents the estimated shift in pre-existing beliefs after AI persuasion.

“I found that while different AI platforms behave in subtly different ways, all of them nudge people away from the most extreme positions and towards more moderate and expert-aligned stances. On average, Grok guides conversations about policy and society towards the centre-right — a rightward push for most people but a moderating nudge towards the centre for those who start out as conservative hardliners. OpenAI’s GPT, Google’s Gemini and the Chinese model DeepSeek all exert similarly sized nudges towards a centre-left worldview — a slight leftward nudge for most people but a moderating push away from fringe leftwing positions.”

Source : Social media is populist and polarising; AI may be the opposite

Anthropic ‘Mythos’ AI model representing ‘step change’ in power revealed in data leak

https://no-flux.beaude.net/wp-content/uploads/2026/04/GettyImages-2261589651-scaled.jpg

““In preparing to release Claude Capybara, we want to act with extra caution and understand the risks it poses—even beyond what we learn in our own testing. In particular, we want to understand the model’s potential near-term risks in the realm of cybersecurity—and share the results to help cyber defenders prepare,” the document said. Anthropic appears to be especially worried about the model’s cybersecurity implications, noting that the system is “currently far ahead of any other AI model in cyber capabilities,” and “it presages an upcoming wave of models that can exploit vulnerabilities in ways that far outpace the efforts of defenders.” In other words, Anthropic is concerned that hackers could use the model to run large-scale cyberattacks. The company said in the draft blog that because of this risk, its plan for the model’s release would focus on cyber defenders: “We’re releasing it in early access to organizations, giving them a head start in improving the robustness of their codebases against the impending wave of AI-driven exploits.””

Source : Exclusive: Anthropic ‘Mythos’ AI model representing ‘step change’ in power revealed in data leak | Fortune

Musique générée par IA : Comment les faux artistes inondent les plateformes de streaming

“Céline crée de bougies qu’elle vend dans une boutique, à Mulhouse, dans l’est de la France. Ses compétences en musique sont minimales. Pourtant, en 2025, ses morceaux ont été écoutés des millions de fois. Ce succès, elle le doit à un nouvel outil de génération de musique par intelligence artificielle (IA), qui lui a permis de mettre en musique – et en quelques secondes – des mots rédigés dans son journal intime. Céline n’est pas un cas isolé et, au-delà de son heureux destin, une vague d’ampleur pourrait bouleverser l’industrie de la musique. Lire aussi | Article réservé à nos abonnés Face à la musique générée par IA, l’industrie ne sait pas sur quel pied danser Le Monde a enquêté plusieurs mois sur la musique générée par IA, dont la diffusion sur les plateformes de streaming devient massive. Nous avons rencontré des acteurs de premier plan de l’industrie musicale, des artistes et des producteurs. Ils nous ont montré le fonctionnement révolutionnaire de ces outils, dévoilé des chiffres exclusifs et présenté les enjeux durables auxquels fait aujourd’hui face la création musicale.”

Source : VIDEO – Musique générée par IA : Comment les faux artistes inondent les plateformes de streaming

Face à la musique générée par IA, l’industrie ne sait pas sur quel pied danser

“Si l’IA représente aujourd’hui environ 1 % des écoutes des utilisateurs de Spotify ou de Deezer, elle prend en revanche une place démesurée dans les nouvelles musiques réceptionnées par les plateformes. Plus de 39 % des morceaux mis en ligne chaque jour sur Deezer sont générés par une IA. Une proportion probablement similaire sur les autres services, qui disposent généralement des mêmes catalogues. Ces chiffres, tout le monde a un intérêt à les mesurer aujourd’hui. D’abord parce que tous s’accordent à dire que la musique générée par IA est plus souvent associée à de la fraude, comme l’achat de fausses écoutes générées par des milliers voire des millions de « robots » afin de gonfler son audience. « La capacité de détourner de la musique est devenue énorme et a été simplifiée, analyse Alexis Metaoui, directeur du numérique au sein du label Because. Certains produisent de la musique créée par des bots [programmes automatisés], la font écouter par des bots, et tout ça prend une part de marché dans un système de rémunération des artistes qui est déjà compliqué. »”

Source : Face à la musique générée par IA, l’industrie ne sait pas sur quel pied danser

L’IA met les musiciens au défi de faire mieux qu’elle

https://no-flux.beaude.net/wp-content/uploads/2026/04/397f49f_upload-1-cgmb8sesyq53-ia-musique-creation-02-2.jpg

“Alors qu’il était persuadé que le logiciel allait générer une proposition de musique très synthétique à l’oreille, JP Manova n’en revient pas du résultat. Après seulement quelques minutes de « travail » pour l’IA, le refrain est chanté par une chorale de 30 personnes qui suivent exactement les arrangements vocaux écrits par le choriste. Mais le logiciel propose aussi d’autres variantes, toutes conformes à la requête initiale… « Suno m’a donné, en à peine dix minutes, explique-t-il, plusieurs versions de mon morceau, avec des propositions que je n’avais pas forcément imaginées. Il m’a donné l’équivalent d’un travail qui aurait pu durer une journée, si j’avais la place et le budget pour accueillir dans mon studio une chorale d’une trentaine de chanteurs. » ”

Source : L’IA met les musiciens au défi de faire mieux qu’elle

The Story Behind Those Fruit and Vegetable AI Slop Videos

https://no-flux.beaude.net/wp-content/uploads/2026/04/0a2838cff006fcb6facde8448a28e93dd9-ai-videos-lede-2.2x.rhorizontal.w1100.jpg

“It’s helpful to remember that for all the concern trolling about AI and how computers are taking over the world, one of the largest threats posed by AI is a human one: Bad actors can easily harness this technology to prey on people’s emotions, even if the content itself is patently ridiculous. And that’s scary.
“Remember when Sora came out and people were making videos of cats figure skating or bears flying?” Smailys says. “At the time, those were incredibly hard to make. But the wow factor goes away so fast.” As AI videos become more violent, or more explicit, or more disturbing, the chicken nugget begging for its life may seem quaint. “There is definitely a segment of the AI content-generation market that is willing to get views at any cost,” Smailys says.
It’s difficult to envision what, exactly, the future of user-generated AI video might look like. But with most platforms doing the bare minimum to regulate this kind of content, it seems inevitable that each person’s consumption will skew more toward computer-generated slop that taps into their deepest capacities for emotion without actually earning it. Maybe that looks like deepfake images of bombings and terrorist attacks. ”

Source : The Story Behind Those Fruit and Vegetable AI Slop Videos

Police used AI facial recognition to arrest a Tennessee woman for crimes committed in a state she says she’s never visited

 

Angela Lipps, 50, was first arrested in Tennessee on July 14, according to a statement from the Fargo Police Department and a verified GoFundMe page.

“Ian Adams, an assistant professor in the department of Criminology and Criminal Justice at the University of South Carolina, told CNN that police are currently rapidly adopting new technologies, including AI – with little evidence for their efficacy. “We’re doing it so quickly that all agencies really have to rely on is vendor promises,” he said. He added that most mistakes involving AI in policing involve human error, too. “The overwhelming amount of the time, it’s not just a technology problem, it’s a technology and people problem,” Adams said. “We get nightmare scenarios when we don’t have people doing what they’re supposed to do, with technology that they’re using inappropriately.” Because AI tools are so powerful, “it’s very easy to get lulled into a sense of complacency,” he said. But “your detectives need to be really, really careful to make sure that they’re putting their human eyes on these algorithmic results.” ”

Source : Police used AI facial recognition to arrest a Tennessee woman for crimes committed in a state she says she’s never visited | CNN

© 2026 no-Flux

Theme by Anders NorenUp ↑