Étiquette : deep fake (Page 1 of 2)

Sora 2 Watermark Removers Flood the Web

https://images.unsplash.com/photo-1684493735679-359868df0e18?crop=entropy&cs=tinysrgb&fit=max&fm=jpg&ixid=M3wxMTc3M3wwfDF8c2VhcmNofDN8fE9wZW4lMjBBSXxlbnwwfHx8fDE3NTk4NDM5MTd8MA&ixlib=rb-4.1.0&q=80&w=2000

“Tobac showed 404 Media a few horrifying videos to illustrate her point. In one, a child pleads with their parents for bail money. In another, a woman tells the local news she’s going home after trying to vote because her polling place was shut down. In a third, Sam Altman tells a room that he can no longer keep Open AI afloat because the copyright cases have become too much to handle. All of the videos looked real. None of them have a watermark. “All of these examples have one thing in common,” Tobac said. “They’re attempting to generate AI content for use off Sora 2’s platform on other social media to create mass or targeted confusion, harm, scams, dangerous action, or fear for everyday folk who don’t understand how believable AI can look now in 2025.””

Source : Sora 2 Watermark Removers Flood the Web

18% des médias et 33% des sites tech les plus recommandés par Google sont générés par IA

Google Discover - Fake news from GenAI media

“L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.”

Source : 18% des médias et 33% des sites tech les plus recommandés par Google sont générés par IA – Next

Deepfakes: jusqu’à 100 000 francs d’amende en Suisse à l’étude

Une main tenant un smartphone affichant des miniatures floues de vidéos en ligne, illustrant la navigation sur un site adulte.

“Raphaël Mahaim (Les Verts/VD) est en train de concocter une initiative parlementaire pour contraindre les auteurs de deepfakes et les plateformes de diffusion – comme TikTok ou Facebook – à identifier clairement ces contenus fallacieux. En gros, il faudrait leur apposer une mention explicite «généré par l’IA». La règle ne concernerait cependant que les deepfakes présentant un caractère trompeur ou attentatoire à la personnalité, diffusés en dehors de la sphère privée. La mention ne serait, par exemple, pas nécessaire dans le cas d’un deepfake partagé à son conjoint ou d’une photo dont on aurait seulement changé la couleur du paysage.”

Source : Deepfakes: jusqu’à 100 000 francs d’amende en Suisse à l’étude | 24 heures

25 arrested in global hit against AI-generated child sexual abuse material | Europol

Operation Cumberland

“Europol has supported authorities from 19 countries in a large-scale hit against child sexual exploitation that has led to 25 arrests worldwide. The suspects were part of a criminal group whose members were engaged in the distribution of images of minors fully generated by artificial intelligence (AI). ”

Source : 25 arrested in global hit against AI-generated child sexual abuse material | Europol

Un expert judiciaire accusé d’utiliser une IA pour générer son rapport sur les deepfakes

Affichage de l'image en full screen

“…dans son texte, Jeff Hancock explique aussi que « la difficulté à identifier les deepfakes vient de la technologie sophistiquée utilisée pour créer des reproductions homogènes et réalistes de l’apparence et de la voix d’une personne. ». Pour l’affirmer, il s’appuie sur une étude qui « a montré que même lorsque les individus sont informés de l’existence des deepfakes, ils peuvent avoir du mal à faire la distinction entre un contenu réel et un contenu manipulé. Cette difficulté est exacerbée sur les plateformes de médias sociaux, où les deepfakes peuvent se propager rapidement avant d’être identifiés et supprimés. ». Sauf que cette étude ne semble pas exister.”

Source : Un expert judiciaire accusé d’utiliser une IA pour générer son rapport sur les deepfakes – Next

AI Scambaiters: O2 creates AI Granny to waste scammers’ time

“O2 has created human-like Daisy, an AI ‘Granny’ to answer calls in real time from fraudsters, keeping them on the phone and away from customers for as long as possible. With Daisy revealing how you’re not always speaking to the person you think you are, O2 is urging customers to remain vigilant, leave ‘scambaiting’ to the AI experts and report suspected fraudulent calls and texts for free to 7726”

Source : Youtube – O2 – AI Scambaiters: O2 creates AI Granny to waste scammers’ time

Comment se défendre face au cyberharcèlement ? L’avocat Alexandre Archambault nous explique

https://next.ink/wp-content/uploads/2024/09/ecole.webp

“Porter plainte au civil, comme l’a fait cette enseignante, a plusieurs avantages : lorsqu’on est bien conseillé, cela permet de maîtriser la procédure. Ça permet aussi d’obtenir l’identification des harceleurs au bout de quelques semaines – dans certaines affaires, Twitter a ainsi dû identifier plus de 600 internautes ayant retweeté un doxxing, Google faire remonter l’identification de comptes Gmail, Instagram et Wikipedia ont aussi dû opérer des identifications…”

Source : Comment se défendre face au cyberharcèlement ? L’avocat Alexandre Archambault nous explique – Next

An update on our approach to tackling intimate image abuse – Microsoft On the Issues

“We have heard concerns from victims, experts, and other stakeholders that user reporting alone may not scale effectively for impact or adequately address the risk that imagery can be accessed via search. As a result, today we are announcing that we are partnering with StopNCII to pilot a victim-centered approach to detection in Bing, our search engine. StopNCII is a platform run by SWGfL that enables adults from around the world to protect themselves from having their intimate images shared online without their consent. StopNCII enables victims to create a “hash” or digital fingerprint of their images, without those images ever leaving their device (including synthetic imagery). Those hashes can then be used by a wide range of industry partners to detect that imagery on their services and take action in line with their policies.”

Source : An update on our approach to tackling intimate image abuse – Microsoft On the Issues

Comment reconnaître une image générée par le logiciel Midjourney ?

https://no-flux.beaude.net/wp-content/uploads/2023/04/848045b_1679919125316-screenshot-2023-03-27t141123-445.png

“La sophistication de plus en plus avancée de ces outils promet un monde dans lequel distinguer une véritable photo d’une création informatique sera quasi impossible, quand ce n’est pas déjà le cas. Alors que mettre en scène le pape François dans des situations décalées est devenu depuis ces derniers jours l’une des activités les plus à la mode sur le forum Reddit, quelques indices permettent encore, parfois, de ne pas se faire avoir.”

Source : Comment reconnaître une image générée par le logiciel Midjourney ?

« Older posts

© 2025 no-Flux

Theme by Anders NorenUp ↑