“ On vous a bien eu 🫣 #poissondavril #ia @thomasdeseur ”
Source : @EstheriumYT
“ On vous a bien eu 🫣 #poissondavril #ia @thomasdeseur ”
Source : @EstheriumYT

“Dans un contexte où “les rédactions subissent d’énormes pressions qui les poussent à publier rapidement”, note la NZZ, et où les IA génératives sont de plus en plus performantes pour produire des images réalistes, de tels incidents risquent de survenir à une fréquence accrue. D’où le rôle crucial de l’Osint − l’enquête en sources ouvertes −, qui va de “la vérification des métadonnées et des recherches d’images inversées à l’analyse de la plausibilité des ombres et des gros plans”.”
Source : Guerre en Iran : plusieurs médias s’excusent d’avoir publié des photos modifiées par l’IA

“Pour Inception Point AI, les « influenceurs IA » constituent « la prochaine frontière à un milliard de dollars », dans la mesure où ils peuvent travailler tout le temps, sans avoir besoin de dormir, et offrent « une qualité supérieure à ~1/25000 du coût » d’un influenceur humain. Un épisode de podcast ne leur coûterait en effet que 1 $ seulement. Ce qui leur permet de privilégier la quantité à la qualité, d’autant qu’il suffit de 20 auditeurs pour qu’un épisode soit rentable. Et tant pis si les yeux de certaines de ces influenceuses synthétiques sont quelque peu bâclés.”
Source : Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA – Next

“The future of storytelling has a face. Inception Point AI is creating that face with AI personalities who inform, entertain, and inspire.They cook. They gossip. They teach. They perform.”
Source : Inception Point AI – InceptionPoint AI — AI-Powered Personality Creators

“OpenAI has blocked users from making videos of Martin Luther King Jr. on its Sora app after the estate of the civil rights leader complained about the spread of « disrespectful depictions. »
Since the company launched Sora three weeks ago, hyper-realistic deepfake videos of King saying crude, offensive or racist things have rocketed across social media, including fake videos of King stealing from a grocery store, speeding away from police and perpetuating racial stereotypes.
Late on Thursday, OpenAI and King’s estate released a joint statement saying AI videos portraying King are being blocked as the company « strengthens guardrails for historical figures. »
OpenAI said it believes there are « strong free speech interests » in allowing users to make AI deepfakes of historical figures, but that estates should have ultimate control over how those likenesses are used.”
Source : OpenAI blocks AI videos of Martin Luther King Jr. : NPR
“Tobac showed 404 Media a few horrifying videos to illustrate her point. In one, a child pleads with their parents for bail money. In another, a woman tells the local news she’s going home after trying to vote because her polling place was shut down. In a third, Sam Altman tells a room that he can no longer keep Open AI afloat because the copyright cases have become too much to handle. All of the videos looked real. None of them have a watermark. “All of these examples have one thing in common,” Tobac said. “They’re attempting to generate AI content for use off Sora 2’s platform on other social media to create mass or targeted confusion, harm, scams, dangerous action, or fear for everyday folk who don’t understand how believable AI can look now in 2025.””

“L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.”
Source : 18% des médias et 33% des sites tech les plus recommandés par Google sont générés par IA – Next

“Raphaël Mahaim (Les Verts/VD) est en train de concocter une initiative parlementaire pour contraindre les auteurs de deepfakes et les plateformes de diffusion – comme TikTok ou Facebook – à identifier clairement ces contenus fallacieux. En gros, il faudrait leur apposer une mention explicite «généré par l’IA». La règle ne concernerait cependant que les deepfakes présentant un caractère trompeur ou attentatoire à la personnalité, diffusés en dehors de la sphère privée. La mention ne serait, par exemple, pas nécessaire dans le cas d’un deepfake partagé à son conjoint ou d’une photo dont on aurait seulement changé la couleur du paysage.”
Source : Deepfakes: jusqu’à 100 000 francs d’amende en Suisse à l’étude | 24 heures

“Europol has supported authorities from 19 countries in a large-scale hit against child sexual exploitation that has led to 25 arrests worldwide. The suspects were part of a criminal group whose members were engaged in the distribution of images of minors fully generated by artificial intelligence (AI). ”
Source : 25 arrested in global hit against AI-generated child sexual abuse material | Europol

“…dans son texte, Jeff Hancock explique aussi que « la difficulté à identifier les deepfakes vient de la technologie sophistiquée utilisée pour créer des reproductions homogènes et réalistes de l’apparence et de la voix d’une personne. ». Pour l’affirmer, il s’appuie sur une étude qui « a montré que même lorsque les individus sont informés de l’existence des deepfakes, ils peuvent avoir du mal à faire la distinction entre un contenu réel et un contenu manipulé. Cette difficulté est exacerbée sur les plateformes de médias sociaux, où les deepfakes peuvent se propager rapidement avant d’être identifiés et supprimés. ». Sauf que cette étude ne semble pas exister.”
Source : Un expert judiciaire accusé d’utiliser une IA pour générer son rapport sur les deepfakes – Next
© 2026 no-Flux
Theme by Anders Noren — Up ↑