Étiquette : manipulation (Page 1 of 17)

Rage bait named word of the year 2025 by Oxford University Press

https://ichef.bbci.co.uk/news/1536/cpsprodpb/c8a9/live/c21efa00-ccf1-11f0-a892-01d657345866.jpg.webp

“ « The fact that the word rage bait exists and has seen such a dramatic surge in usage means we’re increasingly aware of the manipulation tactics we can be drawn into online, » said Casper Grathwohl, president of Oxford Languages. « Before, the internet was focused on grabbing our attention by sparking curiosity in exchange for clicks, but now we’ve seen a dramatic shift to it hijacking and influencing our emotions, and how we respond. « It feels like the natural progression in an ongoing conversation about what it means to be human in a tech-driven world – and the extremes of online culture. » ”

Source : Rage bait named word of the year 2025 by Oxford University Press

Aux Etats-Unis, Facebook et Instagram accusés de multiples négligences vis-à-vis des mineurs

https://no-flux.beaude.net/wp-content/uploads/2025/12/2483655_ftp-import-images-1-gkh9hwbhigkb-2025-09-18t012652z-89501388-rc21ugakh6pe-rtrmadp-3-meta-platforms-virtual-reality.jpg

“Les défauts de modération d’Instagram sont particulièrement pointés : le Time a, par exemple, identifié dans le document le chiffre de 1,4 million de comptes à suivre « potentiellement inappropriés » suggérés en une seule journée à tous les utilisateurs adolescents, selon des documents internes de Meta cités par les plaignants.
Les plaigants accusent aussi Meta de ne pas avoir informé convenablement ses utilisateurs des risques psychiques associés à ses plateformes. Une étude menée par Meta en 2020, baptisée « Project Mercury », est notamment citée : les résultats auraient établi que « les personnes qui ont arrêté d’utiliser Facebook pendant une semaine se sentaient, après cela, moins déprimées, moins anxieuses, et moins seules ». L’entreprise a cependant choisi de garder les conclusions confidentielles.”

Source : Aux Etats-Unis, Facebook et Instagram accusés de multiples négligences vis-à-vis des mineurs

Deloitte allegedly cited AI-generated research in a million-dollar report for a Canadian provincial government

https://no-flux.beaude.net/wp-content/uploads/2025/12/GettyImages-2219338782-e1764016531575-scaled.jpg

“The Deloitte report contained false citations, pulled from made-up academic papers to draw conclusions for cost-effectiveness analyses, and cited real researchers on papers they hadn’t worked on, the Independent found. It included fictional papers coauthored by researchers who said they had never worked together. “Deloitte Canada firmly stands behind the recommendations put forward in our report,” a Deloitte Canada spokesperson told Fortune in a statement. “We are revising the report to make a small number of citation corrections, which do not impact the report findings. AI was not used to write the report; it was selectively used to support a small number of research citations. […] The Canadian government spent just under $1.6 million on the report””

Source : Deloitte allegedly cited AI-generated research in a million-dollar report for a Canadian provincial government | Fortune

ChatGPT: comment l’IA bouleverse Google et moteurs de recherche

https://no-flux.beaude.net/wp-content/uploads/2025/12/DORouIjAKsUA0UE_c-WvNZ.jpg

“À mesure que les usages basculent vers l’IA générative, une nouvelle discipline apparaît: le «GEO» (Generative Engine Optimization), sorte de «SEO» – pour «Search Engine Optimization» – adapté aux moteurs conversationnels. Là où le SEO optimise une page pour qu’elle remonte dans une liste de liens, le GEO structure un contenu pour qu’il soit compris, repris et cité par une IA.
Les moteurs conversationnels ne mettent plus en avant un site, mais une information: ils privilégient les contenus clairs, structurés et facilement synthétisables. L’objectif n’est donc plus de figurer en haut des résultats de Google, mais d’être cité directement par les IA. «Dans ce nouveau contexte, pour les marques, ne pas être cité, c’est ne pas exister», résume Minddex.ai.”

Source : ChatGPT: comment l’IA bouleverse Google et moteurs de recherche | 24 heures

Cybercrime-as-a-service takedown

Photo from action day of Operation SIMCARTEL

“An action day performed in Latvia on 10 October 2025 led to the arrest of five cybercriminals of Latvian nationality and the seizure of infrastructure used to enable crimes against thousands of victims across Europe. During the operation codenamed ‘SIMCARTEL’, law enforcement arrested two further suspects, took down five servers and seized 1 200 SIM box devices alongside 40 000 active SIM cards. Investigators from Austria, Estonia and Latvia, together with their colleagues at Europol und Eurojust, were able to attribute to the criminal network more than 1 700 individual cyber fraud cases in Austria and 1 500 in Latvia, with a total loss of several million euros. The financial loss in Austria alone amounts to around EUR 4.5 million, as well as EUR 420 000 in Latvia.”

Source : Cybercrime-as-a-service takedown: 7 arrested – Operation takes down sophisticated criminal network that enabled criminals to commit serious crimes across Europe | Europol

Elon Musk lance Grokipedia, le concurrent raciste et désinformateur de Wikipédia

https://next.ink/wp-content/uploads/2024/08/Musk-Grok.webp

“Dans son style d’apparence factuelle et neutre, Grokipedia développe sur une douzaine de paragraphes (trois sous-parties au total) des thèses donnant crédit au racisme le plus assumé. Citant une poignée d’études d’apparences scientifiques, avec force chiffres qui peuvent jouer ici le rôle d’arguments d’autorité, Grokipedia remet au goût du jour des éléments issus du racisme scientifique du XIXe siècle, dont des éléments de craniométrie (supposée montrer par des mesures du crâne la supériorité des populations blanches ou européennes sur les autres), ou des différences de comportements voire de quotient intellectuel selon l’origine géographique ou la couleur de peau.”

Source : Elon Musk lance Grokipedia, le concurrent raciste et désinformateur de Wikipédia – Next

Saisie de 30 récepteurs Starlink, mandats d’arrêt: La police sud-coréenne contre-attaque face aux centres de cyberfraude

Cette photo prise le 17 septembre 2025 montre ce qui semble être des antennes Starlink sur les toits des bâtiments du complexe KK Park, dans le canton de Myawaddy, en Birmanie. — © LILLIAN SUWANRUMPHA / AFP

“La Chine, la Thaïlande et la Birmanie ont débuté en février un effort commun pour éradiquer ce fléau et ont mis sous pression les milices birmanes pour qu’elles ferment ces centres. Environ 7000 personnes ont été extraites de ce système brutal. Certaines d’entre elles, originaires d’Asie, d’Afrique ou du Moyen-Orient, ont montré aux journalistes de l’AFP les traces des blessures et des coups qu’elles disent avoir reçus de ceux qui les exploitaient. Une enquête de l’AFP publiée le 15 octobre a révélé la construction effrénée de nouveaux complexes d’escroquerie et l’installation sur leurs toits d’appareils utilisant le service internet par satellite Starlink, propriété d’Elon Musk, qui permettent de pallier la coupure d’Internet par les autorités thaïlandaises. Starlink n’est pas agréé en Birmanie. Avant février, Starlink n’avait pas assez de trafic pour figurer sur la liste des fournisseurs d’accès à Internet dans ce pays.”

Source : Saisie de 30 récepteurs Starlink, mandats d’arrêt: La police sud-coréenne contre-attaque face aux centres de cyberfraude – Le Temps

OpenAI blocks AI videos of Martin Luther King Jr.

https://no-flux.beaude.net/wp-content/uploads/2025/10/urlhttp3A2F2Fnpr-brightspot.s3.amazonaws.com2F5e2F912Fb633946c4ab681c1d8faf6d9e2eb2Fai-mlk.webp

“OpenAI has blocked users from making videos of Martin Luther King Jr. on its Sora app after the estate of the civil rights leader complained about the spread of « disrespectful depictions. »
Since the company launched Sora three weeks ago, hyper-realistic deepfake videos of King saying crude, offensive or racist things have rocketed across social media, including fake videos of King stealing from a grocery store, speeding away from police and perpetuating racial stereotypes.
Late on Thursday, OpenAI and King’s estate released a joint statement saying AI videos portraying King are being blocked as the company « strengthens guardrails for historical figures. »
OpenAI said it believes there are « strong free speech interests » in allowing users to make AI deepfakes of historical figures, but that estates should have ultimate control over how those likenesses are used.”

Source : OpenAI blocks AI videos of Martin Luther King Jr. : NPR

Sora 2 Watermark Removers Flood the Web

https://images.unsplash.com/photo-1684493735679-359868df0e18?crop=entropy&cs=tinysrgb&fit=max&fm=jpg&ixid=M3wxMTc3M3wwfDF8c2VhcmNofDN8fE9wZW4lMjBBSXxlbnwwfHx8fDE3NTk4NDM5MTd8MA&ixlib=rb-4.1.0&q=80&w=2000

“Tobac showed 404 Media a few horrifying videos to illustrate her point. In one, a child pleads with their parents for bail money. In another, a woman tells the local news she’s going home after trying to vote because her polling place was shut down. In a third, Sam Altman tells a room that he can no longer keep Open AI afloat because the copyright cases have become too much to handle. All of the videos looked real. None of them have a watermark. “All of these examples have one thing in common,” Tobac said. “They’re attempting to generate AI content for use off Sora 2’s platform on other social media to create mass or targeted confusion, harm, scams, dangerous action, or fear for everyday folk who don’t understand how believable AI can look now in 2025.””

Source : Sora 2 Watermark Removers Flood the Web

« Older posts

© 2025 no-Flux

Theme by Anders NorenUp ↑