Étiquette : communication (Page 1 of 17)

Messaging Interoperability: WhatsApp enables third-party chats for users in Europe

https://no-flux.beaude.net/wp-content/uploads/2025/11/AdobeStock_197934368-scaled.jpg

“Meta has built third-party interoperability under the Digital Markets Act (DMA), maintaining end-to-end encryption (E2EE) and other privacy guarantees in our services as far as possible.Users in Europe will soon have the option to message eligible services within WhatsApp.BirdyChat and Haiket will be the first third-party services to implement messaging interoperability with WhatsApp. Meta will continue to work with the European Commission and future partners.”

Source : Messaging Interoperability: WhatsApp enables third-party chats for users in Europe

IA: quand l’intelligence artificielle fait parler les morts

https://no-flux.beaude.net/wp-content/uploads/2025/11/E22joxPOqHKB8XoKE_gWd4.jpg

“Ralf Jox, médecin en soins palliatifs et éthicien au CHUV, à Lausanne, a participé à l’étude suisse de référence «La mort à l’ère numérique». Pour lui, ces technologies sont «à double tranchant». Il reconnaît des bénéfices potentiels, notamment à court terme.
«C’est assez séduisant de parler avec les morts, admet-il, parce que la mort reste quelque chose d’incompréhensible, un événement qu’on intègre difficilement. Dans ce contexte, quand on perd quelqu’un qu’on aime, avoir de tels outils à disposition, cela peut aider à vivre un peu mieux le deuil. Du moins à court terme.»
Pour la personne en fin de vie, cela peut aussi être un plus. «Savoir qu’une partie d’elle restera peut avoir un effet consolant et apaisant.» Cependant, selon Ralf Jox, les risques de ces technologiques seraient nombreux. Le premier étant d’ordre psychologique.
«À long terme, le recours à ces outils peut entraver le deuil. Le deuil est un travail de séparation et d’adaptation à une nouvelle vie et à de nouvelles relations sociales sans le défunt, voire un travail sur l’oubli.»
En maintenant une illusion de présence, les avatars du mort pourraient favoriser un «deuil pathologique», qui ne prend pas fin et maintient la personne dans une forme d’irréalité.”

Source : IA: quand l’intelligence artificielle fait parler les morts | 24 heures

La distorsion systémique de l’information par l’IA est constante dans toutes les langues et tous les territoires

EBU - News Integrity in AI Assistants

  • “45 % de toutes les réponses d’IA présentaient au moins une faille significative.
  • 31 % des réponses présentaient de sérieux problèmes de sourcing – Attributions manquantes, trompeuses ou incorrectes.
  • 20 % présentaient des problèmes d’exactitude majeurs, notamment des détails hallucinants et des informations obsolètes.
  • Gemini a obtenu les pires résultats, avec des problèmes significatifs dans 76 % des réponses, soit plus du double des autres assistants.
  • Les taux de refus ont fortement chuté : les assistants sont désormais plus susceptibles de répondre, même lorsqu’ils ne peuvent pas fournir une réponse fiable.”
  • Belgique (RTBF, VRT) , Canada (CBC-Radio-Canada) , Tchéquie (Radio tchèque) , Finlande (YLE) , France (Radio France) , Géorgie (GPB) , Allemagne (ARD, ZDF, Deutsche Welle) , Italie (Rai), Lituanie (LRT) , Pays-Bas (NOS/NPO) , Norvège (NRK) , Portugal (RTP) , Espagne (RTVE), Suède (SVT), Suisse (SRF), Ukraine (Suspilne), Royaume-Uni (BBC), États-Unis (NPR)

Source : La distorsion systémique de l’information par l’IA est constante dans toutes les langues et tous les territoires, selon une étude internationale menée par les radiodiffuseurs de service public. | EBU

« Don’t Look Up » : des satellites inondent le monde de données non chiffrées

https://no-flux.beaude.net/wp-content/uploads/2025/10/image-102-1024x320-1.png

“Dans la majorité des cas, la faille béante a été corrigée par le chiffrement des communications. Les chercheurs confirment par exemple que c’est bien le cas pour T-Mobile, WalMart et KPU. Dans l’étude scientifique, il est précisé que bien d’autres entités ont été contactés : AT&T, le gouvernement mexicain, Telmex, Grupo Santander, Panasonic Avionics, Intelsat, WiBo… La liste est longue et ne concerne que les 39 satellites qu’ils ont écoutés, pas ceux qui sont en dehors de leur partie du ciel.”

Source : « Don’t Look Up » : des satellites inondent le monde de données non chiffrées – Next

Sora 2 Watermark Removers Flood the Web

https://images.unsplash.com/photo-1684493735679-359868df0e18?crop=entropy&cs=tinysrgb&fit=max&fm=jpg&ixid=M3wxMTc3M3wwfDF8c2VhcmNofDN8fE9wZW4lMjBBSXxlbnwwfHx8fDE3NTk4NDM5MTd8MA&ixlib=rb-4.1.0&q=80&w=2000

“Tobac showed 404 Media a few horrifying videos to illustrate her point. In one, a child pleads with their parents for bail money. In another, a woman tells the local news she’s going home after trying to vote because her polling place was shut down. In a third, Sam Altman tells a room that he can no longer keep Open AI afloat because the copyright cases have become too much to handle. All of the videos looked real. None of them have a watermark. “All of these examples have one thing in common,” Tobac said. “They’re attempting to generate AI content for use off Sora 2’s platform on other social media to create mass or targeted confusion, harm, scams, dangerous action, or fear for everyday folk who don’t understand how believable AI can look now in 2025.””

Source : Sora 2 Watermark Removers Flood the Web

How Simplify in the Google app uses AI to make complex text easier to understand

A flowchart illustrates an iterative loop for improving text simplification. An original text is simplified and then evaluated on readability, completeness and entailment. Based on the evaluation, prompts are refined and ranked to continue the loop.

“The path to Simplify began in the specialized world of medicine, where no detail should be spared. « Doctors sometimes use language that’s purposefully obscured to reduce patient anxiety or preserve privacy, » says Diego Ardila, a Google Research software engineer. « They might say, ‘The patient is undergoing emesis,’ which just means they’re vomiting. Sometimes there’s a use for that inside a hospital, but other times it actually gets in the way.”The team built an internal simplification demo, and started testing it on text outside of medicine. “We found that it just kept working because the underlying AI models are general-purpose,” Diego says. “Seeing its potential for broader applications, we shared it with other teams.””

Source : How Simplify in the Google app uses AI to make complex text easier to understand

Expanding Meta AI Translations for Creators on Facebook and Instagram

“Meta AI Translations uses the sound and tone of your own voice so it feels authentically you. And the lip syncing feature matches your mouth’s movements to the translated audio, so that it looks like you’re really speaking the language in the reel. You’re in full control of the entire experience, and can turn it on and off and review or remove translations at any time. ”

Source : Expanding Meta AI Translations for Creators on Facebook and Instagram | Facebook for Creators

Ray-Ban Meta Glasses Add Live AI, Live Translation, & Shazam Support

https://static.xx.fbcdn.net/mci_ab/public/cms/?ab_b=e&ab_page=CMS&ab_entry=883524963865692&version=1734039950&transcode_extension=webp

“Your glasses will be able to translate speech in real time between English and either Spanish, French, or Italian. When you’re talking to someone speaking one of those three languages, you’ll hear what they say in English through the glasses’ open-ear speakers or viewed as transcripts on your phone, and vice versa. Not only is this great for traveling, it should help break down language barriers and bring people closer together. ”

Source : Ray-Ban Meta Glasses Add Live AI, Live Translation, & Shazam Support | Blog Meta Quest | Meta Store

Lawsuit: A chatbot hinted a kid should kill his parents over screen time limits

Two examples of interactions users have had with chatbots from the company Character.AI.

“ »It is simply a terrible harm these defendants and others like them are causing and concealing as a matter of product design, distribution and programming, » the lawsuit states.The suit argues that the concerning interactions experienced by the plaintiffs’ children were not « hallucinations, » a term researchers use to refer to an AI chatbot’s tendency to make things up. « This was ongoing manipulation and abuse, active isolation and encouragement designed to and that did incite anger and violence. »According to the suit, the 17-year-old engaged in self-harm after being encouraged to do so by the bot, which the suit says « convinced him that his family did not love him. »”

Source : Lawsuit: A chatbot hinted a kid should kill his parents over screen time limits : NPR

« Older posts

© 2025 no-Flux

Theme by Anders NorenUp ↑