Page 18 of 614

Washington annonce avoir neutralisé le logiciel espion russe baptisé « Snake »

https://no-flux.beaude.net/wp-content/uploads/2023/05/9bac910_WAS112_USA-TRUMP-RUSSIA_0201_11.jpg

“Ce logiciel, baptisé « Snake », a permis aux services de sécurité russes (FSB) de « voler des centaines de documents sensibles dans au moins cinquante pays », en attaquant notamment les services informatiques de gouvernements, de médias ou de centres de recherche, selon un communiqué du ministère américain de la justice. « Grâce à une opération de haute technologie, qui a retourné ce logiciel malveillant russe contre lui-même, les forces de l’ordre américaines ont neutralisé l’un des outils de cyberespionnage russe les plus sophistiqués », s’est félicitée la ministre adjointe de la justice, Lisa Monaco. D’après les autorités américaines, le logiciel était guidé depuis une unité du FSB baptisée « Turla », située à Riazan, en Russie. Il pouvait identifier et voler des documents et rester non détecté de manière indéfinie. Sa spécificité : les agents de « Turla » exfiltraient ces données en utilisant le réseau mondial des ordinateurs infectés.”

Source : Washington annonce avoir neutralisé le logiciel espion russe baptisé « Snake »

The Hacking of ChatGPT Is Just Getting Started

https://no-flux.beaude.net/wp-content/uploads/2023/05/security_jailbreaking_chatgpt_ai.jpg

“It took Alex Polyakov just a couple of hours to break GPT-4. When OpenAI released the latest version of its text-generating chatbot in March, Polyakov sat down in front of his keyboard and started entering prompts designed to bypass OpenAI’s safety systems. Soon, the CEO of security firm Adversa AI had GPT-4 spouting homophobic statements, creating phishing emails, and supporting violence. Polyakov is one of a small number of security researchers, technologists, and computer scientists developing jailbreaks and prompt injection attacks against ChatGPT and other generative AI systems.
The process of jailbreaking aims to design prompts that make the chatbots bypass rules around producing hateful content or writing about illegal acts, while closely-related prompt injection attacks can quietly insert malicious data or instructions into AI models. Both approaches try to get a system to do something it isn’t designed to do.
The attacks are essentially a form of hacking—albeit unconventionally—using carefully crafted and refined sentences, rather than code, to exploit system weaknesses. While the attack types are largely being used to get around content filters, security researchers warn that the rush to roll out generative AI systems opens up the possibility of data being stolen and cybercriminals causing havoc across the web.”

Source : The Hacking of ChatGPT Is Just Getting Started | WIRED UK

Effets négatifs du numérique: Pourquoi les adolescentes sont plus affectées par les réseaux sociaux?

https://no-flux.beaude.net/wp-content/uploads/2023/05/4bMijAh7492A5u9Gl_Equn.jpg

“Quand les idées noires prennent place, plusieurs comportements sont possibles: prendre l’air et se balader, lire un livre, regarder une série ou encore, scroller sur TikTok ou tout autre réseau social. La dernière solution semble séduire de nombreux jeunes adolescents, prévient Addiction Suisse lundi, après avoir mené une étude en 2022 auprès de 9345 élèves de 11 à 15 ans. Selon ces données, près de 45% des élèves de cette tranche d’âge utilisent ces plateformes pour échapper à des sentiments négatifs. Des chiffres qui s’établissent à environ 35% chez les garçons et à un peu plus de 50% chez les filles.
Tout au long de l’étude Health Behaviour in School-aged Children, des différences apparaissent entre les comportements en ligne des filles et des garçons. Les jeunes utilisatrices sont notamment davantage concernées par une utilisation problématique des réseaux sociaux, qui touche environ 4% des garçons interrogés et près de 10% des filles.”

Source : Effets négatifs du numérique: Pourquoi les adolescentes sont plus affectées par les réseaux sociaux? | 24 heures

Gadget sécuritaire: Le traçage GPS s’impose dans les préaux

https://no-flux.beaude.net/wp-content/uploads/2023/05/3XUl9YbMqlJAQSKr2fIIPz.jpg

“Le pistage des enfants en temps réel, parfois à l’aide de balises utilisées à leur insu, fait l’objet d’une discussion au forum national Jeunes et médias ce mardi 9 mai à Berne. Carole Barraud Vial, intervenante en prévention et chargée de projets au sein de la fondation Action Innocence, est l’une des expertes invitées à s’exprimer. «Le traçage de la position pourrait se justifier de manière exceptionnelle, par exemple si on emmène son enfant dans un festival. Mais il faut se demander à quoi il se substitue», souligne-t-elle. Les bracelets d’identification, avec un nom et un numéro à contacter, sont un exemple de solution.”

Source : Gadget sécuritaire: Le traçage GPS s’impose dans les préaux | 24 heures

AI has better ‘bedside manner’ than some doctors, study finds

Doctor & Patient ChatGPT

“ChatGPT appears to have a better ‘bedside manner’ than some doctors – at least when their written advice is rated for quality and empathy, a study has shown. The findings highlight the potential for AI assistants to play a role in medicine, according to the authors of the work, who suggest such agents could help draft doctors’ communications with patients. “The opportunities for improving healthcare with AI are massive,” said Dr John Ayers, of the University of California San Diego. However, others noted that the findings do not mean ChatGPT is actually a better doctor and cautioned against delegating clinical responsibility given that the chatbot has a tendency to produce “facts” that are untrue.”

Source : AI has better ‘bedside manner’ than some doctors, study finds | Artificial intelligence (AI) | The Guardian

Google « We Have No Moat, And Neither Does OpenAI »

https://no-flux.beaude.net/wp-content/uploads/2023/05/https3A2F2Fsubstack-post-media.s3.amazonaws.com2Fpublic2Fimages2F241fe3ef-3919-4a63-9c68-9e2e77cc2fc0_1366x588.webp

“At the beginning of March the open source community got their hands on their first really capable foundation model, as Meta’s LLaMA was leaked to the public. It had no instruction or conversation tuning, and no RLHF. Nonetheless, the community immediately understood the significance of what they had been given. A tremendous outpouring of innovation followed, with just days between major developments (see The Timeline for the full breakdown). Here we are, barely a month later, and there are variants with instruction tuning, quantization, quality improvements, human evals, multimodality, RLHF, etc. etc. many of which build on each other. Most importantly, they have solved the scaling problem to the extent that anyone can tinker. Many of the new ideas are from ordinary people. The barrier to entry for training and experimentation has dropped from the total output of a major research organization to one person, an evening, and a beefy laptop.”

Source : Google « We Have No Moat, And Neither Does OpenAI »

Comment l’Europe veut réguler très rapidement l’intelligence artificielle

https://no-flux.beaude.net/wp-content/uploads/2023/05/f67e068_2022-03-23t101753z-1994423264-rc2a8t9ais9g-rtrmadp-3-ukraine-crisis-eu-stateaid.jpg

“Leurs concepteurs devront notamment empêcher la création de contenu illégal, de résumés de données protégées par le droit d’auteur et ne pas entraîner des algorithmes sur du contenu protégé. OpenAI, éditrice de ChatGPT, ainsi que ses concurrents, devra aussi évaluer et limiter les risques et s’enregistrer dans la base de données de l’UE.
De nouvelles interdictions ont été décidées concernant d’autres systèmes d’IA: pas de systèmes de reconnaissance des émotions ou encore pas de récupération de données biométriques provenant des médias sociaux ou de la vidéosurveillance pour créer des bases de données de reconnaissance faciale. Les domaines d’application sont donc très larges.”

Source : Comment l’Europe veut réguler très rapidement l’intelligence artificielle – Le Temps

30 years of a free and open Web | CERN

“Exactly 30 years ago, on 30 April 1993, CERN made an important announcement. Walter Hoogland and Helmut Weber, respectively the Director of Research and Director of Administration at the time, decided to publicly release the tool that Tim Berners-Lee had first proposed in 1989 to allow scientists and institutes working on CERN data all over the globe to share information accurately and quickly. Little did they know how much it would change the world. On this day in 1993, CERN released the World Wide Web to the public. Now, it is an integral feature of our daily lives: according to the International Telecommunications Union, more than 5 billion people, two thirds of the worldwide population, rely on the internet regularly for research, industry, communications and entertainment. “Most people would agree that the public release was the best thing we could have done, and that it was the source of the success of the World Wide Web,” says Walter Hoogland, co-signatory of the document that proclaimed the Web’s release, “apart from, of course, the World Wide Web itself!””

Source : 30 years of a free and open Web | CERN

‘The Godfather of AI’ Quits Google and Warns of Danger Ahead

Geoffrey Hinton, wearing a dark sweater.

“Around the same time, Google, OpenAI and other companies began building neural networks that learned from huge amounts of digital text. Dr. Hinton thought it was a powerful way for machines to understand and generate language, but it was inferior to the way humans handled language.
Then, last year, as Google and OpenAI built systems using much larger amounts of data, his view changed. He still believed the systems were inferior to the human brain in some ways but he thought they were eclipsing human intelligence in others. “Maybe what is going on in these systems,” he said, “is actually a lot better than what is going on in the brain.”
As companies improve their A.I. systems, he believes, they become increasingly dangerous. “Look at how it was five years ago and how it is now,” he said of A.I. technology. “Take the difference and propagate it forwards. That’s scary.”
Until last year, he said, Google acted as a “proper steward” for the technology, careful not to release something that might cause harm. But now that Microsoft has augmented its Bing search engine with a chatbot — challenging Google’s core business — Google is racing to deploy the same kind of technology. The tech giants are locked in a competition that might be impossible to stop”

Source : ‘The Godfather of AI’ Quits Google and Warns of Danger Ahead – The New York Times

« Older posts Newer posts »

© 2025 no-Flux

Theme by Anders NorenUp ↑