« We want AI agents that can discover like we can, not which contain what we have discovered. Building in our discoveries only makes it harder to see how the discovering process can be done ».
Source : The Bitter Lesson
« We want AI agents that can discover like we can, not which contain what we have discovered. Building in our discoveries only makes it harder to see how the discovering process can be done ».
Source : The Bitter Lesson

“Google will have to postpone starting its artificial intelligence chatbot Bard in the European Union after its main data regulator in the bloc raised privacy concerns. The Irish Data Protection Commission said Tuesday that the tech giant had so far provided insufficient information about how its generative AI tool protects Europeans’ privacy to justify an EU launch. The Dublin-based authority is Google’s main European data supervisor under the bloc’s General Data Protection Regulation (GDPR). « Google recently informed the Data Protection Commission of its intention to launch Bard in the EU this week, » said Deputy Commissioner Graham Doyle. The watchdog « had not had any detailed briefing nor sight of a data protection impact assessment or any supporting documentation at this point. »”
Source : Google forced to postpone Bard chatbot’s EU launch over privacy concerns – POLITICO

“La grande faiblesse du système d’OpenAI est qu’il est situé hors du monde, sans lien avec le contexte social et physique. Les conversations avec ChatGPT sont purement linguistiques, sans aucun ancrage dans une réalité partagée.
Le modèle de langage que développera Apple va au contraire pouvoir bénéficier de données d’entrainement liées à des flux visuels et aux capteurs 3D d’Apple Vision Pro qui donnent une représentation très détaillée du contexte dans laquelle a lieu l’interaction, et du suivi du regard de l’utilisateur. Ce sont des informations d’une pertinence incroyable pour comprendre le sens des interactions conversationnelles.
Si le produit est un succès, Apple sera sans doute la seule entreprise au monde capable de lier les modèles de langue avec l’attention, l’intentionnalité et les compétences d’un locuteur situé dans un contexte physique et social. La fusion de ces informations pourrait donner lieu à un système d’intelligence artificielle encore plus puissant que ceux développés par toutes les autres entreprises de la Silicon Valley.”
“Imagine a game in which you could have intelligent, unscripted and dynamic conversations with non-playable characters (NPCs) with persistent personalities that evolve over time and accurate facial animations and expressions, all in your native tongue.”

“Un sourire sur les lèvres, Sam Altman a dû rentrer très satisfait de son escapade à Washington. On imagine le directeur d’OpenAI, éditeur de ChatGPT, taper dans les mains de ses collaborateurs de retour à San Francisco. Mission accomplie, sans doute au-delà de ses espérances, après avoir passé mardi soir trois heures devant une commission parlementaire. Non seulement Sam Altman a charmé les sénateurs. Mais en plus, il s’est posé comme le noble défenseur d’une régulation de l’intelligence artificielle (IA). Un sommet d’hypocrisie, à notre sens. La partie a été beaucoup trop facile pour le directeur d’OpenAI. On a été loin, très loin des interrogatoires musclés de directeurs d’autres géants de la tech, questionnés ces dernières années sur les effets nocifs des réseaux sociaux ou sur des fuites de données. Non, Sam Altman a pu tranquillement présenter les avantages et inconvénients de l’IA et une nouvelle fois appeler à sa régulation.”

“Parmi les risques inacceptables, selon l’UE, “le score social, comme c’est le cas en Chine”, et plus largement les systèmes d’identification biométrique à distance en temps réel. Au rayon des IA “jugées à haut risque” : la chirurgie assistée par robot, le tri de CV par l’IA, les demandes de crédit analysées par des algorithmes, les systèmes d’IA de recommandation utilisés pour des élections ou les réseaux sociaux… Leurs concepteurs devront se soumettre à une liste d’obligations strictes : “devoir de transparence, de documentation, d’analyse des risques, de réactivité élevée en cas de problème…”, énumère le quotidien suisse.”
Source : Intelligence artificielle. L’Europe à deux doigts d’interdire la reconnaissance faciale

“ImageBind is part of Meta’s efforts to create multimodal AI systems that learn from all possible types of data around them. As the number of modalities increases, ImageBind opens the floodgates for researchers to try to develop new, holistic systems, such as combining 3D and IMU sensors to design or experience immersive, virtual worlds. ImageBind could also provide a rich way to explore memories — searching for pictures, videos, audio files or text messages using a combination of text, audio, and image. ”
Source : ImageBind: Holistic AI learning across six modalities

“ChatGPT appears to have a better ‘bedside manner’ than some doctors – at least when their written advice is rated for quality and empathy, a study has shown. The findings highlight the potential for AI assistants to play a role in medicine, according to the authors of the work, who suggest such agents could help draft doctors’ communications with patients. “The opportunities for improving healthcare with AI are massive,” said Dr John Ayers, of the University of California San Diego. However, others noted that the findings do not mean ChatGPT is actually a better doctor and cautioned against delegating clinical responsibility given that the chatbot has a tendency to produce “facts” that are untrue.”

“Leurs concepteurs devront notamment empêcher la création de contenu illégal, de résumés de données protégées par le droit d’auteur et ne pas entraîner des algorithmes sur du contenu protégé. OpenAI, éditrice de ChatGPT, ainsi que ses concurrents, devra aussi évaluer et limiter les risques et s’enregistrer dans la base de données de l’UE.
De nouvelles interdictions ont été décidées concernant d’autres systèmes d’IA: pas de systèmes de reconnaissance des émotions ou encore pas de récupération de données biométriques provenant des médias sociaux ou de la vidéosurveillance pour créer des bases de données de reconnaissance faciale. Les domaines d’application sont donc très larges.”
Source : Comment l’Europe veut réguler très rapidement l’intelligence artificielle – Le Temps

“Around the same time, Google, OpenAI and other companies began building neural networks that learned from huge amounts of digital text. Dr. Hinton thought it was a powerful way for machines to understand and generate language, but it was inferior to the way humans handled language.
Then, last year, as Google and OpenAI built systems using much larger amounts of data, his view changed. He still believed the systems were inferior to the human brain in some ways but he thought they were eclipsing human intelligence in others. “Maybe what is going on in these systems,” he said, “is actually a lot better than what is going on in the brain.”
As companies improve their A.I. systems, he believes, they become increasingly dangerous. “Look at how it was five years ago and how it is now,” he said of A.I. technology. “Take the difference and propagate it forwards. That’s scary.”
Until last year, he said, Google acted as a “proper steward” for the technology, careful not to release something that might cause harm. But now that Microsoft has augmented its Bing search engine with a chatbot — challenging Google’s core business — Google is racing to deploy the same kind of technology. The tech giants are locked in a competition that might be impossible to stop”
Source : ‘The Godfather of AI’ Quits Google and Warns of Danger Ahead – The New York Times
© 2025 no-Flux
Theme by Anders Noren — Up ↑