“La Cour suprême des Etats-Unis d’Amérique s’est penchée cette semaine sur la légalité du socle des plateformes numériques. Au regard de l’effondrement de ce qu’on appelait encore il n’y a pas si longtemps l’espace public, la nécessité de régulation apparaît en effet plus urgente que jamais. Pourtant, poser ainsi la question, en ne s’intéressant qu’aux contenus publiés sur Twitter, Facebook ou Tik Tok, ne permet pas de prendre toute la mesure de la mutation en court, qui concerne bien au-delà des fake news, la question de l’échauffement d’une vie publique rythmée et synchronisée par les GAFAM. Observateur attentif de la mutation numérique depuis ses débuts, le sociologue Dominique Boullier fait paraître Propagation, un ouvrage majeur pour comprendre comment les sciences sociales peuvent nous permettre de saisir ces transformations majeures mais aussi comment elles peuvent en tirer profit pour ajouter un nouveau point de vue à leurs corpus existants. Il est rejoint en seconde partie par la biologiste devenue artiste et designer, Marie-Sarah Adenis.”
Mois : février 2023
“Dans le prolongement philosophique de Michel Foucault, qui avait pensé les sociétés de surveillance, Gilles Deleuze a examiné les sociétés de contrôle. C’était avant que la mutation numérique prenne toute sa puissance. Aujourd’hui, à l’heure de l’alliance des Intelligences Artificielles et des algorithmes, sous le règne des Big Data et des Gafam qui les produisent et les exploitent, le philosophe Philippe Huneman propose de parler de sociétés du profilage. C’est le titre de l’essai qu’il publie aux éditions Payot. Il est cette semaine l’invité de La Suite dans les Idées. Et sera rejoint en seconde partie par l’artiste et chercheur Samuel Bianchini.”
“La compagnie ferroviaire recense depuis dix ans les flux de voyageurs avec des caméras. Cependant, dès septembre 2023, un dispositif plus perfectionné devrait être mis en place dans les grandes gares de Suisse.Selon Ktipp, qui se serait procuré l’appel d’offres, les caméras détailleraient le chemin emprunté dans la gare par chaque voyageur. Elles détecteraient aussi son âge, ses bagages et sa taille, mais surtout les trajectoires et les dépenses effectuées dans les boutiques.Augmenter les dépenses?Le but serait d’augmenter les achats des passagers dans les magasins. En effet, quand le chiffre d’affaires des commerçants augmente, le loyer perçu par les CFF s’élève également.De leur côté, les CFF ne confirment pas les conclusions de KTipp et défendent une amélioration du service client et de la sécurité dans les gares. Les données ne permettraient pas non plus de remonter aux individus afin de rester en conformité avec la loi sur la protection de ces derniers.”
Source : Les CFF veulent équiper leurs gares de caméras à reconnaissance faciale – rts.ch – Suisse
“ Les systèmes de « notation sociale » à la chinoise devrait être interdits L’AI Act a donc été construit sur une approche « par les risques » : l’intelligence artificielle y est régulée en fonction de ses usages, jugés plus ou moins dangereux. Ainsi, quelques-uns devraient être interdits : les systèmes de « notation sociale » à la chinoise, les « techniques subliminales » visant à manipuler les citoyens, les logiciels « qui exploitent les vulnérabilités dues à l’âge, au handicap ou à la situation sociale », et aussi la vidéosurveillance permettant « l’identification biométrique des personnes en temps réel dans l’espace public », sauf pour les forces de l’ordre dans le cadre d’enquêtes ou de lutte contre le terrorisme.
D’autres usages sont classés « à haut risque » : dans le transport (conduite autonome de véhicules…), l’éducation et les ressources humaines (notation d’examens, tri de CV…), la santé (chirurgie assistée par robot), les services (obtention de crédit), la justice (évaluation de preuves)… Le texte impose alors des obligations : vérifier la « qualité » des données utilisées pour entraîner les logiciels, « minimiser les risques et les résultats discriminatoires », assurer un faible taux d’erreur… Il faut également prévenir les utilisateurs qu’ils interagissent avec une machine.”
Source : L’Union européenne cherche à réguler l’intelligence artificielle, à l’heure de ChatGPT
“« C’est très difficile de lutter pour les garder dans un environnement académique. L’un de mes doctorants a fait un stage d’été chez Tesla, qui lui a fait une offre avant qu’il ne termine sa thèse », explique-t-il. L’étudiant a décliné mais Tesla est revenu le chercher, une fois son doctorat achevé, en surenchérissant son offre d’embauche, qui avoisinait les 500 000 euros annuels sans les stock-options. Matthieu Cord peut s’amuser à faire la liste de ses thésards partis vers Deepmind, Facebook et Apple surtout : « Les meilleurs partent rapidement en sortie de thèse, ceux qui commencent à publier sont très vite dans les radars des géants du numérique et, après, c’est terminé, on ne les garde plus. » Une fois les jeunes diplômés « absorbés », les liens sont distendus, d’autant que certaines sociétés imposent une forme de loi du silence aux chercheurs et aux salariés.
Certains étudiants du MVA de la promo 2022 s’interrogent désormais aussi sur leur « responsabilité » et leur « rôle sociétal » dans la conception des algorithmes. Un cours de machine learning responsable a été créé à la rentrée 2021 pour répondre à cette aspiration, 60 étudiants avaient manifesté leur intérêt pour une trentaine de places ouvertes. Mathis Clautier refuse de mettre son intelligence au service d’une robotique destinée à la guerre. Il n’est pas sans savoir que Boston Dynamics, une start-up de robotique médiatisée grâce à ses robots humanoïdes, ayant appartenu à Google de 2013 à 2017, avait collaboré avec le programme de recherche de la défense américaine et que l’un de ses robots quadrupèdes « Spot » a fait ses débuts avec l’armée française, en 2021.”
Source : A Saclay, le master qui forme l’élite des spécialistes en intelligence artificielle
“1 journalist was murdered.
100 journalists from 30 media outlets came together to pursue her work. For the past six months, Forbidden Stories and its partners have worked together in complete secrecy on the “Story Killers” project, a global investigation into the opaque world of disinformation mercenaries that we’re releasing this Tuesday […].
Pursuing Lankesh’s intuition that fake news could be used as a “weapon,” our consortium tracked the companies selling services to influence opinions, manipulate elections, destroy reputations and bury the truth.
Manipulation factories, cyber mercenaries, hack-and-leak operations, weaponized information: the « Story Killers » investigation will reveal the systemic, global nature of this industry and the companies offering disinformation services to the highest bidder–be it a dictator, a crooked politician or a drug trafficker.”
Source : STORY KILLERS | All the articles • Forbidden Stories
“We’ve been working on an experimental conversational AI service, powered by LaMDA, that we’re calling Bard. And today, we’re taking another step forward by opening it up to trusted testers ahead of making it more widely available to the public in the coming weeks.Bard seeks to combine the breadth of the world’s knowledge with the power, intelligence and creativity of our large language models. It draws on information from the web to provide fresh, high-quality responses. Bard can be an outlet for creativity, and a launchpad for curiosity, helping you to explain new discoveries from NASA’s James Webb Space Telescope to a 9-year-old, or learn more about the best strikers in football right now, and then get drills to build your skills.”
Source : Google AI updates: Bard and new AI features in Search