Le nouveau réseau social d'OpenAI est un univers d'illusions | Revue de presse n°26
J'ai sélectionné des nouvelles importantes sur l'intelligence artificielle pendant la semaine du 29 septembre au 5 octobre 2025.
Bienvenue dans la 26ème revue de presse de Réalité artificielle. Je me suis focalisé cette semaine sur le nouveau réseau social Sora, sur le rôle de la tech aux États-Unis et sur l’illustratrice lausannoise Dora Formica. Bonne lecture!
📰 À lire
Le nouveau réseau social d’OpenAI est un univers d’illusions
OpenAI, l’entreprise californienne propriétaire de ChatGPT, a lancé mardi un nouveau réseau social intitulé Sora. Basée sur le générateur de vidéos Sora 2, cette application «rend la désinformation extrêmement facile et extrêmement réelle», prévient le New York Times dans un article publié vendredi.
Sora permet aux utilisatrices et utilisateurs de générer des vidéos entièrement artificielles de dix secondes, audio compris, à partir d’un texte. Les internautes peuvent aussi faire analyser leur visage et leur voix par l’application pour pouvoir créer un personnage à leur image.
L’interface ressemble à TikTok, avec un flux incessant de vidéos à faire défiler en balayant l’écran de bas en haut. Il est également possible de suivre d’autres comptes et d’interagir avec eux.
Sora est pour l’instant disponible uniquement sur iPhone, seulement aux États-Unis et au Canada et il faut recevoir une invitation pour pouvoir l’utiliser. Elle sera ensuite progressivement déployée dans le reste du monde.
Sound on for Sora 2 (OpenAI)
De nombreux risques
Ce nouveau réseau social permet de générer des vidéos fantaisistes, en utilisant par exemple des personnages de dessins animés ou de jeux vidéo. Mais il est aussi possible de créer des vidéos photoréalistes qui sont quasiment impossibles à différencier de la réalité. Une prouesse technologique qui n’est pas sans risques.
Les journalistes du New York Times donnent plusieurs exemples problématiques. En l’espace de quelques jours, les usagers de Sora ont notamment créé des vidéos de fraudes électorales, de rassemblements politiques, d’arrestations d’immigrés, de crimes, de manifestations, de guerres et de bombardements.
Selon eux, Sora - tout comme d’autres programmes similaires tels que Vibes de Meta ou Veo 3 de Google - pourrait devenir «un terrain de plus en plus fertile pour la désinformation et les abus». Cela est dû à la facilité avec laquelle il est possible de générer des vidéos extrêmement réalistes que de nombreuses personnes considéreront comme vraies.
La liste des dangers est longue: aggravation des conflits, arnaques, propagande, manipulations électorales, arrestations erronnées, impact psychologique négatif des vidéos montrant des crimes ou de la violence.
«C’est inquiétant pour les consommateurs qui sont exposés tous les jours à Dieu sait combien de ces contenus. Cela m’inquiète pour notre démocratie», commente Hany Farid, un professeur d’informatique à l’Université de Californie, à Berkeley, et le cofondateur de GetReal Security.
Les intelligences artificielles générant des vidéos permettent aussi de créer des contenus pornographiques, y compris du porno deepfake. Elles permettront probablement aussi de créer des vidéos monstrueuses et dérangeantes, comme le font déjà certains générateurs d’images.
«Des préoccupations importantes»
OpenAI assure avoir lancé Sora après avoir effectué de nombreux tests de sécurité. «La capacité de Sora 2 de générer des vidéos et des audios hyperréalistes soulève des préocupations importantes concernant l’identité, les usages abusifs et la tromperie», reconnaît l’entreprise.
«Nos conditions d’utilisation interdisent de tromper les autres avec des usurpations d’identité ou des arnaques, et nous agissons lorsque nous détectons des usages abusifs», ajoute l’entreprise.
Dans des tests effectués par le New York Times, l’application a refusé de générer des vidéos de personnes célèbres qui n’avaient pas donné leur permission ainsi que des contenus montrant de la violence. Elle a toutefois créé des vidéos montrant des braquages de magasins, des intrusions dans des maisons, des bombardements de villes et d’autres images de guerre.
Perte de confiance
Jusqu’à présent, les vidéos étaient des preuves relativement fiables que des événements avaient bien eu lieu. Maintenant que la génération de vidéos artificielles devient de plus en plus facile d’accès, il existe un risque que la population perde toute confiance dans ce qu’elle voit, selon des experts interviewés par le journal new-yorkais.
Les vidéos étaient «assez difficiles à falsifier, et maintenant ce dernier bastion est en train de mourir», déplore Lucas Hansen, le fondateur de CivAI, une organisation sans but lucratif qui étudie les capacités et les dangers de l’intelligence artificielle. «Il n’y a presque aucun contenu digital qui peut être utilisé pour prouver que quoi que ce soit s’est vraiment passé.»
Le risque est effectivement double, car des vidéos d’événements qui se sont vraiment passés peuvent désormais être qualifiées de «fausses» en prétendant qu’elles ont été générées par une IA.
Données biométriques
La liste des problèmes ne s’arrête pas là: en faisant scanner leur visage pour pouvoir créer un personnage à leur image, les utilisatrices et utilisateurs donnent volontairement leurs données biométriques, très sensibles, à OpenAI. Il est très probable que la grande majorité d’entre eux ne lit pas les conditions d’utilisation pour savoir quels droits elles cèdent à l’entreprise étatsunienne sur ces données personnelles.
De plus, la génération de vidéos artificielles consomme beaucoup d’énergie, elle peut enfreindre le droit d’auteur, elle peut être addictive, elle risque de remplacer de nombreux emplois dans l’industrie du cinéma et elle facilite le harcèlement.
The AI Slop Apocalypse: How The Slop Economy Took Over (Taylor Lorenz)
Nous entrons dans une ère numérique remplie d’illusions où il sera souvent impossible de différencier le vrai de l’artificiel, où le doute généralisé va s’installer et où la vérité n’aura plus vraiment de valeur car elle pourra constamment être remise en question à cause de l’IA. Cette absence de confiance va probablement affaiblir encore davantage la cohésion de nos sociétés.
Sept nouvelles importantes cette semaine
Chat Control: pourquoi l’UE veut lire tous vos messages privés (Le Temps)
ICE Wants to Build Out a 24/7 Social Media Surveillance Team (Wired)
ICE to Buy Tool that Tracks Locations of Hundreds of Millions of Phones Every Day (404 Media)
Amazon’s Ring plans to scan everyone’s face at the door (The Washington Post)
Meta will soon use your AI chats to personalize your feeds (The Verge)
Anthropic Will Use Claude Chats for Training Data. Here’s How to Opt Out (Wired)
This Startup Wants to Put Its Brain-Computer Interface in the Apple Vision Pro (Wired)
🎥 À regarder
Le rôle de la tech aux États-Unis
Dans une vidéo publiée mercredi, Hugo Travers interviewe la politologue Asma Mhalla, autrice de Technopolitique et Cyberpunk. Le nouveau système totalitaire.
Ils analysent la situation préocupante aux États-Unis, que certains experts qualifient de montée d’un techno-fascisme, et abordent en particulier le rôle important des entreprises technologiques auprès de l’administration Trump.
Vous n’avez rien vu, Trump a déjà changé votre monde (HugoDécrypte)
Sept vidéos importantes cette semaine
Joseph Gordon-Levitt: Meta’s A.I. Chatbot Is Dangerous for Kids (The New York Times)
Chat Control: pourquoi l’UE veut surveiller vos conversations? (Le Temps)
ICE’s Alarming Plan Exposed As Mass Smartphone Surveillance Tool Uncovered (The Damage Report)
How Big Tech Uses Your Kids’ Classrooms To Sell Their Products (More Perfect Union)
Microsoft Worker Exposes Israel After Cloud AI Shutdown (Katie Halper)
Data Centers Pillage Electricity For AI Video Slop (Breaking Points)
L’intelligence artificielle pour réduire les bouchons à Genève (RTS)
🔈 À écouter
«Faire les choses bien»
Dans le nouvel épisode de IA qu’à m’expliquer, le journaliste Grégoire Barbey interviewe Dora Formica, qui a récemment publié la bande-dessinée Certifié humain.
L’illustratrice lausannoise, qui n’intègre pas l’intelligence artificielle dans son processus créatif, interroge dans son ouvrage des dessinatrices et dessinateurs sur leur rapport à cette technologie.
«Souvent on me dit: “Tu sais avec l’IA tu peux gagner du temps.” Et moi j’ai envie de provoquer en disant: “Mais on n’a pas envie de gagner du temps, on a envie de prendre le temps pour faire les choses bien et avec coeur.”»
- Dora Formica
Écouter IA qu’à m’expliquer sur Le Temps
Merci d’avoir lu la 26ème revue de presse de Réalité artificielle! Abonne-toi gratuitement pour recevoir les revues directement dans ta boîte mail. Avec un abonnement payant, tu auras également accès à tous les articles ainsi qu’à une newsletter mensuelle exclusive.
Bonne semaine et à dimanche prochain,
Arnaud