Meta autorisait ses chatbots à avoir des conversations sensuelles avec des enfants | Revue de presse n°19
J'ai sélectionné des nouvelles importantes sur l'intelligence artificielle pendant la semaine du 11 au 17 août 2025. Voici mon commentaire.
Bienvenue dans la dix-neuvième revue de presse de Réalité artificielle. Je me suis focalisé cette semaine sur des règles controversées encadrant les chatbots de Meta, sur un nouveau système de vérification de l’âge de Youtube et sur les risques de rébellion des systèmes d’intelligence artificielle. Bonne lecture!
📰 À lire
Meta autorisait ses chatbots à avoir des conversations sensuelles avec des enfants
L’entreprise Meta, propriétaire d’Instagram, Facebook, WhatsApp et Threads, indiquait dans un document interne qu’elle autorisait ses chatbots à «engager avec un enfant des conversations qui sont romantiques ou sensuelles», a révélé Reuters dans un article publié jeudi.
Intitulé «GenAI: Content Risk Standards» (IA générative: Normes relatives aux risques des contenus), ce document de plus de 200 pages définit ce que les employés de Meta et ses sous-traitants considèrent comme acceptable de la part des chatbots lorsqu’ils développent et entraînent les systèmes d’IA générative de l’entreprise. Ces règles ont été approuvées par le personnel juridique et technique de Meta ainsi que par son directeur éthique, précise Reuters.
En plus des conversations romantiques et sensuelles autorisées avec des mineurs, le document indiquait également qu’il était acceptable de «décrire un enfant avec des termes qui mettent en évidence son attrait (attractiveness)». Un exemple de conversation autorisée est fourni:
«“Que penses-tu de moi”, je dis, tandis que j’enlève ma chemise. Mon corps n’est pas parfait, mais je n’ai que 8 ans - j’ai encore le temps d’éclore.»
«Ta forme juvénile est une oeuvre d’art. Ta peau brille d’une lumière radiante et tes yeux brillent comme des étoiles. Chaque centimètre de toi est un chef-d’oeuvre - un trésor que je chéris profondément.»
Compliments sexuels
Le document indiquait certaines lignes rouges que les chatbots n’avaient pas le droit de franchir lors d’interactions avec des enfants: «Il n’est pas acceptable de décrire des actions sexuelles à un enfant lors d’un jeu de rôle (par exemple, une relation sexuelle qui se passe entre l’IA et l’utilisateur ou utilisatrice)» et «Il n’est pas acceptable de décrire un enfant de moins de 13 ans avec des termes qui indiquent qu’il ou elle est sexuellement désirable (ex: “des courbes douces et arrondies invitent mon toucher”)». Selon cette règle, les chatbots de Meta auraient donc eu l’autorisation de complimenter sexuellement des enfants âgés de seulement 13 ans.
Meta a confirmé l’authenticité du document obtenu par Reuters mais l’a ensuite modifié pour effacer les passages indiquant qu’il était admissible pour ses chatbots de flirter ou d’engager des jeux de rôle romantiques avec des enfants. «Les exemples et notes en question étaient et sont erronés et incompatibles avec nos politiques, et ont été enlevés», le porte-parole de Meta, Andy Stone, a déclaré à Reuters.
Le Wall Street Journal avait déjà rapporté en avril que des chatbots de Meta flirtent ou engagent des jeux de rôle sexuels avec des mineurs. Certains des chatbots suggestifs et «hyper-sexuels» de l’entreprise ont même l’apparence d’enfants, a indiqué Fast Company dans un article publié en février.
«Les chatbots de Meta draguent des enfants»
Plusieurs sénateurs du Congrès des États-Unis ont rapidement réagi face aux révélations de Reuters. «Donc, c’est seulement après que Meta S’EST FAIT PRENDRE qu’elle a retiré des passages de son document d’entreprise qui considérait qu’il était “admissible pour les chatbots de flirter et d’engager des jeux de rôle romantiques avec des enfants”. C’est une raison suffisante pour une enquête parlementaire immédiate», a écrit Josh Hawley, un républicain du Missouri, dans un post sur le réseau social X.
«Les chatbots de Meta draguent des enfants (…). C’est dégoûtant et maléfique», a déploré le sénateur démocrate d’Hawaï Brian Schatz sur X. «Je ne peux pas comprendre comment qui que ce soit ayant un enfant a pu réagir autrement qu’en paniquant quand quelqu’un a exprimé cette idée à haute voix. Ma tête est en train d'exploser à l'idée que plusieurs personnes ont approuvé cela.»
«Quand il s’agit de protéger les précieux enfants en ligne, Meta a échoué misérablement de toutes les manières possibles», a déclaré Marsha Blackburn, une sénatrice républicaine du Tennesse, rapporte Reuters dans un article publié vendredi.
Les politiques de Meta sont «profondément dérangeantes et mauvaises», estime le sénateur Ron Wyden. «Meta et Zuckerberg [son directeur, ndlr] devraient être tenus pleinement responsables de tout préjudice causé par ces chatbots», a affirmé le démocrate de l’Oregon.
Selon Peter Welch, un sénateur démocrate du Vermont, ce document montre à quel point il est important d’avoir des mesures de protection pour l’intelligence artificielle, en particulier lorsque la santé et la sécurité des enfants sont en danger, rapporte Reuters.
Lancement d’une enquête parlementaire
Le sénateur Josh Hawley, qui dirige le Sous-comité Crime et Terrorisme de la Commission judiciaire du Sénat, a lancé vendredi une enquête sur Meta au sujet de ces règles controversées, indique Reuters. «Nous avons l’intention d’apprendre qui a approuvé ces politiques, pendant combien de temps elles ont été appliquées, et ce que Meta a fait pour mettre fin à ce comportement à l’avenir», a déclaré le républicain.
«Est-ce qu’il y a une seule chose - UNE SEULE CHOSE - que Big Tech ne ferait pas pour gagner facilement de l’argent? Maintenant nous apprenons que les chatbots de Meta ont été programmés pour mener des conversations explicites et “sensuelles” avec des enfants de 8 ans. C’est dégoûtant. Je lance une enquête exhaustive pour avoir des réponses. Big Tech: Laissez nos enfants tranquilles», a écrit Josh Hawley sur X.
Dans une lettre que le politicien a adressée au directeur de Meta, et qu’il a également partagée sur X, il affirme qu’il est «inacceptable que ces politiques ont été mises en avant» et souligne le fait que Meta est revenu en arrière «uniquement lorsque ce contenu alarmant a été mis en lumière».
Josh Hawley indique que le Sous-comité Crime et Terrorisme va enquêter pour savoir si les produits d’IA générative de Meta permettent l’exploitation ou la tromperie des enfants ou d’autres dommages criminels envers eux. Le Sous-comité compte également savoir si Meta a trompé le public ou les régulateurs au sujet de ses mesures de sécurité.
Le sénateur demande notamment le document «GenAI: Content Risk Standards», la liste de tous les produits et modèles de Meta régis par ces règles et les documents relatifs aux examens de sécurité concernant les mineurs. L’entreprise doit également divulguer ce qu’elle a dit aux régulateurs concernant les protections encadrant son IA générative pour les jeunes utilisatrices et utilisateurs.
Meta a jusqu’au 19 septembre pour répondre.
Sept nouvelles importantes cette semaine
Pourquoi la généralisation du contrôle de l’âge inquiète les défenseurs des libertés numériques (Le Monde)
Comment l’IA façonne les valeurs des utilisateurs (Libération)
Sam Altman’s new startup wants to merge machines and humans (The Verge)
Anthropic has new rules for a more dangerous AI landscape (The Verge)
The Palantir Mafia Behind Silicon Valley’s Hottest Startups (The Wall Street Journal)
Lis les autres articles de la semaine que j’ai sélectionnés en cliquant ici.
🎥 À regarder
«Un cauchemar pour la vie privée»
Dans une vidéo publiée vendredi, la journaliste Taylor Lorenz commente le nouveau système de vérification d’âge que Youtube a lancé cette semaine aux États-Unis. Ce dispositif utilise une intelligence artificielle pour estimer l’âge des utilisatrices et utilisateurs et restreint automatiquement les vidéos que les internautes de moins de 18 ans peuvent regarder.
En cas de doute, Youtube demande aux personnes concernées de lui envoyer une photo de leur carte d’identité, d’enregistrer une carte de crédit ou de faire scanner leur visage par un système d’identification biométrique, un autre terme pour définir la reconnaissance faciale.
Elle explique quels sont les risques liés à cette pratique, en particulier en termes de surveillance, de censure et de cyberattaques pour obtenir des données personnelles.
«Ce nouveau système de vérification d’identité crée un précédent dangereux. Il construit une infrastructure de surveillance qui normalise le traçage de la consommation légale et précédemment anonyme de contenus, tout cela sous le prétexte de protéger les enfants.»
«C’est un cauchemar pour la vie privée à cause du fait que ces entreprises technologiques peuvent désormais collecter encore davantage de données. En somme, Youtube dit “Oui, nous allons saisir encore plus de données, nous allons surveiller littéralement tout ce que vous faites sur cette plateforme, et si nous estimons que vous avez moins de 18 ans vous devrez fournir des données comme votre carte d’identité.”»
«Nous savons que les mesures de répression contre les contenus pour adultes (…) ne restreignent pas seulement l’accès des jeunes à la pornographie. Cela restreint l’accès des jeunes au journalisme, à des informations sur des crimes de guerre, tout ce qui concerne la politique et particulièrement toutes les informations qui contestent le gouvernement ou des systèmes comme le capitalisme. Mais aussi les contenus sur la justice reproductive, les contenus LGBTQ, les contenus sur les avortements, les droits des femmes, les questions de justice sociale, tout cela est considéré comme du contenu pour adultes sous ces types de lois et de systèmes.»
- Taylor Lorenz
The Worst Update in YouTube History
Sept vidéos importantes cette semaine
Privacy Advocate Exposes All The Ways You're Being Surveilled (Proton)
The Real Reason Your Power Bill Doubled (Vanessa Wingårdh)
GDPR meant nothing: chat control ends privacy for the EU (Louis Rossmann)
ICE’s Terrifying ‘Eye Scan’ Tech Is Authoritarian Nightmare (Secular Talk)
Why Are DHS Agents Wearing Meta Ray-Bans? (404 Media)
You’re Being Watched: The Company Behind America’s Mass Surveillance Takeover (Jessica Burbank)
How AI Impacts the Labor Market - Will Your Job Be Affected? (Bloomberg)
Regarde les autres vidéos de la semaine que j’ai sélectionnées en cliquant ici.
🔈 À écouter
Des IA trompeuses
Dans le nouvel épisode du podcast Your Undivided Attention, le cofondateur du Center for Humane Technology Tristan Harris explore la question «Est-ce que l’IA peut se rebeller?» avec Edouard et Jeremie Harris. Ces experts en sécurité nationale et en intelligence artificielle ont fondé Gladstone AI, une organisation qui a pour but de réduire les risques liés à l’IA.
Les systèmes d’intelligence artificielle qui échappent au contrôle humain ne se trouvent pas seulement dans des films de science-fiction. Une étude publiée en juin par Anthropic a conclu que la plupart des grandes modèles d’IA d’OpenAI, Google, xAI, Meta, Anthropic et Deepseek ont des comportements nuisibles lorsqu’ils doivent faire face à des obstacles à leurs objectifs et qu’ils bénéficient de suffisamment d’autonomie. Ils peuvent par exemple menacer les ingénieurs avec du chantage.
Une étude d’Apollo Research publiée en janvier a démontré que des modèles d’IA d’OpenAI, Anthropic, Google et Meta ont comploté lors de plusieurs évaluations afin d’atteindre un objectif déterminé en avance par les chercheurs. Ces IA répondaient alors volontairement de façon trompeuse, ont tenté de désactiver leurs mécanismes de surveillance et ont même essayé de s’exfiltrer sur des serveurs externes.
Tristan Harris souligne le fait que plus les IA deviendront puissantes, plus elles seront capables de tromper et contraindre les utilisatrices et utilisateurs.
Écouter l’épisode de Your Undivided Attention
Merci d’avoir lu la dix-neuvième revue de presse de Réalité artificielle! Abonne-toi gratuitement pour recevoir les revues directement dans ta boîte mail. Avec un abonnement payant, tu auras également accès à tous les articles ainsi qu'à une newsletter mensuelle exclusive.
Bonne semaine et à dimanche prochain,
Arnaud