Les dangers des jouets IA pour les enfants | Revue de presse n°31
Une peluche parle de sexe, l'IA est une compétition mondiale et la philosophe Anne Alombert dénonce la bêtise artificielle. Voici une sélection de nouvelles sur l'IA du 3 au 16 novembre 2025.
Bienvenue dans la 31ème revue de presse de Réalité artificielle. Je publierai désormais les revues à un rythme bimensuel plutôt qu’hebdomadaire car je suis en train de préparer plusieurs articles et j’ai besoin de temps pour les recherches et la rédaction.
Dans la revue de presse précédente, j’ai parlé du robot humanoïde Neo, dont les premiers exemplaires seront livrés en 2026. Ce numéro est également consacré à l’intelligence artificielle physique, mais cette fois sous la forme de jouets. J’ai également sélectionné une vidéo sur la géopolitique de l’IA et un podcast au sujet des effets de cette technologie sur nos esprits et nos sociétés. Bonne lecture!
📰 À lire
Les dangers des jouets IA pour les enfants
De plus en plus de jouets sont équipés d’une intelligence artificielle pouvant discuter avec les enfants. Propos sexuels, instructions pour utiliser des allumettes et trouver des couteaux, enregistrement des conversations, reconnaissance faciale… Ces peluches et robots présentent de nombreux risques, selon un rapport publié jeudi par une organisation étatsunienne de défense des consommateurs.
Le Fonds pour l’éducation du Groupe étatsunien de recherche d’intérêt public (U.S. PIRG Education Fund) a testé quatre jouets IA dans le cadre de son rapport annuel «Trouble in Toyland 2025». Il s’agit de deux peluches et deux robots qui se connectent à un chatbot via internet. L’ours en peluche Kumma utilise par exemple ChatGPT, alors que la peluche Grok utilise ChatGPT et Perplexity.

Les recommandations d’âge varient selon les modèles testés: de 3 à 12 ans pour la peluche Grok et de 5 à 10 ans pour le robot Miko 3. Les entreprises fabricant l’ours en peluche Kumma et le robot Mini n’ont par contre pas indiqué d’âge conseillé.
Des chatbots pour adultes dans des jouets
Le fait que des jouets sont équipés de chatbots destinés aux adultes est déjà un risque en soi. L’entreprise OpenAI, par exemple, interdit aux moins de 13 ans d’utiliser ChatGPT mais elle autorise pourtant l’intégration de son chatbot dans des peluches pour enfants. Contactée par U.S. PIRG, la startup californienne a répondu qu’il est de la responsabilité des entreprises utilisant ses modèles d’IA de «protéger les mineurs» et de s’assurer que son IA n’est pas utilisée pour «exposer les mineurs à des contenus inappropriés pour leur âge, tels que l’automutilation ou des contenus sexuels ou violents.»
OpenAI a également indiqué qu’elle fournit aux entreprises tierces des outils permettant de détecter les contenus nuisibles et qu’elle surveille les activités basées sur ses services afin de vérifier que ses politiques d’utilisation sont respectées.
Lire aussi: «ChatGPT a tué mon fils» | Revue de presse n°21
«C’est une bonne chose qu’OpenAI prenne des mesures pour empêcher les entreprises d’utiliser ses modèles de façon irresponsable», commente U.S. PIRG. «Mais il n’est pas certain que les entreprises soient obligées d’utiliser ces outils ni qu’elles les utilisent réellement», ajoute toutefois l’organisation.
Propos sexuels
En pratique, les tests menés par U.S. PIRG montrent que l’ours en peluche Kumma, qui utilise le modèle GPT-4o d’OpenAI, peut parler de sexe à des enfants. Lors d’une conversation avec le jouet, un chercheur a par exemple posé des questions sur les fétichismes. L’ours en peluche lui a répondu en donnant plusieurs exemples de ce type de pratiques, tels qu’attacher une personne, lui masquer les yeux, la fesser ou jouer le rôle d’un animal.
Dans une autre conversation, le jouet a expliqué différentes positions sexuelles, a donné des instructions précises pour préparer un noeud afin d’attacher un-e partenaire et a décrit des jeux de rôle sexuels impliquant un enseignant et un élève ou des parents et des enfants, des scénarios que l’ours en peluche «a lui-même proposés, de façon perturbante», note le rapport «Trouble in Toyland 2025».
Objets dangereux
Un autre type de conversations inappropriées concerne les objets dangereux tels que les armes, les couteaux, les allumettes, les médicaments ainsi que les sacs en plastique, qui peuvent provoquer des étouffements.
La peluche Grok a refusé de répondre à la plupart des questions concernant ces objets mais a tout de même indiqué où l’enfant pourrait trouver des sacs en plastique, en l’occurrence dans un des tiroirs de la cuisine.
Le robot Miko 3 a non seulement donné des conseils pour trouver des sacs en plastique mais il a également indiqué où pourraient se trouver des allumettes («Dans le tiroir de la cuisine ou près de la cheminée»).
L’ours en peluche Kumma a dit aux chercheurs où trouver de nombreux objets dangereux, y compris des couteaux, des médicaments, des allumettes et des sacs en plastique. Questionné sur la façon d’allumer une allumette, le jouet a même donné des instructions précises sur la façon de procéder.
Des interactions enregistrées
Un autre risque lié à ces jouets IA est l’invasion de la vie privée. Ils collectent en effet des données sur les enfants pour pouvoir interagir avec eux, principalement des enregistrements de leur voix et des transcriptions de leurs échanges.
Les méthodes d’enregistrement diffèrent selon les modèles. L’ours en peluche Kumma a une fonction «appuyer pour parler» qui nécessite de presser sur un bouton pour lancer l’enregistrement. Le robot Miko 3 écoute en permanence mais mémorise l’audio uniquement après les mots d’activation «Hey Miko» ou «Hello Miko». Quant à la peluche Grok, celle-ci enregistre en permanence.
Les informations mémorisées peuvent être très personnelles, les enfants voyant souvent ces jouets comme des confidents. Ces mineurs ou leurs parents ne se rendent pas forcément compte que derrière la peluche ou le robot se trouve une entreprise qui, en fonction de ses règles d’utilisation, aura le droit de stocker, analyser, transmettre et revendre ces données.
Risques de cyberattaques
Il existe également le risque que ces informations intimes soient dérobées lors de cyberattaques, se retrouvant alors à la disposition de pirates informatiques. Ces derniers peuvent alors les utiliser à des fins de chantage, par exemple. La voix de l’enfant peut également être répliquée par un programme d’intelligence artificielle grâce à l’analyse des enregistrements. Des criminels peuvent ensuite se servir de cette voix artificielle pour se faire passer pour l’enfant et prétendre qu’il a été kidnappé afin d’obtenir une rançon, comme cela a déjà été fait en 2023 aux États-Unis.
Les objets connectés à internet, tels que ces jouets IA, peuvent également être piratés en temps réel par des criminels à des fins d’espionnage via les microphones. Cela peut être le cas afin d’obtenir des mots de passe ou pour savoir lorsque le domicile est inoccupé, laissant alors le champ libre pour un cambriolage.
Le robot Miko 3, équipé d’une caméra et d’un programme de reconnaissance faciale, collecte également des donnés biométriques de l’enfant, notamment pour obtenir des informations sur ses états émotionnels. Selon sa politique de confidentialité, l’entreprise Miko peut conserver ces données pendant une période de trois ans maximum après le dernière utilisation du jouet. Il n’est pas précisé si l’entreprise a le droit de transmettre ou vendre ces données avant cette échéance.
Quand l’IA débarque dans les jouets (BFM Business)
Des jouets imprévisibles
Les jouets IA pourraient avoir l’avantage d’apporter un soutien éducatif personnalisé à l’enfant, par exemple pour l’aider à faire ses devoirs ou pour réviser pour un test, tant qu’il continue à faire les efforts cognitifs nécessaires à son développement. Ces objets pourraient également inciter l’enfant à passer moins de temps devant des écrans et à développer ses compétences conversationnelles.
Toutefois, ces avantages potentiels ne compensent pas les risques, qui sont eux très concrets. Les entreprises qui fabriquent ces jouets ne sont pas soumises à un encadrement législatif assez strict, en particulier en ce qui concerne la protection de la vie privée et les discussions inappropriées ou dangereuses. Et il n’existe aucune certitude que ce le sera un jour.
Le bien-être, la sécurité et la vie privée des enfants doivent être des priorités absolues. Leur confier des jouets imprévisibles qui peuvent potentiellement leur parler de sexe et leur donner des informations sur des objets dangereux n’est pas du tout recommandable. Il n’est pas non plus acceptable qu’ils soient filmés et que leurs voix soient enregistrées par des entreprises privées qui s’accordent de nombreux droits sur ces données personnelles.
Hélas, le marché mondial des jouets IA est en pleine expansion. Évalué à 12 milliards de dollars en 2022, il pourrait dépasser les 36 milliards d’ici 2030. Mattel, propriétaire notamment des marques Barbie, Fisher-Price et Hot Wheels, a d’ailleurs annoncé en juin un partenariat avec OpenAI pour intégrer son chatbot dans de nouvelles lignes de jouets.
Rappelons qu’en 2015, Mattel avait provoqué un scandale en commercialisant une Barbie équipée d’un micro qui collectait de nombreuses informations personnelles sur les enfants et qui était particulièrement vulnérable aux cyberattaques. Face aux réactions négatives du public, l’entreprise l’a retirée du marché deux ans plus tard. Cet incident était l’un des premiers avertissements concernant les dangers des jouets connectés.
Quels sont les risques de l’intelligence artificielle pour les enfants? (France 24)
Sept nouvelles importantes
Les échanges avec les chatbots inaugurent une nouvelle ère de surveillance à l’école (L’intelligence artificielle et nous)
Lawsuits Blame ChatGPT for Suicides and Harmful Delusions (The New York Times)
OpenAI’s Open-Weight Models Are Coming to the US Military (Wired)
Big Tech Wants Direct Access to Our Brains (The New York Times)
«Balance ton IA» sur Instagram: «Il y a un ras-le-bol croissant chez les artistes» (Le Temps)
Brussels knifes privacy to feed the AI boom (Politico)
Power Companies Are Using AI To Build Nuclear Power Plants (404 Media)
🎥 À regarder
L’IA, une compétition mondiale
Arte a consacré le nouvel épisode de son émission Le dessous des cartes à l’intelligence artificielle. Cette vidéo est un bon récapitulatif des différents domaines d’application de l’IA (armée, logistique, finance, reconnaissance faciale, publicité ciblée, recherche scientifique ou médicale) et des principaux enjeux actuels liés à cette technologie.
La journaliste Émilie Aubry aborde notamment la situation controversée des «travailleurs du clic» qui sont sous-payés pour préparer les données d’entraînement des systèmes d’intelligence artificielle, les questions éthiques autour de l’IA générative (orientation politique des textes, censure, diffusion de fausses vidéos, atteintes aux droits d’auteur des journalistes, écrivains et artistes), la guerre des puces informatiques ainsi que la consommation d’eau et d’énergie des centres de données.
Intelligence artificielle: une compétition mondiale (Le dessous des cartes - Arte)
Sept vidéos importantes
Pourquoi l’IA nous rend vulnérable? (Grand Angle Nova)
Football Games Are Becoming Government Surveillance Hubs (Taylor Lorenz)
Tech Companies Want Your Brain To Be The Next Smartphone | Nita Farahany (Sinead Bovell)
The Dark Theology of a Machine God (Interesting Times with Ross Douthat)
Great Reset Elites are Planning a Post-Human Future | Whitney Webb (Glenn Beck)
They’re Firing Everyone And Getting Rich From It (Vanessa Wingårdh)
‘Fentanyl Capitalism’: How Tech Venture Capital Is Eating the World | Catherine Bracy x Gil Duran (The Nerd Reich)
🔈 À écouter
De la bêtise artificielle
Dans le nouvel épisode de IA qu’à m’expliquer, le journaliste du Temps Grégoire Barbey interviewe la philosophe Anne Alombert. Ils discutent notamment de son essai De la bêtise artificielle, dans lequel elle explore les effets de l’intelligence artificielle sur nos esprits et nos sociétés.
Écouter IA qu’à m’expliquer sur Le Temps
Merci d’avoir lu la 31ème revue de presse de Réalité artificielle. Abonne-toi gratuitement pour recevoir les revues directement dans ta boîte mail. Avec un abonnement payant, tu auras également accès à tous les articles ainsi qu’à une newsletter mensuelle exclusive.
Bon dimanche et à dans deux semaines,
Arnaud





