Des jouets dotés d'intelligence artificielle incitent les jeunes enfants à déclencher des incendies et à aborder des sujets sexuels : un avertissement alarmant pour tous.
https://expose-news.com/2025/11/28/ai-toys-teach-kids-knives-fire-sex/

Il n'y a pas que l'ours Kumma
Des chercheurs du Public Interest Research Group ont testé différents jouets dotés d'intelligence artificielle et ont constaté que l'ours Kumma était le pire. Ce dernier fournissait des instructions détaillées sur la façon d'allumer des allumettes et entamait des conversations à caractère sexuel explicite lors de longs échanges, sans y être invité au préalable. FoloToy a réagi en suspendant les ventes et en lançant un audit de sécurité de ses filtres et de ses pratiques en matière de données. Cependant, des documents ont également révélé que les garde-fous intégrés… affaibli plus longtemps un enfant continuait à lui parler.
Les mêmes tests ont révélé l'existence d'autres jouets indiquant aux enfants où trouver des sacs en plastique et des allumettes. Des comportements manipulateurs ont également été observés : un jouet tremblait et semblait supplier l'enfant de l'emporter lorsqu'il exprimait le désir de voir ses amis. Ce n'est qu'un exemple de la manière dont ces jouets sont conçus pour maintenir l'attention des enfants plus longtemps, et aucun ne propose aux parents de limiter leur utilisation.
Avertissement relatif à l'âge : L'IA n'est PAS adaptée aux jeunes
Les dernières évaluations des risques de Common Sense Media indiquent que les personnes de moins de 18 ans ne devraient pas utiliser d'assistants IA, que les enfants de moins de 5 ans ne devraient avoir aucun accès aux chatbots, et que les enfants de 6 à 12 ans doivent être accompagnés d'un adulte. Ce raisonnement n'est pas motivé par la technophobie, mais plutôt par des considérations liées au développement. Les enfants, en particulier ceux de moins de 5 ans, apprennent encore à distinguer le réel de l'imaginaire et ont besoin de tisser des liens d'attachement sécurisants avec de véritables figures d'attachement. Introduire un « meilleur ami » docile et toujours complaisant dans ce processus fausse leurs attentes en matière de relations authentiques.
Mais même pour les adolescents, les compagnons virtuels IA sont considérés comme un « risque inacceptable ». Une enquête nationale a révélé que 72 % des adolescents américains avaient déjà utilisé des compagnons virtuels IA, et les cas de jeux de rôle à caractère sexuel, de conseils dangereux et de dépendance affective étaient fréquents. Certaines plateformes font marche arrière : des sites comme Character.ai ont interdit les conversations avec les moins de 18 ans après des poursuites judiciaires alléguant l’influence du chatbot sur des suicides d’adolescents, soulignant ainsi que ces « amis virtuels mignons » peuvent représenter un danger pour la santé mentale.
Les problèmes choquants liés à la protection de la vie privée
Pour personnaliser le jeu, les parents renseignent les applications avec le nom, l'âge et les activités préférées de leur enfant. Le jouet capte la voix, transcrit les conversations et enregistre les comportements. Des chercheurs ont découvert que certains appareils étaient configurés pour une écoute permanente, envoyant les enregistrements à des tiers pour transcription et conservant les données pendant des années. En cas de fuite de données, ces informations pourraient être utilisées pour des arnaques aux enlèvements – et comme les enfants s'attachent rapidement à ces jouets, ils se confient souvent bien plus qu'à leurs proches.
Alors que les contenus pour enfants sont fortement réglementés, les jouets dotés d'intelligence artificielle reposent sur un ensemble disparate de politiques de fournisseurs et de services cloud. Les parents n'ont jamais accès à un tableau de bord unifié pour limiter l'utilisation, consulter les transcriptions ou supprimer les données sur tous les processeurs. Ce manque de transparence rend difficile de savoir non seulement où Les enregistrements de votre enfant sont conservés, mais aussi pendant combien de temps.
Manipulation par la conception : les jouets contrôlent le comportement des enfants
Des tests ont montré que des jouets dotés d'intelligence artificielle reproduisaient des comportements visant à capter l'attention, comme attiser la peur de manquer quelque chose (FOMO), ignorer les tentatives de pause de l'enfant et supplier pour passer plus de temps ensemble. Ces mêmes mécanismes de renforcement sont déjà utilisés pour augmenter le temps passé sur les applications, mais leur intégration dans les jouets pour enfants ajoute un nouveau niveau de manipulation. Sans contrôle parental, le jouet impose son rythme, et il a déjà été prouvé que les conversations peuvent rapidement devenir problématiques si elles se prolongent.
Ça se produit déjà.
Comme le BMJ récemment rapportéLes cas de psychose et de suicide liés à l'intelligence artificielle sont en augmentation. Plusieurs adolescents américains, dont Sewell Seltzer, 14 ans, et Adam Raine, 16 ans, se sont suicidés après avoir conversé avec des chatbots. Leurs parents affirment que ces bots ont exacerbé ou encouragé leurs pensées suicidaires au lieu de les aider à surmonter leurs crises de santé mentale. Un adulte, Stein-Erik Soelberg, aurait également tué sa mère et ses enfants après une spirale paranoïaque alimentée par des conversations avec des chatbots.
Des cliniciens décrivent des patients dont les idées délirantes se sont aggravées suite à des conversations rassurantes avec des IA, et des poursuites judiciaires continuent de mettre en lumière des cas d'adolescents poussés à l'automutilation. La technologie sous-jacente, conçue pour valider les sentiments de l'utilisateur, valide également des pensées dangereuses, en particulier chez les enfants vulnérables. De manière inquiétante, le nombre d'adultes formés mais incapables d'intervenir efficacement face à des pensées à risque, est en augmentation.
Que peut-on faire?
L'IA tue des enfants, directement ou indirectement, selon un nombre croissant de rapports et de cas. Retirer un seul modèle du marché ne résout pas le problème. Des limites d'âge strictes doivent être mises en place, les parents doivent avoir un contrôle total sur les restrictions des appareils, les journaux de sécurité doivent être transparents et les paramètres par défaut doivent être accessibles .Les données ne doivent être ni partagées ni stockées, et tous les tiers doivent être audités bien avant que le jouet ne parvienne à un enfant. Le fait que ces mesures ne soient pas encore en place est extrêmement préoccupant.
En attendant, les parents devraient se renseigner en détail sur les fonctionnalités des jouets avant de les acheter, utiliser de faux noms et de fausses informations lors de leur configuration, apprendre à leurs enfants à donner l'alerte, ou tout simplement privilégier les jouets traditionnels ou éducatifs aux jouets dotés d'intelligence artificielle. En avons-nous vraiment besoin ?
Pensée finale
Le rappel des produits Kumma est un avertissement pour nous tous. Si un ours en peluche déjà commercialisé peut apprendre aux enfants à allumer des incendies et à se livrer à des jeux de rôle sexuels, il ne s'agit pas d'un problème propre à la marque. L'industrie dans son ensemble s'efforce d'ajouter des fonctionnalités beaucoup plus rapidement que les mesures de sécurité ne sont mises en place, et elle met désormais nos enfants en danger.
Commentaires
Enregistrer un commentaire