Le Royaume-Uni utilise l'IA développée par Amazon pour interpréter l'humeur des gens dans les gares

 De : https://www.naturalnews.com/2024-07-02-uk-uses-amazon-ai-read-peoples-mood.html

Ava Grace 7 juillet 2024


Une série d'essais d'intelligence artificielle (IA) au Royaume-Uni impliquant des milliers de passagers de train qui ont été involontairement soumis à un logiciel de détection d'émotions a soulevé des problèmes de confidentialité .

La technologie, développée par Amazon et utilisée dans diverses gares majeures, notamment celles d'Euston et de Waterloo à Londres, utilisait l'IA pour scanner les visages et évaluer les états émotionnels ainsi que l'âge et le sexe. Des documents obtenus par le groupe de défense des libertés civiles Big Brother Watch dans le cadre d'une demande d'accès à l'information ont révélé ces pratiques, qui pourraient bientôt influencer les stratégies publicitaires.

Ces essais ont utilisé la technologie de vidéosurveillance et des caméras plus anciennes liées à des systèmes basés sur le cloud pour surveiller toute une série d'activités, notamment la détection des intrusions sur les voies ferrées, la gestion de la taille des foules sur les quais et l'identification des comportements antisociaux tels que crier ou fumer. Les essais ont même surveillé les vols potentiels de vélos et d’autres incidents liés à la sécurité. (Connexe : la technologie de surveillance IA peut découvrir qui sont vos amis .)

Les données dérivées de ces systèmes pourraient être utilisées pour augmenter les revenus publicitaires en évaluant la satisfaction des passagers à travers leurs états émotionnels, capturés lorsque les individus franchissent des fils déclencheurs virtuels près des barrières de contrôle des billets. Les critiques affirment que cette technologie n’est pas fiable et ont demandé son interdiction.

Au cours des deux dernières années, huit gares du Royaume-Uni ont testé la technologie de surveillance par IA, avec des caméras de vidéosurveillance destinées à alerter le personnel des incidents de sécurité et potentiellement à réduire certains types de criminalité.

Les essais approfondis, supervisés par l'organisme d'infrastructure ferroviaire Network Rail, ont utilisé la reconnaissance d'objets – un type d'apprentissage automatique capable d'identifier des éléments dans des flux vidéo. Des essais distincts ont utilisé des capteurs sans fil pour détecter les sols glissants, les poubelles pleines et les canalisations susceptibles de déborder.

La connaissance humaine est attaquée ! Les gouvernements et les grandes entreprises recourent à la censure pour anéantir la base de connaissances de l’humanité sur la nutrition, les herbes, l’autonomie, l’immunité naturelle, la production alimentaire, la préparation et bien plus encore. Nous préservons les connaissances humaines grâce à la technologie de l’IA tout en construisant l’infrastructure de la liberté humaine. Parlez librement sans censure sur le nouveau Brighteon.io décentralisé et doté de la technologie blockchain . Explorez nos outils d'IA générative téléchargeables gratuitement sur Brighteon.AI . Soutenez nos efforts pour construire l’infrastructure de la liberté humaine en achetant sur HealthRangerStore.com , proposant des aliments et des solutions nutritionnelles testés en laboratoire et certifiés biologiques, sans OGM.

"Le déploiement et la normalisation de la surveillance par l'IA dans ces espaces publics, sans beaucoup de consultations et de conversations, constituent une étape assez préoccupante", a déclaré Jake Hurfurt, responsable de la recherche et des enquêtes chez Big Brother Watch.

Utiliser la technologie pour détecter les émotions n’est pas fiable

Les chercheurs en IA ont souvent averti que l’utilisation de la technologie pour détecter les émotions n’est « pas fiable », et certains affirment que la technologie devrait être interdite en raison de la difficulté de déterminer ce que quelqu’un peut ressentir à partir de l’audio ou de la vidéo. En octobre 2022, le régulateur britannique des données, l'Information Commissioner's Office, a publié une déclaration publique mettant en garde contre l'utilisation de l'analyse des émotions, affirmant que les technologies sont « immatures » et « qu'elles pourraient ne pas fonctionner encore, voire jamais ».

Les défenseurs de la vie privée sont particulièrement alarmés par la nature opaque et le potentiel d’utilisation excessive de l’IA dans les espaces publics. Hurfurt a exprimé de vives inquiétudes quant à la normalisation d’une telle surveillance invasive sans discours public ni surveillance adéquate.

"Network Rail n'avait pas le droit de déployer une technologie discréditée de reconnaissance des émotions contre des voyageurs involontaires dans certaines des plus grandes gares britanniques, et j'ai déposé une plainte auprès du commissaire à l'information concernant ce procès", a déclaré Hurfurt.

"Il est alarmant qu'en tant qu'organisme public, il ait décidé de déployer un essai à grande échelle de surveillance par IA réalisée par Amazon dans plusieurs gares sans que le public en soit informé, en particulier lorsque Network Rail a mélangé des technologies de sécurité avec des outils pseudo-scientifiques et a suggéré que les données pourraient être accordé aux annonceurs", a-t-il ajouté.

"La technologie peut avoir un rôle à jouer pour rendre les chemins de fer plus sûrs, mais il doit y avoir un débat public approfondi sur la nécessité et la proportionnalité des outils utilisés. La surveillance basée sur l'IA pourrait mettre toute notre vie privée en danger, surtout si elle est mal utilisée, et le réfus de considération de ces préoccupations démontre un mépris de nos droits. »

Visitez FutureTech.news pour des histoires similaires.

Regardez Michael Snyder, professeur à l'Université de Stanford, expliquer ci-dessous comment l'IA est utilisée pour collecter des données sur les personnes .

Cette vidéo provient de la chaîne Nonvaxer420 sur Brighteon.com .

Plus d'histoires connexes:

Google censure toute IA qui génère de prétendus « discours de haine » dans le Google Play Store.

D'anciens employés d'OpenAI publient un document « Un droit d'avertir » mettant en garde contre les risques avancés de l'IA.

Une fuite de base de données révèle une liste ALARMANTE des erreurs de Google en matière de confidentialité, notamment l'enregistrement des voix d'enfants et l'exposition des plaques d'immatriculation vues sur Street View.

INCESTE FASCISTE : l'ancien chef de la NSA rejoint le conseil d'administration d'OpenAI pour étendre les tentacules du complexe militaro-industriel.

Le candidat d'Amnesty International candidat au parlement britannique figurera sur les bulletins de vote pour les élections générales de juillet.

Les sources incluent :

ReclaimTheNet.org

Brighteon.com

Commentaires

Posts les plus consultés de ce blog

Jacques Attali : "L'avenir de la vie" 1981 - Extrait .....et rectifications

Comment se débarrasser de l'oxyde de graphène des vaccins

Nous avons désormais la preuve que les vaccins COVID endommagent les capacités cognitives