Big Brother à bord : les gares britanniques utilisent l’IA assistée par Amazon pour lire l’humeur des gens.
Si Big Brother, qui est capable de connaître noter humeur, inversement, cela signifie qu’il petu la manipuler.
Au Royaume-Uni, une série d’essais d’IA sur des milliers de passagers de train exposés à leur insu à un logiciel de reconnaissance des émotions soulève de sérieuses inquiétudes quant à la protection des données. La technologie développée par Amazon et utilisée dans plusieurs grandes gares telles que Euston et Waterloo à Londres et Manchester Piccadilly a utilisé l’intelligence artificielle pour scanner les visages et évaluer les états émotionnels ainsi que l’âge et le sexe. Des documents obtenus par le groupe de défense des droits civils Big Brother Watch par le biais d’une demande de liberté d’information ont révélé ces pratiques qui pourraient bientôt influencer les stratégies publicitaires.
Au cours des deux dernières années, ces expériences menées sous la direction de Network Rail ont utilisé une technologie de télévision en circuit fermé « intelligente » et des caméras plus anciennes reliées à des systèmes basés sur le cloud pour surveiller une série d’activités. Il s’agissait notamment de détecter les entrées non autorisées sur les voies, de contrôler la foule sur les quais et de détecter les comportements asociaux tels que les cris ou la fumée. Lors des essais, on a même surveillé les éventuels vols de vélos et autres incidents liés à la sécurité.
Les données dérivées de ces systèmes pourraient être utilisées pour augmenter les recettes publicitaires en mesurant la satisfaction des passagers en fonction de leur état émotionnel, qui est détecté lorsque les personnes passent sur des fils de trébuchement virtuels à proximité des barrières de billets. Malgré l’utilisation à grande échelle de ces technologies, l’efficacité et les implications éthiques de la reconnaissance des émotions font l’objet d’un vif débat. Les critiques, y compris les chercheurs en IA, considèrent que cette technologie n’est pas fiable et ont demandé son interdiction. Ils sont soutenus dans leur démarche par les avertissements de l’autorité britannique de surveillance des données, l’Information Commissioner’s Office, concernant le manque de maturité des technologies d’analyse des émotions.
Selon Wired, Gregory Butler, PDG de Purple Transform, a mentionné que la capacité de reconnaissance des émotions avait été arrêtée pendant les essais et a confirmé qu’aucune image n’avait été enregistrée pendant que le système était actif. Entre-temps, Network Rail a affirmé que ses mesures de surveillance répondaient aux normes légales et étaient essentielles au maintien de la sécurité sur l’ensemble du réseau ferroviaire. Des documents indiquent toutefois que la précision et l’application de l’analyse des émotions dans des situations réelles n’ont pas encore été confirmées, comme l’ont révélé plusieurs rapports provenant des gares.
Les défenseurs de la vie privée sont particulièrement préoccupés par l’opacité et le potentiel excessif de l’utilisation de l’IA dans l’espace public. Jake Hurfurt de Big Brother Watch a exprimé de sérieuses inquiétudes quant à la normalisation d’une telle surveillance invasive sans discours public ou supervision adéquats.
Jake Hurfurt, directeur de la recherche et des enquêtes de Big Brother Watch, a déclaré : « Network Rail n’avait pas le droit d’utiliser une technologie discréditée de détection des émotions contre des navetteurs qui ne se doutaient de rien dans certaines des plus grandes gares du Royaume-Uni, et j’ai déposé une plainte auprès du commissaire à l’information concernant cette tentative.
Il est alarmant qu’un organisme public ait décidé de mener un essai à grande échelle d’une surveillance par IA développée par Amazon dans plusieurs gares sans en informer le public, surtout lorsque Network Rail mélange la technologie de sécurité avec des outils pseudo-scientifiques et suggère que les données pourraient être transmises à des annonceurs ».
« La technologie peut jouer un rôle pour rendre les chemins de fer plus sûrs, mais il doit y avoir un débat public solide sur la nécessité et la proportionnalité des outils utilisés.
« La surveillance basée sur l’IA pourrait mettre en péril l’ensemble de notre vie privée, en particulier si elle est utilisée à mauvais escient, et le fait que Network Rail ne tienne pas compte de ces préoccupations démontre un mépris de nos droits.
NOUVEAU : SELON LE GRAND FM ITALIEN MAGALDI, MACRON APPARTIENT A DEUX SUPER-LOGES.

Laurent Glauzy – Les super-loges – 8 tomes : 140 € fco de port – laurentglauzy1@gmail.com)

TOUT CE QUE VOUS TROUVEZ DANS PRO FIDE CATHOLICA EST GRATUIT- MERCI DE SOUTENIR NOTRE COURAGE ET DE RESPECTER NOTRE TRAVAIL.
DON : paypal (laurent-blancy@neuf.fr); renseignement (laurentglauzy1@gmail.com)
TOUS LES LIVRES DE LAURENT GLAUZY & LA LIBRAIRIE DE PRO FIDE CATHOLICA
LA B17 INTERDITE EN FRANCE ET DEFENDUE PAR DES ONCOLOGUES ALLEMANDS & TROUBLES URINAIRES
(INFO : laurentglauzy1@gmail.com)

Voir la vidéo de Max Ingan, sur beforeitsnews.
Il explique que des leds dans des cameras et réverbères placées partout , ciblent en particulier des personnes et les mettent à mort, vidéos des gens qui tournaient sur eux même il y a 2 ans puis tombaient raide morts.
* beaucoup de censure aujourd’hui sur YouTube.
Ils ont peur.
Ies banques AuS et les chaînes de magasins ferment, ils gagnent en pariant sur la baisse des actions en bourse…c est donc voulu.