30. 11. 2025

INFOKURÝR

INFORMACE Z DOMOVA I ZE SVĚTA

Velký bratr na palubě: Britské vlakové stanice používají AI poháněnou Amazonem ke čtení nálad lidí

Ve Spojeném království řada testů umělé inteligence zahrnující tisíce cestujících ve vlaku, kteří byli nevědomky vystaveni softwaru pro rozpoznávání emocí, vyvolává značné obavy o soukromí. Technologie vyvinutá Amazonem, která se používala na různých hlavních nádražích, jako je Euston a Waterloo v Londýně a Manchester Piccadilly, využívala umělou inteligenci ke skenování tváří a posuzování emocionálních stavů, jakož i věku a pohlaví. Dokumenty získané skupinou pro lidská práva Big Brother Watch prostřednictvím žádosti o svobodu informací odhalily tyto praktiky, které by mohly brzy ovlivnit reklamní strategie.

Během posledních dvou let tyto zkoušky vedené společností Network Rail využívaly „chytré“ technologie CCTV a starší kamery připojené ke cloudovým systémům k monitorování řady činností. Ty zahrnovaly odhalování narušitelů na kolejích, kontrolu davů na nástupištích a odhalování protispolečenského chování, jako je křik nebo kouření. Testy dokonce monitorovaly možné krádeže jízdních kol a další incidenty související s bezpečností.

Data odvozená z těchto systémů by mohla být použita ke zvýšení příjmů z reklamy měřením spokojenosti cestujících na základě jejich emocionálního stavu, zachyceného, ​​když lidé projíždějí přes virtuální tripwire poblíž pokladních bran. Navzdory rozsáhlému využívání těchto technologií se o účinnosti a etických důsledcích rozpoznávání emocí velmi diskutuje. Kritici, včetně výzkumníků AI, se domnívají, že tato technologie je nespolehlivá a požadovali její zákaz. Podporují je varování britského regulátora dat, úřadu Information Commissioner’s Office, o nezralosti technologií analýzy emocí.

Podle Wired generální ředitel Purple Transform Gregory Butler zmínil, že schopnost detekovat emoce byla během zkoušek ukončena a potvrdil, že když byl systém aktivní, neukládaly se žádné obrázky. Mezitím Network Rail tvrdí, že její monitorovací opatření splňují zákonné normy a jsou zásadní pro zachování bezpečnosti v celé železniční síti. Dokumenty však naznačují, že přesnost a aplikace analýzy emocí v situacích reálného světa dosud nebyla potvrzena, jak je uvedeno v několika zprávách ze stanic.

Zastánci ochrany údajů se obávají zejména neprůhlednosti a nadměrného potenciálu používání umělé inteligence ve veřejných prostorách. Jake Hurfurt z Big Brother Watch vyjádřil značné obavy z normalizace takového invazivního sledování bez náležitého veřejného diskursu nebo dohledu.

Jake Hurfurt, vedoucí výzkumu a vyšetřování ve společnosti Big Brother Watch, řekl: „Network Rail neměl právo používat zdiskreditovanou technologii rozpoznávání emocí proti nic netušícím dojíždějícím na některých z největších britských vlakových stanic a mám na to stížnost u Information Commissioner Attempt. předloženo.

Je alarmující, že se veřejný orgán rozhodl provést rozsáhlou zkoušku sledování AI vyvinuté společností Amazon na několika vlakových stanicích, aniž by informoval veřejnost, zvláště když Network Rail kombinuje bezpečnostní technologii s pseudovědeckými nástroji a naznačuje, že data by mohla být předán inzerentům.“

„Technologie může hrát roli při zvyšování bezpečnosti železnic, ale musí proběhnout rozsáhlá veřejná debata o nezbytnosti a přiměřenosti používaných nástrojů.

„Sledování založené na umělé inteligenci by mohlo ohrozit veškeré naše soukromí, zejména pokud by bylo zneužito, a ignorování těchto obav ze strany Network Rail ukazuje na ignorování našich práv.“

Autor: Ken Macon

ZDROJ

 

Sdílet: