Az olimpia során tényleges biometrikus azonosításra a rendszer alkalmazásával nem kerül sor, hanem elsősorban a gyanús tárgyak, viselkedések, tömeggócpontok kialakulásának kiszűrésére irányul a rendszer, amelyet kizárólag átmeneti jelleggel, külön jogszabályi felhatalmazás alapján vezettek be. „Mindazonáltal megállapítható, hogy egy jellegzetes testtartás, mozgás, már önmagában olyan karakterisztikával bírhat, amely valóban alkalmas lehet arra, hogy egyedi azonosítást tegyen lehetővé. És bár az AI Act még nem volt alkalmazandó az esetkörre, önmagában a GDPR alapján is szigorú garanciális követelményeknek kell megfelelnie egy ilyen rendszernek. Annak eldöntése, hogy a háború mellett gyakorlatilag a legnagyobb biztonságpolitikai operációnak tekinthető és kockázatokkal járó olimpiai játékok során a biztonság biztosítása érdekében az AI bevetése szükséges és arányos intézkedésnek minősül-e, meglehetősen komplex kérdéseket vet fel” – emelte ki dr. Kopasz János adatvédelmi szakértő.
Jogi kihívások és az EU AI Act
Az augusztus 1-jén hatályba lépett EU AI Act újabb réteggel színesíti az AI alkalmazását, amelynek hatóköre messze túlmutat az Európai Unió területén és globális sztenderdként szolgál majd.
Az AI Act kockázatalapú megközelítést alkalmaz, kategorizálja az AI rendszereket az egyének alapvető jogaira és a társadalomra gyakorolható potenciális kockázata alapján. Bizonyos, elfogadhatatlan kockázatot jelentő AI rendszerek alkalmazása teljes mértékben tiltásra kerül, mint például a szubliminális, azaz a tudat alattinkra ható rendszerek, vagy a Kínából már ismert társadalmi pontozó rendszerek. De hasonlóképpen, a nyilvánosság számára hozzáférhető helyeken, valós idejű biometrikus azonosító rendszerek használata is csak szűken meghatározott esetekben, mint például egy terrortámadás megelőzése, és további jelentős garanciák mellett válhatnak kivételes esetben alkalmazhatóvá.