A rendelet tilt bizonyos MI gyakorlatokat, például a társadalmi pontozást, amelyek veszélyeztetik az alapvető jogokat. Emellett számos kötelezettséget meghatároz a magas kockázatúnak tekintendő, például a kritikus infrastruktúra, az oktatás, a foglalkoztatás, az alapvető szolgáltatások vagy a természetes személyek hitelképességének értékeléséhez vagy hitelpontszámuk megállapításához használt MI-rendszerek kapcsán. Az ilyen rendszerek esetén szükséges a kockázatok felmérése, csökkentése, azok átlátható és pontos működésének biztosítása. Ezek a rendszerek csak emberi felügyelet mellett működhetnek az új szabályozás szerint.
A felhasználók jogai
A felhasználóknak bizonyos esetekben joga lesz panaszt tenni a MI rendszerek által hozott döntésekkel kapcsolatban, és magyarázatot kérni és kapni azokról a döntésekről, amelyek a jogaikat érintik. Az új szabályozásnak köszönhetően transzparensebbé válik az AI eszközök használata, mivel a rendelet új átláthatósági követelményeket határoz meg az általános célú MI rendszerek és azokon alapuló modellek esetében. Ennek értelmében előírja, hogy az általános vagy manipulált képeket, hang- vagy videótartalmat („deepfake"-eket) egyértelműen jelölni kell.
Az innováció és az KKV-k támogatása érdekében a rendelet előírja az ún. sandbox létrehozását és a valós környezetben történő tesztelést a nemzeti szinten.
„Elsőre távolinak tűnhet az AI Act-nek való megfelelés, ugyanakkor egyáltalán nem az és tényleges gazdasági kockázatot jelenthet a megfelelés hiánya. A rendelet szankciórendszere alapján a szabályok megsértése miatt kiszabható bírságok lehetséges legmagasabb összege 35 millió EUR, vagy az előző pénzügyi év teljes éves világszintű forgalmának 7 százaléka (amelyik magasabb), ám ilyen léptékű szankció csak a legsúlyosabb jogsértések esetén merülhetne fel" – mondta el dr. Barta Gergő, a Deloitte vezető MI szakértője.