Az ennek kapcsán felmerülő kihívások kezelésére – a világon elsőként – az AI Act, az Európai Unió Mesterséges Intelligenciáról szóló törvénye átfogó szabályozási keretet biztosít az AI-rendszerek fejlesztésére és alkalmazására, különös tekintettel az etikai normák betartására. A kockázatalapú szemlélettel megalkotott törvény főbb elvei között kitér például a megkülönböztetésmentesség és méltányosság kérdésére, illetve többszintű átláthatósági követelményeket is tartalmaz a megfelelő felügyelet érdekében. Egy jól felépített AI-fejlesztési folyamat, amely a technikai szempontokon túl magában foglalja az emberi és etikai elvárásokat is, segít elérni, hogy a rendszer biztonságos, megbízható és társadalmilag hasznos legyen. Így nemcsak a most formálódó AI Act-nek, hanem a hosszú távú fenntarthatósági elveknek is meg lehet felelni.
Az etikus fejlesztés hosszú távra tervez és bevonja a munkavállalókat is
Az etikus és az AI Act előírásainak megfelelő mesterséges intelligencia-fejlesztésekhez elengedhetetlen, hogy a folyamatot átgondolt és felelős gyakorlatok vezéreljék. Első lépésként kockázatelemzést kell végezni annak érdekében, hogy a termék vagy szolgáltatás besorolása és lehetséges hatásai egyértelműek legyenek. Fontos figyelmet fordítani az adatvédelemre, az adatminőségre és a privacy-követelmények, például a GDPR betartására. Emellett az algoritmusok tisztességes működésének érdekében gondoskodni kell a diszkrimináció megelőzéséről és az esetleges torzítások (bias) kezeléséről is. Ahhoz, hogy mindez teljes mértékben átlátható legyen, a fejlesztést megfelelő dokumentációval és belső megfelelés-kezelési folyamatokkal szükséges támogatni, az emberi felügyelet jelenléte és fenntartása pedig minden lépésénél nélkülözhetetlen.