A generatív mesterséges intelligencia (GenAI) segíthet a csalóknak ugyanebben azáltal, hogy megkeresi azokat a személyeket, akik a legnagyobb valószínűséggel fizetni fognak, ha virtuális emberrablás áldozatává válnak. Az AI lehetővé teszi a csalók számára, hogy a korábbinál jóval nagyobb léptékben tömegesen hajtsák végre akcióikat, még több kárt okozva, különösebb erőfeszítés nélkül.
Milyen jövő előtt áll a hangklónozás?
Sajnos a hangklónozási technológia már most is nyugtalanítóan meggyőző, amint azt az ESET szakértőinek nemrégiben végzett kísérlete is bizonyítja. A módszer egyre inkább hozzáférhető a csalók számára. Egy tavaly májusi hírszerzési jelentés figyelmeztetett a szövegről beszédre alakítás technológiáját alkalmazó eszközökkel való visszaélésre, emellett a kiberbűnözők körében egyre nagyobb érdeklődés mutatkozik a hangklónozó szolgáltatások (VcaaS, Voice Cloning-as-a-Service) iránt. Amennyiben ez utóbbi elterjed, minden támadó számára lehetővé válik az ilyen jellegű csalások végrehajtása, különösen, ha a GenAI-eszközökkel együtt használják.
A dezinformáció mellett a deepfake technológiát üzleti e-mailek feltörésére és szexuális tartalmú zsaroló átverésekre (sextortion) is használhatják. Mindez az ESET szakértői szerint azt jelenti, hogy egy hosszú út elején járunk.
Hogyan maradjunk biztonságban?
A jó hír az, hogy már egy kis tájékozottsággal is nagy lépést tehetünk általánosságban a deepfake, különösen pedig a virtuális emberrablás okozta veszély csökkentéséért. A vállalatoknak érdemes szakértői tréningeket tartani a témában, de saját magunk is minimalizálhatjuk annak az esélyét, hogy áldozattá váljunk, és bedőljünk egy csalók által indított hívásnak.