A szolgáltatók a korábbiakhoz (a majdnem nullához) képest valóban belehúztak, és egyre-másra jelentik be a források ellenőrzésére szolgáló funkciókat, az új moderálási szabályokat, a gyanús profilok felszámolását és az ajánló algoritmusokban eszközölt változtatásokat. Ezek az erőfeszítések azonban a jelek szerint nem hozták meg a kívánt eredményt – legalábbis ez derül ki a HubSpot júliusban közölt felméréséből, amely szerint a felhasználók java része nem hogy a spam mérséklődését, de egyenesen az ilyen tartalom szaporodását tapasztalja.
Az amerikai, kanadai és brit internetezők körében végzett kutatás alapján a válaszadók mindössze 20 százaléka nyilatkozott úgy, hogy saját hírfolyamában az előző hónapban a korábbinál kevesebb spamnek minősíthető tartalmat talált. A felhasználók 27 százaléka bizonytalan volt ebben a kérdésben. Majdnem fele részben, 47 százalékban viszont úgy találták, hogy a spam mennyisége észrevehetően növekedett a szóban forgó időszakban, vagyis a kártékony üzenetek szűrését célzó ötletek ennek alapján nem bizonyultak különösebben sikeresnek.
Érdemes persze megjegyezni, hogy a spam nem egy egzakt minősítés – sem az egyes szolgáltatók, sem az egyes felhasználók részéről. A Facebook hivatalosan például olyan meghatározást használ, ami a kéretlen kapcsolatfelvételre és megjelenésekre koncentrál, az álhírek terjesztése a legnagyobb közösségi oldalon nem számít definíció szerint spammelésnek. A felhasználók majdnem négyötöde, 79 százaléka ezzel szemben a "fake news" üzeneteket is annak gondolja.
Itt máris felmerül a következő probléma, vagyis hogy mi számít egyáltalán álhírnek, függetlenül a spam kategóriájába való besorolástól. Ezt a hálózatok egyelőre se kiköpni, se lenyelni nem tudják: a Facebooknál maradva, az oldal alkalmazottainak a beszámolók szerint moderálniuk kell azokat a minősített és bejelentett tartalmakat, amelyek képi erőszakot, gyűlöletbeszédet, rasszista vagy szélsőséges retorikát vonultatnak fel. Ugyanakkor ez alól gyakran irányított módon kivételt tesznek, még a felhasználási szabályok egyértelmű megsértése esetén is, ami nyilvánvalóan szemben áll azzal a sokszor megfogalmazott szabállyal, amely szerint a pozitív és biztonságos felhasználói élményt elvileg a hirdetési bevételek elé helyezik.
A HubSpot egy hasonló mintán végzett felmérése arra is kitért, hogy megszondázza a felhasználókat egy konkrét kérdésben: mennyire tartják a Facebook eddigi intézkedéseit kielégítőnek abból a szempontból, hogy a jövőben elejét vegyék a választások manipulációjának. Itt is mindössze 29 százalék találta úgy, hogy az oldal sokkal többet már nem is tehetne ennek érdekében. 35 százalék bizonytalan volt, a relatív többség (36 százalék) pedig továbbra sem számít semmi jóra, vagyis meggyőzőnek ebben a tekintetben sem lehet nevezni a hálózat végzett munkát.
Ezt elrontották, úgyhogy most piszmognak egy kicsit a kamerák kedvéért
Az utólagosan elismert hibák sora egyébként ezen a héten is tovább bővült: a Facebook szerdai közleményében túl lassúnak nevezte saját reakcióját a 2017-ben kezdődő mianmari rohingja népirtással, pontosabban az azt éveken át megelőző hisztériakampánnyal szemben. A Facebook ebben borzalmasnak nevezi a mianmari eseményeket, és bejelenti, hogy az év végéig legalább száz főre emeli a burmai nyelvet beszélő moderátorok számát, valamint automatizált eszközöket is bevet a gyűlöletkeltő tartalom szűrésére.
A dologban nem csak az az ijesztő, hogy a vállalatnak 2015-ben mindössze két olyan alkalmazottja volt, aki képes volt átnézni a burmai nyelven írt posztokat. A Reuters azt közölte, hogy munkatársai még a múlt héten is több mint ezer posztot, kommentet, képet és videót szedtek össze a közösségi oldalon, amely a rohingják és más mianmari muszlimok gyalázásáról vagy halálos fenyegetéséről szól – ezek némelyike ráadásul már hat éve fent van és elérhető a Facebookon.
A vállalatnak egyébként a mai napig nincs egyetlen alkalmazottja sem Burmában, a moderálást kiszervezésekkel oldják meg. A burmai nyelven írt szövegek interpretációja állítólag nagyon nehezen algoritmizálható, ezért ebben a tekintetben a technológiai óriáscég is rá van utalva az emberi munkaerőre. A hírügynökség beszámolója azt is megjegyzi, hogy a régió helyzetét ismerő kutatók és emberi jogi aktivisták már évekkel ezelőtt figyelmeztetéseket küldtek a Facebooknak arról, hogyan használják a cég platformját a rohingják elleni gyűlöletkeltésre. A Facebook most (2018 augusztusában) azt is bejelentette, hogy kitiltott az oldalról egy maréknyi mianmari szélsőségest és szélsőséges csoportot.