Ezentúl tudni fogod, miért törölte a posztodat a Facebook
A Facebook frissített közösségi alapelvei mostantól tartalmazzák azokat a belső irányelveket is, melyek alapján a cég moderátorai eldöntik, milyen káros tartalmakat kell eltávolítani a közösségi oldalról.
Magyar Péter lenne jobb a gödörben lévő magyar gazdaságnak vagy Orbán Viktor?
Nem lesz baj abból, hogy a nyugdíjmegtakarításokat ingatlancélra is el lehet költeni?
Online Klasszis Klub élőben Felcsuti Péterrel!
A Facebook évekkel ezelőtt vezette be nyilvánosan elérhető, globálisan érvényes közösségi alapelveit, és a moderátorok erre hivatkozva magyarázták el a felhasználóknak, mely tartalmaknak van helyük a közösségi oldalon, és melyeknek nincs.
A Facebook frissített közösségi alapelvei már tartalmazzák azokat a belső irányelveket is, amelyek alapján a vállalat moderátorai eljárnak a jelentett esetek kivizsgálása során. A vállalat két okból döntött az irányelvek publikálása mellett: ezek ismeretében a felhasználók számára egyértelmű lesz, hogy egyes árnyalt kérdésekben a Facebook hol húzza meg a határt. Másrészt pedig a különböző területek szakértői is a korábbinál egyszerűbben juttathatnak majd el visszajelzéseket az irányelvekkel kapcsolatban a Facebooknak. (Ez nem mellékes a magyar cégeknek, mivel a legtöbbjüknek a Facebook szinte már kötelező!)
A Facebooknál a tartalomszabályzó csoport felelős a közösségi alapelvek folyamatos fejlesztéséért. E csapat világszerte 11 irodában működik, tagjai pedig olyan szakértők, akik a terrorizmus és gyűlöletbeszéd felismerésére, gyermekvédelemre szakosodtak. Sokan közülük már a Facebookhoz való csatlakozásuk előtt is e területeken dolgoztak, és heti szinten működnek együtt külső szakmai szervezetekkel is. A visszajelzések és a társadalmi normák, valamint a nyelvi fejlődés alapján a Facebook közösségi alapelvei időről-időre meg fognak újulni.
A Facebook mesterséges intelligenciát és a közösségtől érkező jelentéseket használ az erőszakos tartalmak beazonosítására. A felhasználóktól érkező jelentéseket a Community Operations csapat több mint 40 nyelven, köztük magyarul is értő tagjai nézik át a nap 24 órájában: az esetek többségében a jelentéseket 24 órán belül sikerül feldolgozni. Jelenleg a Facebook világszerte összesen 7500 moderátort alkalmaz, ebben a pozícióban mostanra 40 százalékkal többen dolgoznak a cégnek, mint tavaly ilyenkor.
Adatvédelmi incidens: mit tanulhatunk a Facebook-botrányból?
Mostantól egy új fellebbezési folyamat is elérhetővé válik a Facebookon, amelynek segítségével a felhasználók jelezhetik a moderátorok felé, ha véleményük szerint a Facebook hibát követett el egy-egy adott tartalom eltávolításával. Első lépésként mostantól a meztelenség, pornográfia, gyűlöletbeszéd vagy erőszakos tartalom miatt eltávolított bejegyezések kapcsán lehet fellebbezni a Facebooknál.
Így zajlik a fellebbezés folyamata:
Ha egy felhasználó fotóját, videóját vagy bejegyzését eltávolították a közösségi alapelvek megsértése miatt, az erről szóló értesítés mellett meg fog jelenni egy „Request Review” (fellebbezés kérése) opció.
A fellebbezést a Facebook Community Operations részlegének emberi munkatársa vizsgálja meg (általában 24 órán belül).
Amennyiben a Facebook hibázott egy kérdéses tartalom (például bejegyzés, kép vagy videó) eltávolítása kapcsán, azt visszaállítja, és erről értesítést is küld a fellebbezést kérő felhasználónak.
Májusban a vállalat Facebook Forums: Community Standards néven rendezvénysorozatot is indít, amelynek keretében közösségi szakértők és civil szervezetek adhatnak visszajelzést a Facebook közösségi alapelveivel kapcsolatban. Az eseménynek Németországban, Franciaországban, az Egyesült Királyságban, Indiában, Szingapúrban, az Egyesült Államokban és a világ egyéb pontjain is lesznek állomásai az idén.
A bejelentésről szóló angol nyelvű blogbejegyzést teljes terjedelmében itt olvashatja.
Nyolcmillió videót törölt a YouTube
Több mint nyolcmillió videót távolított el a YouTube tavaly az utolsó negyedévben - olvasható a videomegosztó hivatalos blogjának egy keddi bejegyzésében. A törölt nyolcmillió videó többsége spam volt, vagy úgynevezett felnőtt-tartalom. Az eltávolított mennyiség a portál teljes nézettségének ezrelékekben kifejezhető hányadát jelenti a vizsgált időszakban. A kidobott videók közül 6,7 milliót az erre a célra fejlesztett szoftver jelölt meg gyanúsként. A 6,7 millió 76 százalékát még az előtt törölték, hogy akár egyetlen felhasználó is megnézte volna. Tavaly év elején az erőszakos extrémista tartalom miatt megjelölt és eltávolított videók 8 százalékát látta tíznél kevesebb felhasználó a törlés előtt. A portál júniusban vezette be a gépi tanuláson alapuló szoftvert a gyanús videók megjelölésére. Jelenleg az erőszakos extremizmus miatt törölt videók több mint felét látja tíznél kevesebb felhasználó az eltávolításig. A Youtube-szoftver egy adatbank alapján "tanul", amelyben már ismert és törölt videókat tárolnak. A gépi tanulás eközben egyre több videotartalmat elemez önállóan, hogy kiválogassa közülük a problémásakat, és megjelölje őket megvizsgálandóként. A végső döntést a Google munkatársai hozzák meg a legtöbb esetben. A vizsgált negyedévben az emberek által bejelentett videók 30 százalékában szexualitással kapcsolatos tartalom, 27 százalékában spam vagy hamis adatok voltak. Terrorpropaganda miatt 491 ezer videót vizsgáltak meg, ezek két százaléka emberi bejelentésre történt. A legtöbb bejelentés sorrendben indiai, amerikai, brazíliai, oroszországi és németországi felhasználóktól érkezett. A blog szerint a videotörlések statisztikáit ezentúl rendszeresen közzéteszik.