Műsormagazin;Facebook;

2018-04-25 07:40:00

Ezentúl tudni lehet, miért törölt posztot a Facebook

Nyilvánossá teszi a Facebook, hogy milyen irányelvek alapján tilt le profilokat és posztokat.

A Facebook frissített közösségi alapelvei mostantól tartalmazzák azokat a belső irányelveket is, melyek alapján a cég moderátorai eldöntik, milyen káros tartalmakat kell eltávolítani a közösségi oldalról. Ezek ismeretében a felhasználók számára egyértelmű lesz, hogy egyes árnyalt kérdésekben a Facebook hol húzza meg a határt. Másrészt a különböző területek szakértői a korábbinál egyszerűbben juttathatnak majd el visszajelzéseket az irányelvekkel kapcsolatban a Facebooknak. (Ez nem mellékes a magyar cégeknek, mivel a legtöbbjüknek a Facebook szinte már kötelező.)

A Facebook mesterséges intelligenciát és a közösségtől érkező jelentéseket használ az erőszakos tartalmak beazonosítására. A felhasználóktól érkező jelentéseket egy csapat több mint 40 nyelven, köztük magyarul is értő tagjai nézik át a nap 24 órájában. Jelenleg a Facebook világszerte összesen 7500 moderátort alkalmaz, ebben a pozícióban mostanra 40 százalékkal többen dolgoznak a cégnek, mint tavaly ilyenkor.

Mostantól egy új fellebbezési folyamat is elérhetővé válik a Facebookon, amelynek segítségével a felhasználók jelezhetik a moderátorok felé, ha véleményük szerint a Facebook hibát követett el egy-egy adott tartalom eltávolításával. Első lépésként mostantól a meztelenség, pornográfia, gyűlöletbeszéd vagy erőszakos tartalom miatt eltávolított bejegyezések kapcsán lehet fellebbezni a Facebooknál.

Így zajlik a fellebbezés folyamata:

Ha egy felhasználó fotóját, videóját vagy bejegyzését eltávolították a közösségi alapelvek megsértése miatt, az erről szóló értesítés mellett meg fog jelenni egy „Request Review” (fellebbezés kérése) opció. Ha a Facebook hibázott egy kérdéses tartalom eltávolítása kapcsán, azt visszaállítja, és erről értesítést is küld a fellebbezést kérő felhasználónak.

Idén csaknem 2 millió bejegyzést töröltek
Minden eddiginél keményebben lép fel a Facebook a szélsőséges tartalmak ellen: 2018 első negyedévében a vállalat több százezer, az Iszlám Államhoz és az al-Kaidához kötődő bejegyzést törölt. Összesen 1,9 millió bejegyzést távolítottak el vagy láttak el figyelmeztetéssel. A cég szerint ez kétszer annyi, mint az előző negyedévben. Az esetek túlnyomó többségében nem a felhasználók jeleztek problémát, hanem egy szoftver, illetve a vállalat ellenőrei vették észre a tartalmakat. Egy-egy ilyen jellegű bejegyzés átlagosan kevesebb mint egy percig volt látható a közösségi oldalon.