Facebook face, în premieră, un pas în direcția transparenței. Explică sistemul de ștergere și cenzură prin care curăță rețeaua de conținut.

Decizia Facebook de a publica aceste reguli interne are la bază două motive. În primul rând, îi vor ajuta pe utilizatori să înțeleagă criteriile avute în vedere în luarea unei decizii în ce privește situațiile nuanțate. În al doilea rând, datorită acestor detalii, va fi mult mai ușor pentru toată lumea, inclusiv pentru experți în diferite domenii, să ofere feedback, astfel încât aceste reguli – și deciziile luate în urma lor – să poată fi îmbunățite, în timp.

Compania susține că are un set de standarde de comunitate, active de mai mulți ani, care arată ce tip de conținut este acceptat și ce tip de conținut este eliminat de platforma socială. De asemenea, rețeaua socială lansează posibilitatea ca utilizatorii să conteste deciziile luate cu privire la unele mesaje și să solicite o reevaluare, atunci când consideră că a fost făcută o greșeală.

Cum stabilește Facebook ce șterge și ce blochează

Echipa de politici de conținut a Facebook este responsabilă pentru dezvoltarea standardelor de comunitate ale rețelei sociale. Facebook are angajați in 11 birouri din întreaga lume, inclusiv experți în materie de probleme precum discursul ce încurajează ura, siguranța copiilor și terorismul.

Mulți dintre aceștia au studiat problemele referitoare la exprimare și siguranță cu mult timp înainte să facă parte din echipa platformei sociale.

Conform companiei, echipa responsabilă de toate acestea solicită observații din partea unor experți și organizații din afara Facebook, astfel încât să poată înțelege mai bine diferitele perspective privind siguranța și libera exprimare, precum și impactul politicilor noastre asupra diferitelor comunități la nivel global.

Pe baza acestui feedback, precum și a schimbărilor survenite în normele sociale și în limbaj, evoluează și standardele Facebook. Platforma își propune să aplice aceste standarde în mod consecvent și corect tuturor comunităților și culturilor. Aceste principii sunt prezentate explicit în preambulul standardelor și sunt aduse la viață prin împărtășirea argumentelor din spatele fiecărei politici în parte.

Cum aplică Facebook politica de ștergere sau cenzurare

Politicile Facebook sunt la fel de bune precum hotărârea și acuratețea demonstrate în aplicarea lor – și aceasta nu este perfectă, susține Facebook. Provocarea este de a identifica potențiale încălcări ale acestor standarde, astfel încât să fie examinate.

Tehnologia poate ajuta. Este folosită o combinație între inteligența artificială și raportările primite de la utilizatori pentru a identifica postările, imaginile sau alt tip de conținut care este posibil că încalcă Standardele de Comunitate. Aceste rapoarte sunt revizuite de echipa de operațiuni comunitare, care lucrează 24 de ore din 24, în peste 40 de limbi.

Până la sfârșitul lui 2018, vor fi 7.500 de recenzori de conținut – mai mulți cu 40% față de numărul avut anul trecut pe vremea aceasta.

O altă provocare este aplicarea cu exactitate a politicilor asupra conținutului semnalat. În unele cazuri, pot apărea greșeli, deoarece politicile Facebook nu sunt suficient de clare pentru cei care revizuiesc conținutul și, atunci când este cazul, lucrează pentru a completa aceste lacune.

Cu toate acestea, apar greșeli, deoarece oamenii sunt supuși greșelii. De aceea, procesele de evaluare sunt în permanență revizuite, pentru a asigura cât mai bine posibil corectitudinea și consistența aplicării regulilor. Ca parte a acestui proces, este reevaluat în mod regulat un subset de conținut, pentru a verifica exactitatea deciziilor evaluatorilor Facebook.

Cum te poți plânge că Facebook te cenzurează

Facebook susține că le va oferi utilizatorilor ocazia de a cere o a doua opinie privind conținutul eliminat pentru nuditate sau activitate sexuală, mesaje ce instigă la ură și violenţă.

Dacă o fotografie, videoclip sau postare au fost eliminate pentru încălcarea standardelor comunitare, utilizatorului i se oferă opțiunea „Solicitare recenzie”. Contestațiile sunt revizuite de către echipa de operațiuni de comunitate, în decurs de 24 de ore.

Dacă a fost făcută o greșeală, conținutul va fi restabilit și persoana care a contestat decizia inițială va primi o notificare.

Până la finalul anului, acest proces va fi extins asupra persoanelor care raportează conținutul și care sunt anunțate că acesta nu încalcă Standardele de Comunitate.

Sursa articolului