Reţeta prin care Facebook a manipulat o lume întreagă: regula de 5 la 1

miercuri, 27 octombrie 2021, 08:00
3 MIN
 Reţeta prin care Facebook a manipulat o lume întreagă: regula de 5 la 1

În urmă cu 5 ani Facebook le-a oferit utilizatorilor săi 5 moduri noi de a reacţiona la o postare, pe lângă clasicul „like”: „love”, „haha”, „wow”, „sad” şi „angry”. Însă în spatele cortinei compania lui Mark Zuckerberg a programat algoritmul care decide ce văd oamenii în news feed-ul lor să utilizeze aceste emoji-uri pentru a-i manipula, relatează The Washington Post.

Documente interne ale Facebook dezvăluie că începând cu 2017 platforma social media a lui Mark Zuckerberg a tratat emoji-urile de reacţie ca fiind mai valoroase decât simplele „like-uri”.

Teoria era simplă: postările care primeau multe reacţii tindeau să îi ţină pe utilizatori mai implicaţi iar acesta era un lucru cheie pentru modelul de afaceri al Facebook. Însă proprii cercetători ai companiei au ajuns să suspecteze rapid o eroare critică de judecată. Favorizarea postărilor „controversate”, inclusiv a celor care îi înfuriau pe utilizatori, ar putea inadvertent „deschide uşa către mai mult spam / agresivitate / clickbait”, nota într-un document intern unul din angajaţii companiei.

„Este posibil”, a răspuns un coleg al său. Avertismentul s-a dovedit a fi profetic. Inginerii de date ai Facebook au confirmat în 2019 că postările la care s-a reacţionat cu emoji-uri de furie erau în mod disproporţionat legate de dezinformări, conţinut dăunător şi ştiri de calitate îndoielnică.

Asta înseamnă că timp de 3 ani de zile Facebook a amplificat în mod sistematic unele din cele mai nocive postări de pe platforma sa, făcându-le mai vizibile în news feed-urile utilizatorilor şi răspândindu-le unui public mai larg.

Această promovare disproporţionată făcută de algoritmi a subminat eforturile moderatorilor de conţinut şi a echipelor de integritate de la Facebook care se luptau cu morile de vânt în ceea ce priveşte conţinutul nociv şi dăunător.

Dezbaterile interne din cadrul companiei despre aceste lucruri au fost dezvăluite Comisiei pentru Bursă şi Valori Mobiliare din Statele Unite şi puse la dispoziţia Congresului american în formă redactată de către avocaţii avertizoarei de integritate Frances Haugen, fost manager de produs al Facebook. Documentele arată că în mai multe situaţii membrii echipelor de integritate ale Facebook au tras semnale de alarmă cu privire la impactul pe care îl au asupra utilizatorilor anumite elemente din sistemul de ranking, avertismente pe care uneori directorii companiei le-au ascultat, alteori le-au ignorat.

Între ei, angajaţii Facebook au dezbătut importanţa furiei în societate: Furia este „o emoţie umană de bază”, nota unul, în timp ce un altul afirma că postările care generează furie ar putea fi esenţiale pentru mişcările de protest împotriva unor regimuri corupte.

Însă greutatea reacţiilor de furie este doar una din numeroasele pârghii prin care inginerii Facebook manipulează fluxul de informaţii şi discuţiile de pe cea mai mare platformă socială din lume, una despre care s-a demonstrat că influenţează totul, de la emoţiile utilizatorilor la campanii politice şi atrocităţi.

Facebook ţine cont de numeroşi factori – unii având o greutate disproporţionată, alţii consideraţi puţin importanţi şi unii contabilizaţi ca fiind negativi – care sunt adunaţi pentru a obţine un scor unic pe care algoritmii îl folosesc pentru a genera news feed-ul fiecărui utilizator.

Acest scor este apoi folosit pentru a sorta postările şi decide care apar primele şi care apar atât de jos încât probabil nu le vei vedea niciodată. Sistemul global de clasificare al Facebook este utilizat pentru a împărţi pe categorii şi sorta toate interacţiunile din peste 100 de limbi dintre utilizatorii platformei prezente în aproape fiecare ţară din lume.

Facebook nu face publice valorile pe care algoritmii săi le atribuie diferitelor tipuri de interacţiuni, cu atât mai puţin pentru cele 10.000 de „semnale” despre care a spus că sunt luate în considerare de software-ul său când prognozează probabilitatea fiecărei postări de a produce acele forme de interacţionare. Compania lui Mark Zuckerberg afirmă că ţine aceste informaţii secrete pentru a nu le oferi actorilor rău-intenţionaţi un „manual” de manipulare a platformei.

Citiţi materialul integral pe hotnews.ro

 

 

Comentarii