Cand lumea a auzit pentru prima data ca Rusia a folosit reclame Facebook in incercarea de a interfera cu alegerile din 2016 din SUA, informaticienii si expertii in securitate cibernetica au auzit un apel la actiune.
In ultimii patru ani, am studiat modul in care ura si dezinformarea se raspandesc online, astfel incat cercetatorii independenti sa poata construi aparari mai puternice pentru a proteja publicul. Dar, pe masura ce am incercat sa conducem aceasta stiinta de baza, am intalnit o rezistenta puternica din partea platformei primare pe care o studiem: Facebook. Conturile noastre au fost inchise in 2021, un alt semn al respingerii controlului de catre compania de socializare.
Facebook doreste ca oamenii sa o vada drept „cea mai transparenta platforma de pe Internet”, asa cum a declarat vicepresedintele sau pentru integritate in august 2021. Dar, in realitate, a creat obstacole aproape de netrecut pentru cercetatorii care cauta surse de date care pot fi partajate si independente. Este adevarat ca Facebook ofera cercetatorilor unele date: mentine o biblioteca de anunturi online care poate fi cautata si permite utilizatorilor autorizati sa descarce informatii limitate despre anunturile politice. Cercetatorii au putut folosi, de asemenea, instrumentele de analiza de afaceri ale Facebook pentru a culege cateva informatii despre popularitatea continutului neplatit. Dar platforma nu numai ca limiteaza drastic accesul la aceste instrumente, ci se misca si in mod agresiv pentru a opri eforturile independente de a colecta date.
Aceasta nu este doar o disputa intre o platforma de socializare si oamenii care o studiaza. Proliferarea dezinformarii online a fost numita „infodemie”, care, ca un virus, creste, se repeta si dauneaza in lumea reala. Dezinformarea online contribuie la ezitarea oamenilor de a purta masti sau de a se vaccina pentru a ajuta la prevenirea raspandirii COVID-19. Contribuie la neincrederea in soliditatea sistemului nostru electoral. Pentru a reduce aceste daune, este vital ca cercetatorii sa poata accesa si partaja date despre comportamentul retelelor sociale si algoritmii care il modeleaza. Dar restrictiile Facebook stau in calea acestei stiinte.
In primul rand, Facebook limiteaza ce cercetatori au voie sa primeasca date de platforma si le cere sa semneze acorduri care limiteaza drastic modul in care le acceseaza, precum si modul in care le partajeaza. Un exemplu al acestei probleme este programul FORT (Facebook Open Research and Transparency), pe care Facebook l-a creat pentru ca cercetatorii sa studieze datele de directionare a anunturilor. Cu toate acestea, in ciuda promovarii pe scara larga a acestui instrument, Facebook limiteaza setul de date disponibil la o perioada de timp de trei luni care duce pana la alegerile din 2020. Pentru a accesa informatiile, cercetatorii trebuie sa accepte sa lucreze intr-un mediu inchis si nu au voie sa descarce datele pentru a le partaja altor cercetatori. Aceasta inseamna ca altii nu sunt in masura sa-si reproduca descoperirile, o practica de baza in stiinta, care este esentiala pentru construirea increderii in rezultate.
Multi oameni de stiinta au o problema cu aceste limitari. Cercetatorii de dezinformari de la Universitatea Princeton au descris probleme cu FORT care i-au determinat sa abandoneze un proiect folosind instrumentul. O preocupare speciala a fost o prevedere conform careia Facebook avea dreptul de a revizui cercetarile inainte de publicare. Cercetatorii s-au temut ca aceasta regula ar putea fi folosita pentru a-i impiedica sa impartaseasca informatii despre directionarea anunturilor in alegerile din 2020.
In al doilea rand, Facebook face o miscare agresiva pentru a contracara sursele independente de date despre platforma sa – iar echipa noastra este un bun exemplu. In 2020, am construit un instrument pe care il numim Ad Observer, o extensie de browser pentru stiinta cetatenilor, care permite utilizatorilor consimtitori sa ne impartaseasca informatii limitate si anonime despre reclamele pe care le arata Facebook. Extensia comunica cu proiectul nostru Cybersecurity for Democracy, trimitand informatii de baza, cum ar fi cine a platit pentru anunt si cat timp a rulat. De asemenea, raporteaza modul in care agentii de publicitate vizeaza reclamele, o problema pe care cercetatorii si jurnalistii au expus-o ca un vector in raspandirea dezinformarii. Din motive etice, nu colectam informatii personale despre persoanele care distribuie reclamele pe care le vad. Si din motive stiintifice, nu trebuie sa facem acest lucru – tot ce trebuie sa stim pentru a raspunde intrebarilor noastre de cercetare este continut in informatiile publice pe care le colectam cu consimtamant.
Chiar si aceste date limitate despre reclame au fost extrem de utile pentru cercetarea noastra, iar proiectul demonstreaza necesitatea auditarii independente a platformelor de social media. Cu datele colectate de voluntarii nostri, am reusit sa identificam reclame care promovau teoria conspiratiei QAnon si militiile de extrema dreapta, precum si sa demonstram ca Facebook nu a reusit sa identifice aproximativ 10% dintre anunturile politice difuzate pe platforma sa. Si ne-am publicat datele pentru ca si alti cercetatori sa poata lucra cu ei.
Ca raspuns, Facebook a inchis conturile noastre personale in august 2021. Acest lucru a impiedicat Cybersecurity for Democracy sa acceseze chiar si informatiile cu transparenta limitata pe care platforma le ofera cercetatorilor. Compania a insinuat ca actiunile sale au fost mandatate printr-un acord incheiat cu Federal Trade Commission privind confidentialitatea utilizatorilor. FTC a raspuns rapid, spunand Facebook ca platforma greseste sa blocheze cercetarea noastra in numele acordului sau cu agentia: „Decretul de consimtamant nu interzice Facebook sa creeze exceptii pentru cercetarea de buna-credinta in interesul public. Intr-adevar, FTC sprijina eforturile de a face lumina asupra practicilor de afaceri opace, in special in ceea ce priveste publicitatea bazata pe supraveghere.”
Facebook nu a dat inapoi de la decizia de a ne suspenda conturile si i-a pus pe alti cercetatori in miza. In august 2021, proiectul AlgorithmWatch cu sediul in Germania a anuntat ca a intrerupt un proiect care folosea date crowdsourcing pentru a monitoriza modul in care Instagram (o platforma detinuta si de Facebook) a tratat postarile politice si alt continut. Intr-o declaratie, AlgorithmWatch a mentionat ca Facebook a citat preocupari legate de confidentialitate in cercetarea sa.
Deci unde mergem de aici? Desigur, credem ca Facebook ar trebui sa ne reactiveze conturile si sa nu mai ameninte alti cercetatori legitimi. Pe termen lung, insa, oamenii de stiinta nu se pot baza pe masuri limitate de transparenta voluntare de la platformele pe care le urmarim. Cercetatorii si jurnalistii care studiaza platformele de social media intr-un mod care protejeaza confidentialitatea au nevoie de protectii juridice mai bune, astfel incat companii precum Facebook sa nu fie cele care decid ce cercetare poate merge mai departe. Numeroase propuneri au fost aduse in fata Congresului SUA si a Uniunii Europene cu privire la modul de consolidare a acestor protectii. Acum este timpul ca parlamentarii sa ia masuri.