
Gli utenti banditi dalle piattaforme social vanno altrove con una maggiore tossicità, secondo un nuovo studio condotto da ricercatori della Binghamton University, State University of New York. Quando le persone si comportano come degli “idioti” sui social media, una risposta permanente è quella di vietare loro di postare di nuovo. Togli il megafono digitale, dice la teoria, e i messaggi offensivi o disonesti di quei piantagrane non pubblicheranno più un problema lì. Cosa succede dopo, però? Dove vanno coloro che sono stati “depiattaformati” e come influisce sul loro comportamento in futuro?
Un team internazionale di ricercatori del Thomas J. Watson College of Engineering e il Dipartimento di informatica di Scienze applicate, esplora queste domande in un nuovo studio chiamato “Understanding the Effect of Deplatforming on Social Networks.” La ricerca condotta dai collaboratori di iDRAMA Lab presso la Binghamton University, la Boston University, l’University College di Londra e il Max Planck Institute for Informatics in Germania è stata presentata a giugno alla conferenza ACM Web Science del 2021. I ricercatori hanno sviluppato un metodo per identificare gli account appartenenti alla stessa persona su piattaforme diverse e hanno scoperto che essere bannati su Reddit o Twitter ha portato quegli utenti a unirsi a piattaforme alternative come Gab o Parler dove la moderazione dei contenuti è più permissiva. Tra i risultati c’è anche che, sebbene gli utenti che si spostano su quelle piattaforme più piccole abbiano un pubblico potenzialmente ridotto, mostrano un livello maggiore di attività e tossicità rispetto a prima.
Non puoi semplicemente vietare queste persone e dire: ‘Ehi, ha funzionato.’ Non scompaiono. Vanno in altri posti. Ha un effetto positivo sulla piattaforma originale, ma c’è anche un certo grado di amplificazione o peggioramento di questo tipo di comportamento altrove. Lo studio di deplatforming ha raccolto 29 milioni di post da Gab, lanciato nel 2016 e che attualmente conta circa 4 milioni di utenti. Gab è noto per la sua base di estrema destra di neonazisti, nazionalisti bianchi, antisemiti e teorici della cospirazione di QAnon. Utilizzando una combinazione di apprendimento automatico ed etichettatura umana, i ricercatori hanno incrociato i nomi dei profili e i contenuti con gli utenti che erano stati attivi su Twitter e Reddit ma sono stati sospesi. Molti di coloro che sono privi di piattaforma riutilizzano lo stesso nome del profilo o le stesse informazioni dell’utente su una piattaforma diversa per continuità e riconoscibilità con i propri follower. Solo perché due persone hanno lo stesso nome o nome utente, non è una garanzia.
C’è stato un processo piuttosto lungo di creazione di un set di dati ‘verità di base’, in cui hanno avuto un’opinione umana, ‘Queste devono essere le stesse persone per questo motivo e per quello.’ Ciò consente di ampliare le cose inserendolo in un classificatore di apprendimento automatico [programma] che apprenderà le caratteristiche da tenere d’occhio. Il processo non era diverso dal modo in cui gli studiosi determinano l’identità degli autori per opere non attribuite o pseudonime, controllando lo stile, la sintassi e l’argomento. Nel set di dati analizzato per questo studio, circa il 59% degli utenti di Twitter (1.152 su 1.961) ha creato account Gab dopo l’ultima volta che è stato attivo su Twitter, presumibilmente dopo che il loro account è stato sospeso. Per Reddit, circa il 76% (3.958 su 5.216) degli utenti sospesi ha creato account Gab dopo il loro ultimo post su Reddit.
Confrontando i contenuti degli stessi utenti su Twitter e Reddit rispetto a Gab, gli utenti tendono a diventare più tossici quando vengono sospesi da una piattaforma e sono costretti a spostarsi su un’altra piattaforma. Diventano anche più attivi, aumentando la frequenza dei post. Allo stesso tempo, il pubblico per i contenuti degli utenti di Gab è ridotto dalle dimensioni ridotte della piattaforma rispetto ai milioni di utenti su Twitter e Reddit. Questo potrebbe essere visto come una buona cosa, ma gran parte della pianificazione per l’attacco del 6 gennaio al Campidoglio degli Stati Uniti è avvenuta su Parler, una piattaforma simile a Gab con una base di utenti più piccola che si sposta verso l’alt-right e far-right. Ridurre la portata probabilmente è una buona cosa, ma la portata può essere facilmente fraintesa. Solo perché qualcuno ha 100.000 follower non significa che siano tutti follower nel mondo reale. Il gruppo hardcore, forse il gruppo di cui si è più preoccupati, sono quelli che probabilmente si attaccano a qualcuno se si sposta altrove online. Se riducendo quella portata, aumenti l’intensità a cui sono esposte le persone che stanno intorno, è come una domanda di tipo qualità contro quantità. È peggio avere più persone che vedono queste cose? O è peggio avere cose più estreme prodotte per meno persone?
Uno studio separato, “A Large Open Dataset from the Parler Social Network”, presentato alla Conferenza AAAI su Web e Social Media il mese scorso, ha analizzato 183 milioni di post Parler realizzati da 4 milioni di utenti tra agosto 2018 e gennaio 2021, nonché i metadati di 13,25 milioni di profili utente. I dati confermano che gli utenti di Parler, che ha chiuso brevemente ed è stato rimosso dagli app store di Apple e Google in risposta alla rivolta al Campidoglio, hanno sostenuto in modo schiacciante il presidente Donald Trump e il suo programma “Make America Great Again”. Indipendentemente da ciò che Parler avrebbe potuto dire, pubblicamente o meno, erano chiaramente bianchi, di destra, sostenitori di Trump. Ancora una volta, non sorprende che abbia avuto il suo maggiore impulso proprio alle elezioni del 2020: fino a un milione di utenti che si sono iscritti. Poi, intorno all’attacco al Campidoglio, c’è stato un altro grosso aumento di utenti. Quello che possiamo vedere è che è stato usato molto chiaramente come strumento organizzativo per l’insurrezione. Quindi, se bloccare gli utenti non è la risposta giusta, qual è il comportamento migliore? Gli amministratori di Reddit, ad esempio, hanno una capacità di “shadow-banning” che consente agli utenti problematici di pensare che stiano ancora pubblicando sul sito, tranne che nessun altro può vederli. Durante le elezioni del 2020 e la pandemia di COVID-19, Twitter ha aggiunto etichette di moderazione dei contenuti ai tweet che diffondono deliberatamente disinformazione. Non è certo che tutti gli strumenti di moderazione che le piattaforme di social media hanno a disposizione siano sicuri, ma ci dovrebbero essere più “soluzioni socio-tecniche ai problemi socio-tecnici” piuttosto che un semplice divieto assoluto. La società ora sta dicendo abbastanza fermamente che non possiamo ignorare queste cose – non possiamo più semplicemente usare le uscite facili. Dobbiamo trovare qualche idea più creativa per non sbarazzarci delle persone, ma speriamo di spingerle in una direzione positiva o almeno assicurarci che tutti siano consapevoli di chi sia quella persona. Da qualche parte tra l’accesso illimitato e il divieto di tutti è probabilmente la soluzione giusta.
Daniele Corbo
Bibliografia: A pre-published version of the full research paper is available here.
Immagine: DESCOMPON FACEBOOK (JUAN PEDRO LINARES MONTES)
E’ davvero allarmante
"Mi piace""Mi piace"
Purtroppo si! Ciao cara Luisa
"Mi piace"Piace a 1 persona
🙏🤗🙏🤗🙏
"Mi piace""Mi piace"