Sembra che troppo spesso vediamo notizie che un reato grave o un altro è stato commesso su uno o l'altro sito di social media, inclusi post illegali o lo streaming live di contenuti violenti. Può essere facile chiedersi come, in questa epoca tecnologicamente avanzata, queste cose possano scivolare attraverso le fessure.

Ma il fatto è che è praticamente impossibile moderare efficacemente i siti di social media. Perché? Ci sono alcuni motivi.

Alcuni siti di social media sono ancora alle prime armi o sono più di nicchia. Tuttavia, i principali siti di social media hanno una vasta base di utenti. I siti più grandi hanno tra centinaia di milioni e miliardi di utenti. Naturalmente, qualsiasi piattaforma così grande è difficile da monitorare.

La maggior parte dei principali social network lo gestisce attraverso una combinazione di segnalazioni della community, algoritmi (imperfettamente) addestrati per individuare contenuti dannosi e alcuni moderatori umani. Sebbene un membro della comunità o un'intelligenza artificiale possa individuare e segnalare informazioni dannose, è un essere umano (o un gruppo di esseri umani) che ha l'ultima parola. E molti siti offrono una procedura di ricorso.

instagram viewer

I siti di social media non sono enormi solo in termini di base di utenti. Diversi stati e diversi paesi hanno leggi diverse relative al tipo di contenuto che deve essere segnalato e come.

Pertanto, le società di social media attive in diverse aree geografiche spesso devono avere politiche diverse per utenti diversi. Ciò include diverse politiche per la disinformazione e la privacy. Infatti, Twitter ha dovuto accettare termini specifici per non essere bandito in Nigeria.

Ancor di più, i social media sono un fenomeno globale ma non sempre accade nelle lingue "globali". Ciò può costringere le società di social media a cercare moderatori di contenuti che parlino lingue regionali per fornire servizi a livello globale senza lasciare gli utenti vulnerabili a malintenzionati.

Un buon esempio è quello del proprietario di Facebook Meta. La società è stata recentemente citato in giudizio da un ex moderatore di contenuti a Nairobi chi afferma che i moderatori dei contenuti nell'area sono indotti in errore ad assumere il ruolo.

3. I moderatori camminano sul filo del rasoio

La maggior parte degli utenti dei social media vuole due cose: vuole sentirsi al sicuro e vuole sentirsi libero. Trovare un equilibrio tra questi due desideri è il difficile compito del moderatore dei contenuti.

Allontanati troppo da un lato e gli utenti si sentiranno sorvegliati. Allontanati troppo dall'altra parte e gli utenti si sentiranno abbandonati. Un modo in cui alcuni siti di social media aggirano questo problema è attraverso i moderatori della comunità.

I moderatori della community aiutano a esprimere che la moderazione è qualcosa fatto per passione per la promozione discorso costruttivo senza consentire contenuti dannosi piuttosto che per qualsiasi desiderio di controllare o opprimere utenti. Questo modello è impegnativo su larga scala, sebbene piattaforme diverse lo facciano funzionare in modi diversi.

Parler è tornato online dopo aver modificato la sua politica di moderazione per conformarsi alle politiche di terze parti. Hanno qualcosa di un sistema di giuria della comunità che più o meno entra in gioco solo dopo che un post potenzialmente problematico è già stato segnalato. Dare la priorità alle segnalazioni degli utenti è un altro modo in cui Parler aiuta ad alleggerire il carico sui suoi moderatori.

4. I moderatori devono seguire una linea dinamica

I moderatori dei contenuti operano anche in quella che può sembrare un'area grigia morale. Anche le piattaforme con una visione più libera della moderazione hanno regole contro i contenuti potenzialmente dannosi o violenti. Alcuni post sono ovviamente dannosi o violenti, mentre altri potrebbero sembrare dannosi o pericolosi per alcuni utenti (o moderatori) ma non per altri.

Molte piattaforme hanno anche regole contro altre attività come la vendita di prodotti o servizi. Questa può essere un'area ancora più complicata da navigare, in particolare date le dimensioni e la portata di alcuni siti.

Prendere in considerazione cosa fanno i moderatori della community di Reddit. Ogni volta che gli utenti si uniscono a una nuova comunità, ricevono immediatamente le regole per quella comunità. Queste regole sono anche pubblicate sul lato di ogni pagina della comunità. Ciò consente a ciascuna comunità di avere un sottoinsieme di regole su misura piuttosto che regole generali per l'intero sito.

L'idea dei subreddit aiuta anche Reddit a utilizzare i moderatori della community su larga scala. I moderatori hanno il compito di moderare il loro subreddit piuttosto che cercare di pattugliare l'intero sito.

Infine, i social media si muovono molto velocemente. Quando senti parlare di un post problematico, potrebbe essere passato molto tempo dopo che il poster originale lo ha rimosso. Nel caso in cui il post non sia stato segnalato mentre era in diretta, rispondere dopo il fatto può essere complicato.

In un caso nel 2015, un post sul sito di social media YikYak è stato segnalato alla polizia utilizzando una versione modificata del post originale, che era già stato rimosso. Ciò che avrebbe potuto essere risolto internamente dai moderatori dei contenuti online è diventato un dramma legale prolungato che ha sconvolto un'intera comunità.

Molti siti di social media, incluso Facebook, lo hanno politiche per preservare i post sospetti nel caso in cui debbano essere referenziati in situazioni in via di sviluppo, anche da parte delle forze dell'ordine.

Ma funzionalità come il live streaming significano che il contenuto aumenta man mano che accade, cosa che gli algoritmi possono perdere fino a quando non è troppo tardi.

Lancia una moneta al tuo moderatore

Se vedi qualcosa online che ti preoccupa, passa attraverso i canali forniti per segnalarlo. Cerca di evitare di arrabbiarti o di sospettare perché moderare i social media è difficile. Lo stesso vale se tu o un post viene segnalato. Probabilmente è una mossa ben intenzionata per proteggere gli utenti dei social media.