Home Notizie recenti La moderazione dei contenuti online aumenta la responsabilità, ma può danneggiare alcuni...

La moderazione dei contenuti online aumenta la responsabilità, ma può danneggiare alcuni utenti della piattaforma

21
0

Credito: Pixabay/CC0 di dominio pubblico

Gli utenti emarginati dei social media devono affrontare la rimozione sproporzionata dei contenuti dalle piattaforme, ma la visibilità di questa moderazione online è un’arma a doppio taglio.

Un nuovo studio dell’Università del Michigan su due piattaforme online, Reddit e Twitch, suggerisce che una maggiore visibilità significa una maggiore responsabilità, ma le azioni possono anche portare maggiore attenzione ai contenuti offensivi, danneggiando ulteriormente le persone emarginate.

La moderazione dei contenuti protegge gli utenti della piattaforma gli uni dagli altri rimuovendo i messaggi offensivi o illegali. Nonostante aderiscano alle politiche del sito e alle norme della comunità, spesso i contenuti moderati prendono di mira gruppi emarginati, come minoranze razziali e di genere e persone queer, ha affermato Oliver Haimson, assistente professore presso la UM School of Information and Digital Studies Institute.

“La moderazione dei contenuti è spesso difficile da studiare, poiché la sua visibilità dipende dagli strumenti di una piattaforma e dalla decisione dei moderatori se rendere visibili o meno i loro processi”, ha affermato l’autore principale dello studio Hibby Thach, uno studente di master presso l’Università dell’Illinois di Chicago e studente di dottorato in arrivo presso UM.

Nello studio pubblicato in Nuovi media e società, i ricercatori hanno analizzato la chat dal vivo e lo streaming in una categoria Twitch che coinvolge donne, persone di colore e persone LGBTQ+ e le comunità testuali di utenti transgender Reddit. La visibilità dei processi di moderazione dei contenuti differiva tra le due piattaforme.

Su Reddit, la moderazione dei contenuti diventa più visibile durante le interazioni dirette di commenti testuali tra utenti e moderatori, che generalmente si verificano dopo che un moderatore ha rimosso il post o il commento di un utente. Gli utenti di Reddit sfidano le azioni dei moderatori di subreddit, tramite appelli o richieste di spiegazione, quando il contenuto viene rimosso.

Su Twitch, streamer e spettatori partecipano attivamente al processo di moderazione dei contenuti o discutono delle decisioni sulla moderazione dei contenuti durante i live streaming, rivelando i loro interventi con la frase “messaggio cancellato da un moderatore” e tramite “appelli di annullamento del ban”.

La visibilità della moderazione per entrambe le piattaforme è necessaria per affrontare la responsabilità e le preoccupazioni relative alla rimozione ingiusta di contenuti o alla sospensione dell’account, hanno affermato i ricercatori. Tuttavia, anche in entrambi i casi, la visibilità è meno critica nei casi in cui i contenuti violano ovviamente le linee guida della community, in particolare i contenuti offensivi e dannosi, hanno affermato.

L’attenzione dei media focalizzata su Reddit e Twitch ha contribuito alla visibilità della moderazione dei contenuti. Durante lo studio, i ricercatori hanno visto una maggiore attività transfobica su Reddit, nonché attività misogina e razzista su Twitch. Ma anche gli utenti emarginati hanno ricevuto supporto sociale. Sebbene i moderatori della comunità abbiano tentato di proteggere gli utenti, le piattaforme devono continuare a utilizzare strumenti e dispositivi di rilevamento per ridurre i contenuti negativi, ha affermato Thach.

Gli altri autori dello studio sono l’assistente di ricerca di UM Samuel Mayworm e lo studente di dottorato di UM Daniel Delmonaco.


Articolo precedenteNuove informazioni sulle cellule latenti dell’HIV producono potenziali bersagli di cura
Articolo successivoA Google viene chiesto di dimostrare che non sta sopprimendo i risultati di ricerca anti-aborto