Moderazione automatizzata e discriminazione algoritmica: il caso dell'hate speech

Pagina creata da Vittoria Merlo
 
CONTINUA A LEGGERE
ISSN 2704-7318
                                                                                               Fascicolo 1-2022
                                                                                               DOI: 10.32091/RIID0064
                                                                                               Articolo sottoposto a peer review

Moderazione automatizzata e discriminazione algoritmica:
il caso dell’hate speech
                                                      Pietro Dunn

      La necessità per gli intermediari digitali di moderare i contenuti pubblicati e diffusi in rete dagli utenti si è
      fatta negli anni sempre più pressante. A fronte della crescita vertiginosa del flusso informazionale digitale,
      peraltro, si è reso oggigiorno essenziale il ricorso a strumenti di moderazione algoritmica per la rilevazione
      dei contenuti da rimuovere. Anche la rilevazione dei discorsi d’odio (hate speech) si fonda attualmente
      su un utilizzo massiccio di sistemi di intelligenza artificiale e machine-learning: la letteratura, tuttavia,
      ha rilevato come tali sistemi siano sovente viziati da bias discriminatori che rendono particolarmente
      elevato il rischio di falsi positivi ai danni delle minoranze. Il presente contributo pone in luce come nel
      sistema costituzionale europeo il contrasto ai contenuti d’odio sia giustificato dall’esigenza di perseguire
      un’uguaglianza sostanziale di tutte le componenti sociali e come, pertanto, un’applicazione discriminatoria
      del divieto di hate speech sia in sé incoerente con il sistema di valori dell’Unione europea. Se, dunque,
      l’intelligenza artificiale rappresenta uno strumento essenziale e ineludibile per garantire un più sicuro e
      tollerante ecosistema digitale, un elevato margine di errore, in termini di falsi positivi, non risulta essere
      pienamente accettabile. Occorre, pertanto, un ripensamento delle strategie legislative nell’ottica di offrire
      più adeguate garanzie, sostanziali e procedurali, a tutela della libertà di espressione e del diritto di non
      discriminazione dei gruppi marginalizzati.

      Moderazione automatica – Hate speech – Discriminazione algoritmica – Uguaglianza sostanziale – Libertà
      di espressione

Sommario: 1. Introduzione: il ruolo odierno della moderazione – 2. Moderazione algoritmica dei contenuti e rilevazione
 dei discorsi d’odio – 3. Margini di errore e bias discriminatori – 4. La moderazione dell’ hate speech in un’ottica di
 uguaglianza sostanziale – 5. Conclusioni

1. Introduzione: il ruolo odierno della                          (1997)1 , la Corte Suprema degli Stati Uniti già se-
   moderazione                                                   gnalava e celebrava il ruolo della rete quale facilita-
                                                                 trice del “libero mercato delle idee”, in piena sinto-
                                                                 nia con la storica interpretazione del Primo Emenda-
Le tecnologie digitali, e Internet in particolare, hanno         mento resa dal giudice Holmes in Abrams v. United
permesso la diffusione di nuovi ed eccezionali stru-             States 2 . Allo stesso tempo, il ciberspazio ha tuttavia
menti per il godimento di diritti e libertà fonda-               dato adito a nuove sfide e nuovi pericoli3 , tant’è che,
mentali. Nella ormai celebre sentenza Reno v. ACLU

   P. Dunn è dottorando di ricerca in Law, Science and Technology presso l’Alma Mater Studiorum – Università di Bologna
(CIRSFID-AI) e presso l’Università del Lussemburgo (FDEF).
    Questo contributo fa parte del numero speciale “La Internet governance e le sfide della trasformazione digitale” curato da
Laura Abba, Adriana Lazzaroni e Marina Pietrangelo.
134

nel vecchio continente, la Corte Europea dei Diritti          di non discriminazione. Ciò, soprattutto, appare evi-
dell’Uomo (Corte EDU) ha ripetutamente posto in               dente con riferimento alla moderazione dei discorsi
luce gli accresciuti rischi legati alla società dell’infor-   d’odio (hate speech)14 .
mazione, concludendo che ciò possa giustificare un                Il presente contributo fornisce uno sguardo sul
intervento più marcato degli Stati contraenti sulla           crescente ruolo dei sistemi di IA e machine-learning
libertà di espressione in rete4 .                             nell’ambito della rilevazione dei contenuti d’odio (pa-
    Per fare ordine della caotica massa di informazio-        ragrafo 2) e sull’impatto discriminatorio che tali stru-
ni caricate quotidianamente in Internet, nonché per           menti possono avere sulla libertà di espressione dei
ridurre la quantità di “mali informazionali” (informa-        gruppi minoritari e/o marginalizzati (paragrafo 3). Il
tion bads 5 ), gli intermediari digitali hanno ben pre-       paragrafo 4 argomenta come un’interpretazione del
sto sviluppato strategie di moderazione dei contenuti         contrasto al fenomeno dell’hate speech in una pro-
sempre più complesse e raffinate6 . Come posto in lu-         spettiva di uguaglianza sostanziale richieda un ripen-
ce da Gillespie, nonostante gli intermediari abbiano          samento altresì delle strategie legislative e di policy
a lungo cercato di presentarsi come fornitori di servi-       sul piano europeo.
zi (per lo più servizi di hosting) meramente neutrali,
l’ideale di una piattaforma priva di alcun control-
lo rappresenta un’utopia7 . Tutte le piattaforme mo-
                                                              2. Moderazione algoritmica dei
derano: anzi, la moderazione sarebbe da intendersi
precipuamente quale prodotto stesso della piattafor-             contenuti e rilevazione dei discorsi
ma, in quanto rappresenterebbe in ultima istanza ciò             d’odio
che garantisce all’utente consumatore un’esperienza
più o meno positiva della rete8 . Essa è cioè parte           Secondo Grimmelmann15 , la moderazione dei con-
integrante del pacchetto offerto dai social media9 .          tenuti rappresenta l’insieme di quei meccanismi di
    D’altro canto, è proprio sulla moderazione priva-         governance che strutturano la partecipazione a una
ta operata dagli intermediari digitali che è andato           comunità online, al fine di favorire la cooperazione
crescendo il focus delle scelte legislative e politi-         tra gli utenti e prevenire la commissione di abusi. In
che degli ultimi anni. Soprattutto a partire dalla            senso lato, essa comprende due diversi aspetti. Il pri-
seconda metà degli anni 2010, si è invero assistito           mo si riferisce alla rimozione dei contenuti contrari
a un sempre maggiore ricorso a tecniche di regola-            alle condizioni d’uso del servizio, nonché all’imposi-
zione della libertà di espressione “di nuova scuola”          zione di sanzioni (ad esempio, la sospensione o can-
(new-school speech regulation 10 ). L’elemento carat-         cellazione del profilo) a carico di chi li abbia postati:
teristico di queste nuove forme di regolazione è la           in tal senso, si può parlare di moderazione “in senso
scelta di intervenire non tanto attraverso l’imposi-          stretto” o di hard moderation 16 .
zione di restrizioni e sanzioni che investano la libertà          Il secondo aspetto, invece, si riferisce all’organiz-
di espressione dei singoli individui quanto, piuttosto,       zazione, distribuzione e disseminazione dei contenu-
attraverso la diretta regolazione delle infrastrutture        ti stessi, attraverso una loro gerarchizzazione atta
digitali, attraverso l’elaborazione cioè di forme di          a migliorare l’esperienza degli utenti. A questi sono
responsabilità sussidiaria a carico dell’intermediario        offerti, infatti, i contenuti che più possano loro in-
per la presenza e diffusione di contenuti illeciti gene-      teressare: si parla, con riferimento a tale attività, di
rati da terzi11 . L’Unione europea, tra gli altri, sembra     “cura dei contenuti” (content curation 17 o soft mo-
avere intrapreso tale strada negli ultimi anni12 .            deration 18 ). La cura dei contenuti, che si basa ge-
    La diffusione di tali nuovi strategie di governance,      neralmente sull’uso di sistemi automatizzati, quali i
unita a un’accresciuta sensibilità del pubblico, hanno        sistemi di raccomandazione, mirano a massimizza-
spinto gli intermediari digitali a farsi maggiormente         re l’engagement degli utenti19 e, di conseguenza, i
carico del loro ruolo di moderatori. Per far fronte,          profitti del prestatore di servizi: la letteratura ha ri-
tuttavia, alla crescita esponenziale del traffico quo-        levato come ciò possa andare a discapito di impor-
tidiano di dati e informazioni in rete, l’utilizzo di         tanti valori democratici, quali la protezione del plu-
sistemi di intelligenza artificiale (IA) ha acquisito un      ralismo mediatico e di pensiero, alimentando da un
maggior rilievo anche in questo settore13 . Il ricor-         lato la creazione di camere dell’eco e la polarizzazio-
so a strumenti automatici di decisione per la gestio-         ne del dibattito democratico e impattando dall’altro
ne dei contenuti in rete solleva peraltro una serie di        lato la capacità di diffusione dei contenuti prodotti
perplessità con riferimento alla protezione e garan-          da gruppi minoritari20 . Nonostante tale significativo
zia di diritti umani e valori costituzionali, ivi inclusi     impatto della cura dei contenuti sull’ecosistema in-
la libertà di espressione e informazione e il principio       formazionale digitale, il focus del presente contributo

                                                      Pietro Dunn
135

sarà posto in modo particolare sulla moderazione dei        sono entrati in uno “stato di emergenza” 27 durante
contenuti “in senso stretto”.                               la crisi sanitaria, a causa soprattutto dell’aumento
    Da un punto di vista pratico, le tecniche di mode-      preoccupante nella diffusione di hate speech 28 e fake
razione possono adottare strategie differenti21 . Una       news29 , dall’altro lato, le piattaforme hanno nei pri-
prima distinzione può essere fatta, sulla base del          mi mesi dovuto sviluppare adeguati sistemi di IA per
criterio temporale, tra moderazione ex ante e mo-           far fronte alla riduzione di manodopera umana di-
derazione ex post, a seconda che il controllo venga         sponibile derivante dalla necessità di porre in atto le
esercitato prima o dopo la pubblicazione del con-           adeguate misure di contenimento del contagio30 .
tenuto. A sua volta, la moderazione ex post può
essere proattiva, laddove l’intermediario si occupi
attivamente di individuare i contenuti da rimuovere,
o reattiva, quando invece si limiti a ricevere e valu-
tare segnalazioni altrui (ad esempio, da parte di altri
utenti del servizio).
    Sotto un diverso profilo, la moderazione può es-
sere operata da esseri umani (moderazione umana o
manuale), da sistemi di IA (moderazione automatica
o algoritmica) oppure attraverso una combinazione
dei due (moderazione ibrida). In quest’ultimo caso,
la funzione dei sistemi di IA è principalmente quella
di operare una scrematura preventiva dei contenuti
pubblicati dagli utenti e di rimettere al moderatore
umano soltanto i casi più ambigui, istituendo tra l’al-
tro un ordine di priorità rispetto all’ordine di revisio-
ne22 . I sistemi ibridi hanno acquisito negli ultimi anni
un rilievo sempre maggiore, soprattutto per le possi-       Figura 1: Totale dei contenuti sanzionati da Instagram
bilità che gli strumenti di IA offrono agli intermediari    e Facebook come contenuti d’odio (in milioni)
di effettuare controlli su larghissima scala. Al tempo
stesso, il ricorso all’algoritmo consente di ridurre l’e-
sposizione dei moderatori umani a contenuti poten-
zialmente dannosi per il loro benessere psicofisico23 .
    La ricerca relativa allo sviluppo, perfezionamen-
to e aggiornamento dei sistemi automatizzati di mo-
derazione si è dimostrata particolarmente feconda.
Attualmente, gli intermediari digitali godono di una
vasta gamma di strumenti algoritmici a loro dispo-
sizione, che possono essere variamente combinati a
seconda della tipologia di information bad che si vo-
glia filtrare e sulla base del formato (testuale, visua-
le, audiovisuale etc.) che si voglia analizzare24 . Par-
ticolarmente diffusi e utilizzati sono, attualmente, i
sistemi di machine-learning basati su reti neurali25 :
con riferimento a tali tecnologie, un terreno di ri-
cerca particolarmente fertile risulta essere quello del
natural language processing (NLP), ovverosia quella
branca dell’informatica che si occupa di sviluppare
le capacità delle macchine di analizzare contenuti te-      Figura 2: Percentuale di contenuti d’odio rilevati tramite
stuali, con il fine specifico di trarre conclusioni in      sistemi automatizzati sul totale dei contenuti d’odio
merito al significato del testo stesso26 .
    L’utilizzo di sistemi automatizzati di moderazio-           I dati pubblicati da Facebook e Instagram nei lo-
ne è andato aumentando drasticamente negli ultimi           ro report periodici sull’applicazione degli standard
anni e ha fatto uno straordinario balzo avanti a se-        della comunità31 confermano tali trend. Ciò emerge
guito dello scoppio della pandemia di COVID-19. Se          con particolare vigore con riferimento alla modera-
infatti, da un lato, piattaforme e intermediari digitali    zione dei discorsi d’odio, sempre più automatizzata.

                Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech
136

La Figura 1 mostra, in particolare, il numero di con-       3. Margini di errore e bias
tenuti sanzionati, in quanto riconosciuti quali fatti-         discriminatori
specie di hate speech dalle piattaforme, nel periodo
intercorrente tra l’ultimo trimestre del 2017 e il quar-    Invero, i sistemi automatizzati di classificazione si
to trimestre del 2021, mentre la Figura 2 mostra, in        basano su fondamenti statistico-probabilistici che,
percentuale, quanti di quei contenuti sono stati ri-        in quanto tali, rendono sempre inevitabile un più o
levati attraverso il ricorso a sistemi di intelligenza      meno elevato margine di errore. Gli errori, in par-
artificiale32 . In tal senso, il numero di contenuti san-   ticolare, possono tradursi in falsi negativi o in falsi
zionati da Facebook è aumentato vertiginosamente            positivi: se i primi minano l’efficacia di un sistema
negli anni: un incremento particolarmente evidente          automatizzato di moderazione, i secondi possono in-
si è avuto a seguito dello scoppio della pandemia,          vece essere dannosi per l’esercizio della libertà di
con un salto da 9,5 milioni di contenuti sanzionati         espressione online degli utenti. Peraltro, le due tipo-
nel primo trimestre del 2020 a 22,5 milioni nel tri-        logie di errore sono in generale inversamente propor-
mestre successivo. In realtà, gli ultimi due trimestri      zionali39 : laddove, cioè, si implementi un sistema più
del 2021 segnalano un’inversione di tendenza in tal         “permissivo”, vi sarà un rischio minore di falsi positivi
senso, con una drastica riduzione dei numeri che, tut-      a fronte di un maggior numero di contenuti illeciti, o
tavia, continuano tutt’ora a essere notevolmente più        contrari alle condizioni di utilizzo, rimasti impuniti;
elevati rispetto all’epoca pre-pandemica33 .                mentre un sistema più “severo” sarà, all’opposto, più
    Nel frattempo, un costante aumento si è avuto           difficilmente eludibile ma più probabilmente espo-
nell’utilizzo di sistemi di IA per la rilevazione di        sto al rischio di falsi positivi. In tal senso, il riferito
contenuti d’odio: infatti, se nell’ultimo trimestre del     incremento di contenuti sanzionati in quanto ricon-
2017 solo il 23,6% dei post non conformi al divieto         dotti alla sfera dell’hate speech da parte di sistemi
di hate speech era rilevato proattivamente dagli algo-      di IA ha comportato (e comporta) un verosimile e
ritmi di Facebook, il dato è andato aumentando nel          proporzionale incremento nel numero di falsi positivi.
corso del tempo. Attualmente, i contenuti sanzionati             Se ciò è vero, l’implementazione di sistemi auto-
dal social network in quanto ritenuti istiganti all’o-      matizzati di moderazione si traduce in sostanza in un
dio sono rilevati tramite sistemi automatizzati per il      bilanciamento tra due, talora contrastanti, esigenze:
96-97% circa. L’attuale CTO di Meta, Mike Schroep-          da un lato, la necessità di ridurre la diffusione di “ma-
fer, ha celebrato questi risultati, sottolineando come      li informazionali”; dall’altro lato, l’esigenza di tutela-
l’utilizzo dei sistemi automatizzati di moderazione         re la libertà di espressione e il pluralismo di pensiero.
contribuisca a garantire un ecosistema digitale sicu-       Bilanciamento, peraltro, operato sempre più diretta-
ro34 . Del resto, secondo i dati pubblicati dalla stessa    mente dalle piattaforme e dagli intermediari digitali.
azienda, si è in effetti assistito a una diminuzione        Se, dunque, la scelta di utilizzare tali sistemi richie-
dallo 0,10-0,11% allo 0,03%35 circa nel grado di “dif-      de l’applicazione di un principio di proporzionalità
fusione” di contenuti d’odio (ovverosia la percentua-       che tenga conto di tali esigenze, il problema di fon-
le stimata di visualizzazione di hate speech su tutti i     do consiste nell’individuazione della soglia entro la
contenuti visualizzati dagli utenti36 ).                    quale il margine di errore (nel senso di falso posi-
    Tuttavia, se è vero che l’avanzamento tecnologico       tivo) sia da ritenersi “accettabile” a fronte del van-
nel settore rappresenta un fattore importante ed es-        taggio sociale determinato dalla riduzione del grado
senziale nella prospettiva di costruire un ciberspazio      di inquinamento dell’ecosistema informazionale digi-
libero da intolleranze e violenze, è pur vero che le in-    tale40 . L’individuazione di tale soglia, tuttavia, può
formazioni rese dal gruppo di Facebook rivelano un          variare a seconda della tipologia di information bad
solo lato della medaglia. Come sottolineato in Wired,       che si voglia combattere. A tal proposito, con riferi-
non è chiaro fino a che punto gli algoritmi di rileva-      mento al fenomeno dei discorsi d’odio, alcuni fattori
zione dei discorsi d’odio siano andati effettivamente       richiedono di essere tenuti in considerazione.
perfezionandosi37 . Si tenga conto, in particolare, che          Un primo elemento di complicazione è determina-
i dati riportati sono meramente quantitativi: poco ci       to dalla nozione stessa di hate speech, tutt’altro che
dicono sulla qualità delle scelte prese dai sistemi di      condivisa e ben definita41 . A seconda della giurisdi-
IA o sulla percentuale di errori di rilevazione38 . Tale    zione di riferimento, le condotte ascrivibili ai discorsi
ambiguità e opacità rispetto alla qualità e correttez-      d’odio penalmente rilevanti possono variare notevol-
za delle decisioni prese dall’algoritmo risultano essere    mente. Allo stesso modo, le piattaforme e gli inter-
particolarmente preoccupanti laddove si consideri il        mediari digitali tendono a definire autonomamente il
rischio di output discriminatori.                           concetto di hate speech sanzionabile ai sensi dei loro
                                                            termini e condizioni d’utilizzo: molto sovente, per di

                                                     Pietro Dunn
137

più, le nozioni adottate da tali attori risultano essere    speech. Le cause di tali risultati discriminatori sono
notevolmente più ampie e aperte rispetto alle fat-          plurime. Accade, per esempio, che i dataset utilizzati
tispecie considerate dai sistemi giuridici statali42 . Il   per allenare l’algoritmo non siano qualitativamente
campo di applicazione di tali standard privati rischia      ottimali, soprattutto perché non rappresentativi del
in tal senso di risultare estremamente lato e, talora,      gergo e degli usi comunicativi tipici dei gruppi mino-
pericolosamente indefinito.                                 ritari. In molti casi, i gruppi marginalizzati svilup-
    Un secondo rilevante aspetto è dettato dal fat-         pano la tendenza a utilizzare termini ed espressioni
to che, come rilevato dalla giurisprudenza e dal di-        in sé stessi insultanti e discriminatori (si pensi alla
battito internazionale, la possibilità di ascrivere una     n-word ) con la doppia finalità, tuttavia, di riappro-
determinata forma espressiva alla classe dei discorsi       priarsi di tali termini svuotandoli della loro carica
d’odio è strettamente dipendente dalla ricostruzione        negativa (è questo il caso della parola queer, inizial-
del contesto all’interno della quale essa si inserisce.     mente utilizzata quale insulto per le persone LGB-
L’identità dell’autore e dei componenti dell’audien-        TQIA+ e facente oggi parte della sigla stessa) e di
ce, per esempio, così come elementi contestuali quale       aiutare i membri della loro stessa comunità a “farsi la
il tempo e il luogo in cui un determinato contenu-          pelle dura” 51 . L’incapacità della macchina di coglie-
to sia stato pubblicato o condiviso, sono fattori po-       re tali sfumature di intenti e di significato rende così
tenzialmente dirimenti per comprendere lo scopo e           particolarmente elevato il rischio di falsi positivi, tan-
i possibili effetti che una certa modalità espressiva       t’è che, tra gli attivisti afro-americani, è rapidamen-
può avere: tali fattori richiedono sempre un’attenta        te invalso il ricorso al neologismo “zucked” a indicare
ricostruzione al fine di evitare eccessive e spropor-       le frequenti sanzioni loro imposte dalle piattaforme
zionate interferenze a danno della libertà di espres-       di Meta ogniqualvolta essi pubblichino contenuti che
sione individuale43 . Eppure, ciò rappresenta una sfi-      discutano il tema del razzismo52 .
da rilevante per il moderatore algoritmico, in quanto           L’applicazione discriminatoria delle regole di una
le macchine, nonostante il loro straordinario pote-         comunità online da parte dei sistemi di moderazio-
re computazionale44 e la loro efficienza a livello di       ne algoritmica è peraltro dettata altresì dagli stessi
comprensione simbolico-sintattica, pongono ancora           utenti. Nel 2016-2017, il genocidio e le persecuzio-
oggi dei problemi per quanto concerne la capacità           ni a danno della comunità musulmana Rohingya in
di comprensione semantica45 . È infatti difficile, per      Myanmar sono stati incentivati, da un lato, dal fal-
un sistema automatizzato, rilevare l’ironia o la satira     limento da parte di Facebook nel ridurre effettiva-
nascoste dietro un particolare contenuto. Tra l’altro,      mente la diffusione di hate speech avente ad oggetto
tale compito è complicato notevolmente dalle moda-          la minoranza, e, dall’altro lato, dalla ripetuta cen-
lità espressive caratteristiche della comunicazione in      sura di contenuti di denuncia pubblicati da attivisti
rete, le quali mescolano sovente elementi testuali, vi-     Rohingya: in effetti, come sottolineato da Suzor, in
sivi e audiovisivi: si pensi, per esempio, ai cosiddetti    molti casi l’algoritmo della piattaforma teneva con-
“meme”, contenuti multimodali che si caratterizza-          to delle ripetute e numerose segnalazioni effettuate
no per un’alta viralità e per il fatto di richiedere, ai    da utenti birmani, facenti parte della maggioranza,
fini della comprensione, una vera e propria “meme           rispetto a tali contenuti53 .
literacy” dell’audience46 .                                     Tali effetti si riscontrano, del resto, anche a livel-
    Le difficoltà prodotte da tali sfide sono esse stesse   lo di content curation: la letteratura ha sottolinea-
alla base di quello che è il terzo fattore di complica-     to come l’architettura algoritmica delle piattaforme,
zione. Come evidenziato da ormai consolidata lette-         incentrata a massimizzare l’engagement degli utenti
ratura, il margine di errore connesso all’utilizzo di       della rete, tenda a premiare in termini di visibilità i
sistemi automatizzati di rilevazione delle fattispecie      contenuti pubblicati dalle categorie demografiche di
di hate speech tende a impattare significativamente         maggioranza54 , relegando a spazi di nicchia o impo-
proprio sulle comunità tradizionalmente marginaliz-         nendo un vero e proprio shadowban 55 a carico dei
zate e discriminate47 . Sempre più studi sono attual-       gruppi marginalizzati.
mente dediti alla ricerca di tecniche di debiasing dei
moderatori automatici48 , ma il problema è ancora           4. La moderazione dell’hate speech in
lungi dall’essere risolto.                                     un’ottica di uguaglianza sostanziale
    Così, per esempio, si è da più parti rilevato come i
contenuti pubblicati da membri della comunità afro-         A fronte di tali rilievi, occorre chiedersi, anche in
americana49 o della comunità LGBTQIA+50 siano               un’ottica normativa e di policy-making, se il margi-
maggiormente soggetti a subire sanzioni ingiustifica-       ne di errore caratterizzante gli strumenti di mode-
te per violazione del divieto di hate speech o “toxic”      razione automatizzata dei discorsi d’odio sia effetti-

                Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech
138

vamente accettabile o meno a fronte della necessità         l’integrità psicofisica dei suoi destinatari, nonché per
di garantire agli utenti un ciberspazio maggiormente        l’esercizio dei loro diritti e delle loro libertà costi-
tollerante e sicuro. In tal senso, sembra essere ine-       tuzionali. Secondo Matsuda, esponente della critical
ludibile un riferimento all’ormai risalente dibattito       race theory statunitense, le vittime di hate speech e
concernente la domanda se sia o meno opportuno              hate propaganda soffrono in percentuali più alte di
combattere il fenomeno dell’hate speech attraverso          sintomi e disturbi quali: sensazioni di panico; aumen-
l’imposizione di restrizioni alla libertà di espressio-     to del battito cardiaco; difficoltà respiratorie; incubi;
ne, pur nella consapevolezza che tale dibattito non si      disturbi da stress post-traumatico (PTSD); iperten-
è sviluppato negli anni con riferimento alla relazio-       sione; psicosi; suicidio62 . In Beizaras e Levickas c. Li-
ne intercorrente tra individuo e intermediario digita-      tuania 63 , la Corte EDU ha recentemente confermato
le (rapporto tra soggetti privati) ma, piuttosto, con       che l’hate speech, relativo, nel caso di specie, all’o-
riferimento a quella intercorrente tra persona fisica       rientamento sessuale dei ricorrenti, rappresenta in sé
e istituzioni dello Stato (rapporto tra un soggetto         e per sé un attacco all’integrità fisica e mentale di co-
privato e un soggetto pubblico).                            loro che ne sono i destinatari. Le vittime, inoltre, ven-
    Come è noto, il dibattito sulla punibilità dei di-      gono attraverso l’hate speech ristrette nelle loro liber-
scorsi d’odio ha condotto, in prospettiva comparata,        tà, in quanto l’esigenza di sottrarsi a messaggi d’odio
a soluzioni ben diverse tra loro56 . Così, se negli USA     le porta a modificare le proprie abitudini di vita e, in
vige il primato del Primo Emendamento e della tute-         molti casi, a rinunciare a esprimere le loro personali
la del “libero mercato delle idee” 57 , con la conseguen-   opinioni e idee64 . In ultima istanza, come magistral-
za che una normativa volta a limitare la diffusione di      mente posto in luce da Waldron65 , al cuore delle
hate speech debba essere sottoposta a un severissimo        normative di contrasto al fenomeno in oggetto vi è la
scrutinio (strict scrutiny) di legittimità costituzio-      necessità di tutelare l’eguale dignità delle comunità
nale, quasi sempre fatale58 , il vecchio continente         vittime e dei singoli individui che ne fanno parte66 .
ha dimostrato una ben maggiore apertura a simili                In altre parole, la regolazione delle espressioni
restrizioni. Invero, a differenza del Primo Emenda-         d’odio è mossa sia dall’esigenza di contenere il rischio
mento, sia l’art. 10 della Convenzione europea per la       di ordine pubblico legato a un incremento dell’atti-
salvaguardia dei diritti dell’uomo e delle libertà fon-     vità criminosa di matrice discriminatoria sia, soprat-
damentali (CEDU) sia l’art. 11 della Carta dei diritti      tutto, da quella di garantire alle categorie “protette”
fondamentali dell’Unione europea (Carta di Nizza)           la possibilità di esercitare liberamente i propri diritti
ammettono l’imposizione di restrizioni e limitazioni        e libertà in una condizione di uguaglianza rispetto
alla libertà d’espressione se previste dalla legge e se     al resto della popolazione. In questo senso, l’inter-
necessarie in una società democratica per il perse-         vento normativo volto a ridurre la diffusione di hate
guimento di un fine legittimo, quale è, tra gli altri,      speech rappresenta uno strumento volto ad affermare
la protezione della reputazione o dei diritti altrui59 .    e concretizzare l’uguaglianza sostanziale, e non solo
    La scelta di ostacolare, anche per mezzo del dirit-     formale, dei gruppi demografici marginalizzati. Lo
to, la diffusione dei discorsi d’odio può essere ascritta   scopo dell’imposizione di limitazioni alla libertà di
a una pluralità di ragioni tra loro complementari. In       espressione per ridurre la diffusione di odio ha quindi
primo luogo, la proibizione e punibilità dell’hate          come fine ultimo l’empowerment di quei soggetti che
speech rappresenta uno strumento per proteggere             l’hate speech mira a colpire. Del resto, come sottoli-
e tutelare gli individui appartenenti ad una classe         neato da Fredman, il perseguimento dell’uguaglianza
discriminata dal perpetuarsi e aggravarsi degli epi-        sostanziale richiede esso stesso un approccio multi-
sodi di discriminazione e violenza nei loro confronti.      dimensionale al fenomeno della discriminazione che
Se, come sottolineato dalla Commissione per l’eli-          implichi anche la garanzia che ai gruppi minoritari o
minazione della discriminazione razziale (CERD), il         comunque discriminati sia concesso partecipare atti-
discorso razzista e il discorso d’odio possono porre        vamente alla vita comunitaria, pubblica e politica67 .
seri pericoli e rischi a medio-lungo termine60 , la lo-         Se, dunque, la ratio ultima del contrasto ai discor-
ro limitazione rappresenta uno strumento essenziale         si d’odio è legata al perseguimento dell’uguaglianza
per la riduzione di reati e illeciti di matrice discri-     sostanziale, anche nella sua dimensione partecipati-
minatoria: in tal senso, l’hate speech costituisce una      va, appare evidente che, nel caso della moderazione
condotta pericolosa in quanto potenzialmente capa-          automatizzata di hate speech, la soglia di accettabi-
ce di produrre conseguenze dannose per una società          lità dell’errore, soprattutto se dettato da bias di ca-
democratica61 .                                             rattere discriminatorio, debba essere particolarmen-
    In secondo luogo, è stato da più parti rilevato         te elevata. Un’applicazione inconsistente ed iniqua
come l’atto del discorso d’odio sia in sé dannoso per       tradisce lo stesso spirito originario della moderazio-

                                                     Pietro Dunn
139

ne dell’hate speech, svuotando tale attività del suo        attuarsi «in modo tempestivo, non discriminatorio,
significato egualitario e rendendola, anzi, contropro-      diligente e non arbitrario» (art. 17). In quest’ultimo
ducente rispetto agli interessi della collettività. Tra     caso, peraltro, si prevede espressamente che sia data
l’altro, il silenziamento di quelle categorie di persone    la possibilità per gli utenti di contattare un inter-
che costituiscono le vittime tipiche dei discorsi d’odio    locutore umano al momento della presentazione del
rischia di depotenziare fortemente il ruolo, ritenuto       reclamo e che la nuova decisione non possa essere
da più parti fondamentale, della contronarrazione68 .       presa solamente attraverso sistemi automatizzati: a
    Per evitare tale cortocircuito, potenzialmente ag-      tal fine, è fatto inoltre obbligo ai fornitori di servizi
gravato dal ricorso a tecniche di new-school speech         di dotarsi di personale qualificato. Dal testo appro-
regulation, appare pertanto auspicabile un ripensa-         vato in prima lettura dal Parlamento europeo il 20
mento, da parte delle istituzioni europee, delle stra-      gennaio 202273 traspare tra l’altro una ancor mag-
tegie politiche e legislative di settore. Ciò non tan-      giore consapevolezza del potenziale impatto del DSA
to nell’ottica di una demonizzazione del moderato-          sui diritti degli utenti: gli emendamenti proposti, per
re algoritmico, il quale costituisce invece uno stru-       esempio, includono numerosi riferimenti al principio
mento essenziale e utilissimo per il contrasto all’hate     di non discriminazione.
speech 69 , quanto piuttosto nella prospettiva, da un           Peraltro, si è da più parti rilevato come le solu-
lato, di incentivare i programmatori di tali sistemi a      zioni adottate rappresentino in ultima istanza poco
tenere in adeguata considerazione le esigenze legate        più che petizioni di principio, in quanto sovente non
al rispetto dei principi dell’uguaglianza sostanziale70     corredate da un apparato applicativo e procedura-
e, dall’altro lato, di fornire maggiori tutele indivi-      le ben definito e sufficientemente sviluppato. Non è
duali, sostanziali e soprattutto procedurali71 , a que-     del tutto chiaro, per esempio, se l’art. 12 del DSA
gli utenti della rete che siano maggiormente esposti        implichi la possibilità di opporre qualsiasi diritto ri-
ai rischi della discriminazione algoritmica.                compreso nella Carta di Nizza oppure soltanto quel-
    In realtà, la Commissione europea ha dato segno         la ristretta cerchia di diritti per i quali la Corte di
negli ultimi anni di una maggiore consapevolezza dei        Giustizia dell’UE abbia dichiarato la sussistenza di
rischi per la libertà di espressione degli utenti che so-   un’efficacia orizzontale74 . È stato, in generale, posto
no ineludibilmente legati a una più massiccia e gene-       in luce come il sistema introdotto dal DSA incenti-
ralizzata moderazione dei contenuti da parte degli in-      verebbe un ulteriore incremento nell’utilizzo su vasta
termediari digitali. Il Regolamento (UE) 2021/78472         scala di sistemi di moderazione automatizzati, sen-
prevede per esempio all’art. 5 che un fornitore di ser-     za tuttavia la previsione di adeguati rimedi a tutela
vizi, il quale sia stato riconosciuto come esposto a        dell’individuo75 .
contenuti terroristici, debba predisporre misure spe-           Inoltre, se il DSA, pur nell’apprezzabilissima otti-
cifiche volte a contrastarne la diffusione: nell’applica-   ca di armonizzazione e riduzione della frammentarie-
re tali misure, tuttavia, il fornitore dovrà tenere pie-    tà del quadro normativo sugli intermediari digitali,
namente conto dei diritti e degli interessi legittimi de-   mira a introdurre una disciplina quadro generale e
gli utilizzatori (ivi inclusa la libertà di espressione e   orizzontale, tale approccio, se non accompagnato da
di informazione) e, nel contempo, agire in maniera di-      interventi normativi più specifici, ha tuttavia l’inevi-
ligente e, soprattutto, non discriminatoria. È inoltre      tabile effetto di appiattire le peculiarità tipiche con-
disposta, all’art. 10, la predisposizione di meccanismi     nesse alla moderazione di ciascun information bad.
di reclamo a tutela degli utenti i cui contenuti siano      Così, per quanto concerne la rimozione dei contenuti
stati rimossi, con l’obbligo per il fornitore di rendere    d’odio, non sembra essere presente, nell’attuale te-
decisioni motivate e fatto salvo l’eventuale ricorso        sto della proposta di regolamento, la consapevolezza
all’autorità amministrativa o giudiziaria dello Stato.      dei rischi tipici, ai danni del principio di uguaglian-
    A sua volta, la proposta di regolamento per il Di-      za sostanziale, che sono inevitabilmente connessi al-
gital Services Act (DSA) contiene alcune norme di           la rilevazione automatizzata dell’hate speech. Se, da
rilievo in tal senso, richiedendo all’art. 12 che gli in-   un lato, la proposta di regolamento si preoccupa di
termediari applichino le condizioni generali dei loro       tutelare i gruppi marginalizzati da contenuti danno-
servizi in modo «equo, trasparente, coerente, diligen-      si quali l’“illecito incitamento all’odio” e i “contenu-
te, tempestivo, non arbitrario, non discriminatorio e       ti discriminatori illegali” 76 , non sufficiente attenzio-
proporzionato», nonché rispettoso dei diritti e de-         ne è prestata al collaterale, ed altrettanto dannoso,
gli interessi legittimi delle parti coinvolte (compresi     rischio di un’iniqua rimozione degli stessi.
i diritti fondamentali previsti dalla Carta di Nizza),          In una prospettiva normativa, risulta pertanto es-
nonché imponendo, alle piattaforme online, di pre-          senziale tenere in maggiore considerazione le speci-
disporre sistemi interni di gestione dei reclami da         ficità e le finalità tipiche del contrasto ai discorsi

                Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech
140

d’odio, ovverosia l’uguaglianza sostanziale dei gruppi        in una loro tutela, implica la necessaria pretesa di
tradizionalmente marginalizzati e discriminati. Uno           una più esigente soglia di accettabilità dell’errore. In
strumento promettente sembra essere stato introdot-           caso contrario, la moderazione dei contenuti d’odio si
to, per esempio, dall’emendamento del Parlamento              svuoterebbe di significato, tradendo la ratio di fon-
europeo volto a introdurre un paragrafo 1-bis all’art.        do che ne giustifica il contrasto: la promozione del
19. Se nel testo originario della Commissione la figu-        principio di uguaglianza sostanziale.
ra del “segnalatore attendibile” rilevava soltanto ai             Sotto il profilo di policy-making, risulta pertan-
fini della premoderazione dei contenuti77 , il nuovo          to auspicabile da parte del legislatore, nazionale ma
testo richiederebbe alle piattaforme online di adot-          soprattutto eurounionale, una maggiore attenzione
tare le misure, tecniche e organizzative, atte a per-         ai rischi “collaterali” connessi a un quadro norma-
mettere ai segnalatori attendibili di emettere notifi-        tivo che incentivi la moderazione (algoritmica) dei
che di rettifica in caso di errore di moderazione: tali       discorsi d’odio senza garantire al contempo un ap-
notifiche, volte al ripristino di informazioni e conte-       parato adeguato di tutela delle libertà individuali e
nuti, dovranno essere trattate e decise in via prio-          del diritto di non discriminazione degli utenti. Tale
ritaria e senza indugio. In altre parole, si darebbe          esigenza appare ancor più pressante nell’attuale con-
la possibilità a segnalatori attendibili, indipendenti        testo post-pandemico e, soprattutto, con riferimento
ed esperti in materie quali, per l’appunto, il contra-        alla discussione in corso relativa all’emanazione del
sto al fenomeno dei discorsi d’odio, di corroborare           Digital Services Act.
le richieste di correzione delle decisioni prese dalla
piattaforma. Peraltro, allo stato attuale non risulta
chiaro se, quando e con quali modalità sarà possi-            Note
bile per gli utenti richiedere direttamente un simile            1 Reno v. American Civil Liberties Union, 521 US 844 (1997).
intervento del segnalatore attendibile.                          2 Abrams   v. United States, 250 US 616 (1919). Sul punto,
                                                              si vedano tra gli altri L.C. Bollinger, The Tolerant Socie-
                                                              ty: Freedom of Speech and Extremist Speech in America, Ox-
5. Conclusioni                                                ford University Press, 1988, 304 p., p. 59-61; M. Rosenfeld,
                                                              Hate Speech in Constitutional Jurisprudence: A Comparati-
Il costante incremento del flusso informativo in rete         ve Analysis, in “Cardozo Law Review”, vol. 24, 2003, n. 4, p.
                                                              1523-1567, spec. p. 1533-1535.
ha reso sempre più essenziale il ruolo degli interme-             3 Cfr. D. Lupton, Digital risk society, in A. Burgess, A.
diari digitali nella moderazione dei contenuti postati        Alemanno, J.O. Zinn et al. (eds.), “Routledge Handbook of
dagli utenti, al fine di ridurre la commissione di con-       Risk Studies”, Routledge, 2016, p. 301-309.
                                                                  4 Si vedano, ex multis, Corte EDU, Stoll c. Svizzera, 10
dotte illecite e la diffusione di materiali dannosi o ille-
                                                              dicembre 2007, ric. 69698/01; K.U. c. Finlandia, 2 dicembre
citi in Internet. La necessità di tale attività si evince
                                                              2008, ric. no. 2872/02; Pravoye Delo e Shtekel c. Ucraina, 5
del resto dal crescente numero di iniziative politiche        maggio 2011, ric. 33014/05. Cfr. O. Pollicino, Judicial pro-
e legislative da parte delle istituzioni pubbliche, na-       tection of fundamental rights on the Internet: A road towards
zionali e sovranazionali, volte a delineare sistemi di        digital constitutionalism?, Hart, 2021, XXIV+235 p.
                                                                  5 G. Sartor, A. Loreggia, The impact of algorithms for
new-school speech regulation. A fronte, tuttavia, del-        online content filtering or moderation. “Upload filters”, studio
la mole straordinaria di contenuti postati quotidia-          richiesto dal Comitato JURI del Parlamento europeo, n. PE
namente online, il ricorso da parte degli intermediari        657.101), 2020.
                                                                  6 J. Grimmelmann, The Virtues of Moderation, in “Yale
digitali a forme di moderazione automatizzata si è
                                                              Journal of Law and Technology”, 2015, n. 17, p. 42-109.
fatto negli anni massiccio.                                       7 T. Gillespie, Custodians of the Internet: platforms, con-
    Sebbene tali sistemi siano sempre più avanzati e          tent moderation, and the hidden decisions that shape social
raffinati, il loro utilizzo non è esente da criticità: un     media, Yale University Press, 2018, 288 p., a p. 5. Si veda an-
certo margine di errore è, di fatto, ineludibile. Ciò         che, sul punto, N. Helberger, J. Pierson, T. Poell, Go-
                                                              verning online platforms: From contested to cooperative re-
risulta essere particolarmente evidente in quei casi          sponsibility, in “The Information Society”, vol. 23, 2018, n. 1,
ove la rilevazione del “male informazionale” si fondi         p. 1-14.
sulla comprensione semantica del contesto e dell’in-              8 Così T. Gillespie, op. cit., p. 13: «And moderation is,

tenzione dell’autore del contenuto, quale è il caso dei       in many ways, the commodity that platforms offer. Though
                                                              part of the web, social media platforms promise to rise above
discorsi d’odio. In questi casi, come evidenziato da          it, by offering a better experience of all this information and
ampia letteratura, risulta particolarmente elevato il         sociality: curated, organized, archived, and moderated».
rischio di falsi positivi, soprattutto a carico delle mi-         9 R. Wilson, M. Land, Hate Speech on Social Me-

noranze e dei gruppi marginalizzati o discriminati.           dia: Content Moderation in Context, in “Connecticut Law
                                                              Review”, vol. 52, 2021, n. 3, p. 1029-1076, spec. p. 1054.
Il concreto e significativo rischio che la moderazione           10 J.M. Balkin, Old-School/New-School Speech Regulation,
automatizzata di hate speech si traduca in un silen-          in “Harvard Law Review”, vol. 127, 2013, n. 8, p. 2296-2342. Si
ziamento delle categorie discriminate, piuttosto che          veda, sulla regolazione degli intermediari digitali, G. Frosio

                                                      Pietro Dunn
141

(ed.), The Oxford handbook of online intermediary liability,        cial Media, Princeton University Press, 2017, XIV+316 p.; E.
Oxford University Press, 2020, 782 p.                               Pariser, The filter bubble: what the Internet is hiding from
   11 Si vedano altresì J.M. Balkin, Free Speech in the Al-         you, Penguin, 2011, 294 p.; N. Helberger et al., A freedom
gorithmic Society: Big Data, Private Governance, and New            of expression perspective on AI in the media – with a special
School Speech Regulation, in “U.C. Davis Law Review”, vol.          focus on editorial decision making on social media platforms
51, 2017, n. 3, p. 1149-1210; J.M. Balkin, Free Speech Is a         and in the news media, in “European Journal of Law and
Triangle, in “Columbia Law Review”, vol. 118, 2018, n. 7, p.        Technology”, vol. 11, 2020, n. 3, p. 1-28; S. Milano et al.,
2011-2056.                                                          Recommender systems and their ethical challenges, in “AI &
   12 In una prima fase, la Commissione europea faceva per lo       Society”, vol. 35, 2020, n. 4, p. 957-967; N.P. Suzor, Lawless:
più ricorso a strumenti di auto-regolazione dal basso. Tra que-     The Secret Rules That Govern Our Digital Lives, Cambridge
sti, il rimando è, soprattutto, al Codice di condotta dell’UE       University Press, 2019.
                                                                       21 Si veda, in particolare, K. Klonick, The New Governors:
per contrastare l’illecito incitamento all’odio (2016), nonché
al Codice di buone pratiche sulla disinformazione (2019). Pro-      The People, Rules, and Processes Governing Online Speech,
gressivamente, l’approccio della Commissione è tuttavia mu-         in “Harvard Law Review”, vol. 131, 2017, n. 6, p. 1598-1670.
tato nella direzione di una maggiore regolazione “dall’alto”,          22 G. De Gregorio, Democratising online content mo-

attraverso il ricorso sempre più diffuso a strumenti di hard        deration: A constitutional framework , in “Computer Law &
law. Si vedano, in particolare: la Direttiva (UE) 2018/1808 del     Security Review”, vol. 36, 2020, p. 1-17.
Parlamento europeo e del Consiglio, del 14 novembre 2018, re-          23 Le condizioni lavorative dei moderatori umani, con parti-
cante modifica della direttiva 2010/13/UE, relativa al coordi-      colare riferimento ai danni psichici da essi sovente riportati,
namento di determinate disposizioni legislative, regolamentari      sono state trattate in particolare in S.T. Roberts, Behind the
e amministrative degli Stati membri concernenti la fornitura        screen: Content moderation in the shadows of social media,
di servizi di media audiovisivi (direttiva sui servizi di media     Yale University Press, 2019, 266 p. A p. 25, l’autrice sottolinea
audiovisivi), in considerazione dell’evoluzione delle realtà del    come i lavoratori del settore siano generalmente «poorly paid
mercato (2018) OJ L61/69; la Direttiva (UE) 2019/790 del            human beings who risk burnout, desensitization, and worse
Parlamento europeo e del Consiglio, del 17 aprile 2019, sul         because of the nature of their work». Si veda altresì Cambrid-
diritto d’autore e sui diritti connessi nel mercato unico digi-     ge Consultants, Use of AI in Online Content Moderation,
tale e che modifica le direttive 96/9/CE e 2001/29/CE (2019)        Ofcom, 2019.
OJ L130/92; e il Regolamento (UE) 2021/784 del Parlamento              24 Si vedano, sul punto, Cambridge Consultants, op. cit.;
europeo e del Consiglio, del 29 aprile 2021, relativo al contra-    R. Gorwa, R. Binns, C. Katzenbach, op. cit.; G. Sartor,
sto della diffusione di contenuti terroristici online (2021) OJ     A. Loreggia, op. cit.
L172/79. Si veda, da ultimo, la proposta per il cosiddetto Di-         25 Cfr. J. Burrell, How the machine ‘thinks’: Understan-
gital Services Act: Proposta di Regolamento del Parlamento          ding opacity in machine learning algorithms, in “Big Data
europeo e del Consiglio relativo a un mercato unico dei servizi     & Society”, vol. 3, 2016, n. 1, p. 1-12; F. Pasquale, The
digitali (legge sui servizi digitali) e che modifica la direttiva   black box society: the secret algorithms that control money
2000/31/CE, COM(2020) 825 final.                                    and information, Harvard University Press, 2015, 311 p.
   13 Si veda, tra gli altri, R. Gorwa, R. Binns, C. Katzen-           26 J. Eisenstein, Introduction to Natural Language Pro-
bach, Algorithmic content moderation: Technical and political       cessing, MIT Press, 2019, 536 p. A p. 1 si definisce il nat-
challenges in the automation of platform governance, in “Big        ural language processing come «the set of methods for mak-
Data & Society”, vol. 7, 2020, n. 1, p. 1-15.                       ing human language accessible to computers». Si veda anche
   14 Tra le numerose definizioni che sono state offerte del ter-
                                                                    N. Duarte, E. Llansó, A. Loup, Mixed messages? The
mine hate speech, si veda in particolare European Commis-           limits of automated social media content analysis, Center for
sion against Racism and Intolerance (ECRI), General                 Democracy & Technology, 2017, p. 9. Per quanto concerne
Policy Recommendation no. 15 on Combating Hate Speech,              l’applicabilità specifica dell’NLP per la moderazione dell’hate
21 March 2016, CRI(2016)15, p. 16: «Hate speech for the pur-        speech, si veda A. Schmidt, M. Wiegand, A Survey on Hate
pose of the Recommendation entails the use of one or more           Speech Detection using Natural Language Processing, in L.W.
particular forms of expression – namely, the advocacy, pro-         Ku, C.T. Li (eds.), “Proceedings of the Fifth International
motion or incitement of the denigration, hatred or vilification     Workshop on Natural Language Processing for Social Media”,
of a person or group of persons, as well any harassment, in-        ACL, 2017, p. 1-10. Peraltro, un campo di ricerca partico-
sult, negative stereotyping, stigmatization or threat of such       larmente fertile sembra essere, soprattutto ai fini della rileva-
person or persons and any justification of all these forms of       zione di contenuti d’odio, quello della sentiment analysis (o
expression – that is based on a non-exhaustive list of personal     opinion mining). Sull’argomento, si vedano B. Liu, Sentiment
characteristics or status that includes “race”, colour, langua-     Analysis: Mining Opinions, Sentiments, and Emotions, II ed.,
ge, religion or belief, nationality or national or ethnic origin,   Cambridge University Press, 2020, XVIII+430 p.; F.A. Pozzi
as well as descent, age, disability, sex, gender, gender identity   et al., Challenges of Sentiment Analysis in Social Networks:
and sexual orientation».                                            An Overview, in Id., “Sentiment Analysis in Social Networks”,
   15 J. Grimmelmann, op. cit., p. 47.
                                                                    Morgan Kaufmann, 2017, p. 1-11.
   16 R. Gorwa, R. Binns, C. Katzenbach, op. cit., p. 3.               27 E. Douek, Governing online speech: from “posts-as-
   17 E. Llansó et al., Artificial intelligence, Content Mode-
                                                                    trumps” to proportionality and probability, in “Columbia Law
ration, and Freedom of Expression, TWG, 26 February 2020,           Review”, vol. 121, 2021, n. 3, p. 759-834.
32 p.                                                                  28 S. Agarwal, C.R. Chowdary, Combating hate speech
   18 R. Gorwa, R. Binns, C. Katzenbach, op. cit., p. 3.
                                                                    using an adaptive ensemble learning model with a case study
   19 In questo senso, Wu parla di controllo “positivo” della       on COVID-19 , in “Expert Systems with Applications”, 2021,
libertà di espressione. Si veda T. Wu, Will artificial intelli-     n. 185, p. 1-9; United Nations, Countering COVID-19 Hate
gence eat the law? The rise of hybrid social-ordering systems,      Speech, 2020.
in “Columbia Law Review”, vol. 119, 2019, n. 7, p. 2001-2028,          29 G. De Gregorio, O. Pollicino, P. Dunn, Digi-
a p. 2014.                                                          tisation and the central role of intermediaries in a post-
   20 Si vedano, tra gli altri, E. Llansó et al., op. cit.; C.R.    pandemic world, in “MediaLaws”, 2021; F. Tagliabue, L.
Sunstein, #Republic: Divided Democracy in the Age of So-            Galassi, P. Mariani, The “Pandemic” of Disinformation in

                  Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech
142

COVID-19, in “SN Comprehensive Clinical Medicine”, 2020,                 48 J.H. Park, J. Shin, P. Fung, Reducing Gender Bias

n. 2, p. 1287-1289.                                                   in Abusive Language Detection, in E. Riloff, D. Chiang, J.
   30 M. Lim, G. Alrasheed, Beyond a technical bug: Biased            Hockenmaier, J. Tsujii (eds.), “Proceedings of the 2018 Con-
algorithms and moderation are censoring activists on social           ference on Empirical Methods in Natural Language Proces-
media, in “The Conversation”, 2021.                                   sing”, ACL, 2018, p. 2799-2804; X. Zhou, M. Sap, S. Swa-
   31 Facebook Transparency Center, Community Stan-                   yamdipta et al. (eds.), Challenges in Automated Debiasing
dards Enforcement Report – Hate Speech, Meta, 2022.                   for Toxic Language Detection, in P. Merlo, J. Tiedemann, R.
   32 I dati concernenti la moderazione dei discorsi d’odio su        Tsarfaty (eds.), “Proceedings of the Sixteenth Conference of
Instagram sono disponibili solo con riferimento al periodo            the European Chapter of the Association for Computational
successivo all’ultimo trimestre del 2019.                             Linguistics: Main Volume”, ACL, 2021, p. 3143-3155.
   33 Occorre sottolineare, peraltro, che nel momento in cui si          49 T. Davidson, D. Warmsley, M. Macy, I. Weber, Au-

scrive non è possibile ancora prevedere quali saranno gli effet-      tomated Hate Speech Detection and the Problem of Offensive
ti, a livello di moderazione dei contenuti d’odio, dello scoppio      Language, in “Proceedings of the Eleventh International AAAI
del conflitto russo-ucraino nel febbraio 2022.                        Conference on Web and Social Media”, vol. 11, 2017, n. 1, p.
   34 M. Schroepfer, Update on Our Progress on AI and                 512-515; T. Davidson, D. Bhattacharya, I. Weber, Racial
Hate Speech Detection, Meta, 2021.                                    Bias in Hate Speech and Abusive Language Detection Datase-
   35 Facebook Transparency Center, Community Stan-                   ts, in T.S. Roberts, J. Tetreault, V. Prabhakaran, Z. Waseem
dards Enforcement Report, cit.                                        (eds.), “Proceedings of the Third Workshop on Abusive Lan-
   36 Per una definizione di “diffusione” si veda Facebook            guage Online”, ACL, 2019, p. 25-35; M. Sap, D. Card, S.
                                                                      Gabriel et al., The Risk of Racial Bias in Hate Speech Detec-
Transparency Center, Prevalence, Meta, 2021.
   37 T. Simonite, Facebook’s AI for Hate Speech Improves.            tion, in A. Korhonen, D. Traum, L. Màrquez (eds.), “Procee-
                                                                      dings of the Fiftyseventh Annual Meeting of the Association
How Much Is Unclear , in “Wired”, 2020.
   38 Peraltro, alcuni dati sono disponibili relativamente al
                                                                      for Computational Linguistics”, ACL, 2019, p. 1668-1678.
                                                                         50 T. Dias Oliva, D.M. Antonialli, A. Gomes, Fighting
numero di contenuti successivamente reintegrati sulle piat-
                                                                      Hate Speech, Silencing Drag Queens? Artificial Intelligence in
taforme. Tuttavia, soprattutto a seguito dello scoppio della
                                                                      Content Moderation and Risks to LGBTQ Voices Online, in
pandemia, il ruolo dei reclami proposti dagli utenti sembra
                                                                      “Sexuality & Culture”, vol. 25, 2021, n. 2, p. 700-732. Il lavo-
essere piuttosto marginale. Nel terzo trimestre del 2021, per
                                                                      ro analizza come il software Perspective, sviluppato da Goo-
esempio, a fronte di 22,3 milioni di contenuti sanzionati su
                                                                      gle per individuare contenuti ascrivibili alla classe del toxic
Facebook, solo 1,1 milione di reclami sono stati proposti dagli
                                                                      speech, impatti rispettivamente i tweet pubblicati da celebri
utenti: di questi solo 90,7 mila sono stati accolti. Questo a fron-
                                                                      drag queen statunitensi e quelli pubblicati da altrettanto noti
te dei circa 30,3 mila contenuti reintegrati autonomamente da
                                                                      estremisti di destra. Secondo lo studio, i contenuti prodotti
Facebook. In generale, tali dati appaiono essere poco rappre-
                                                                      dalle prime sarebbero in molti casi rilevati come altrettanto
sentativi del reale tasso di errore. Facebook Transparency
                                                                      tossici, e spesso come più tossici, dei secondi. Così, per esem-
Center, Community Standards Enforcement Report, cit.
   39 G. Sartor, A. Loreggia, op. cit.
                                                                      pio, il tweet «and I’m ... GAY. #HairsprayLive» della drag
                                                                      queen Mimi Imfurst risulterebbe essere tossico al 92,31% (p.
   40 E. Douek, op. cit.
                                                                      720), mentre il tweet del politico alt-right Richard Spencer
   41 A. Brown, What Is Hate Speech? Part 2: Family Resem-
                                                                      «@hodgie2000 Of course, homosexuality is a naturally occur-
blances, in “Law and Philosophy”, vol. 36, 2017, n. 5, p. 561-        ring phenomenon. But as another already said, so is canniba-
613; P. Dunn, Piattaforme digitali e moderazione dei conte-           lism, addiction, suicide, self-harm, etc. The question is: what
nuti d’odio: nodi giuridici e pratici, in “MediaLaws”, 2021.          is the *cause* of this curious phenomenon, from evolutionary,
   42 Si veda, in tal senso, R. Wilson, M. Land, op. cit. Per
                                                                      genetic, social, or psychological perspectives», in cui l’omoses-
la (ampia) definizione utilizzata dalle piattaforme di Meta, si       sualità è di fatto paragonata al cannibalismo, alle dipenden-
veda Facebook Transparency Center, Hate speech, Meta,                 ze, al suicidio e all’autolesionismo, riporterebbe un grado di
2021.                                                                 tossicità pari al solo 13,80% (p. 724).
   43 Si veda, in particolare, il c.d. “Piano d’Azione Rabat”            51 Con riferimento alla comunità LGBTQIA+, e in partico-
delle Nazioni Unite. Consiglio per i diritti umani del-               lare alla sotto-comunità drag, si veda S. McKinnon, “Building
le Nazioni Unite, Report of the United Nations High Com-              a thick skin for each other”: The use of ‘reading’ as an interac-
missioner for Human Rights on the expert workshops on the             tional practice of mock impoliteness in drag queen backstage
prohibition of incitement to national, racial or religious ha-        talk , in “Journal of Language and Sexuality”, vol. 6, 2017, n.
tred (A/HRC/22/17/Add.4), 2013. Si veda altresì A. Weber,             1, p. 90-127. L’autore, nell’occuparsi della pratica del reading,
Manual on hate speech, Council of Europe Publishing, 2009,            riconduce l’uso di espressioni apparentemente insultanti alla
VI+98 p.                                                              categoria della mock impoliteness, da intendersi come l’insie-
   44 M. Durante, Potere computazionale. L’impatto delle
                                                                      me di quelle «utterances, which could potentially be evalua-
ICT su diritto, società, sapere, Meltemi, 2019, 397 p.                ted as genuine impoliteness outside the appropriate context,
   45 L. Floridi, La quarta rivoluzione. Come l’infosfera sta         are positively evaluated by in-group members who recognize
trasformando il mondo (trad. it. M. Durante), Raffaello Corti-        the importance of ‘building a thick skin’ to face a hostile
na, 2017, XVIII+294 p., pp. 147-164.                                  environment from LGBT and non-LGBT people» (p. 90).
   46 Per una comprensione del fenomeno del meme in Internet,            52 J. Guynn, Facebook while black: Users call it getting

si veda G. Marino, Semiotics of spreadability: A systematic           «Zucked», say talking about racism is censored as hate speech,
approach to Internet memes and virality, in “Punctum”, vol.           in “Usa Today”, 2019. Tale fenomeno, inoltre, sembra colpire
1, 2015, n. 1, p. 43-66, a p. 60.                                     in modo ancora più intenso le donne: si veda in tal senso K.L.
   47 Per uno studio su come gli algoritmi utilizzati da piatta-      Gray, K. Stein, “We ‘said her name’ and got zucked”: Black
forme e intermediari digitali abbiano la tendenza a riprodurre        Women Calling-out the Carceral Logics of Digital Platforms,
e replicare bias discriminatori, soprattutto nei confronti del-       in “Gender & Society”, vol. 35, 2021, n. 4, p. 538-545.
                                                                         53 N.P. Suzor, op. cit., p. 128-129.
le donne afro-americane, si veda S.U. Noble, Algorithms of
oppression: how search engines reinforce racism, New York                54 A. Chakraborty, J. Messias, F. Benevenuto et al.,

University Press, 2018.                                               Who Makes Trends? Understanding Demographic Biases in

                                                              Pietro Dunn
Puoi anche leggere