Moderazione automatizzata e discriminazione algoritmica: il caso dell'hate speech

Pagina creata da Luca Pasquali
 
CONTINUA A LEGGERE
ISSN 2704-7318
                                                                                               Fascicolo 1-2022
                                                                                               DOI: 10.32091/RIID0064
                                                                                               Articolo sottoposto a peer review

Moderazione automatizzata e discriminazione algoritmica:
il caso dell’hate speech
                                                      Pietro Dunn
      La necessità per gli intermediari digitali di moderare i contenuti pubblicati e diffusi in rete dagli utenti si è
      fatta negli anni sempre più pressante. A fronte della crescita vertiginosa del flusso informazionale digitale,
      peraltro, si è reso oggigiorno essenziale il ricorso a strumenti di moderazione algoritmica per la rilevazione
      dei contenuti da rimuovere. Anche la rilevazione dei discorsi d’odio (hate speech) si fonda attualmente
      su un utilizzo massiccio di sistemi di intelligenza artificiale e machine-learning: la letteratura, tuttavia,
      ha rilevato come tali sistemi siano sovente viziati da bias discriminatori che rendono particolarmente
      elevato il rischio di falsi positivi ai danni delle minoranze. Il presente contributo pone in luce come nel
      sistema costituzionale europeo il contrasto ai contenuti d’odio sia giustificato dall’esigenza di perseguire
      un’uguaglianza sostanziale di tutte le componenti sociali e come, pertanto, un’applicazione discriminatoria
      del divieto di hate speech sia in sé incoerente con il sistema di valori dell’Unione europea. Se, dunque,
      l’intelligenza artificiale rappresenta uno strumento essenziale e ineludibile per garantire un più sicuro e
      tollerante ecosistema digitale, un elevato margine di errore, in termini di falsi positivi, non risulta essere
      pienamente accettabile. Occorre, pertanto, un ripensamento delle strategie legislative nell’ottica di offrire
      più adeguate garanzie, sostanziali e procedurali, a tutela della libertà di espressione e del diritto di non
      discriminazione dei gruppi marginalizzati.

      Moderazione automatica – Hate speech – Discriminazione algoritmica – Uguaglianza sostanziale – Libertà
      di espressione

Sommario: 1. Introduzione: il ruolo odierno della moderazione – 2. Moderazione algoritmica dei contenuti e rilevazione
 dei discorsi d’odio – 3. Margini di errore e bias discriminatori – 4. La moderazione dell’ hate speech in un’ottica di
 uguaglianza sostanziale – 5. Conclusioni

1. Introduzione: il ruolo odierno della                          nia con la storica interpretazione del Primo Emenda-
   moderazione                                                   mento resa dal giudice Holmes in Abrams v. United
                                                                 States 2 . Allo stesso tempo, il ciberspazio ha tuttavia
                                                                 dato adito a nuove sfide e nuovi pericoli3 , tant’è che,
Le tecnologie digitali, e Internet in particolare, han-
                                                                 nel vecchio continente, la Corte Europea dei Diritti
no permesso la diffusione di nuovi ed eccezionali stru-
                                                                 dell’Uomo (Corte EDU) ha ripetutamente posto in
menti per il godimento di diritti e libertà fondamen-
                                                                 luce gli accresciuti rischi legati alla società dell’infor-
tali. Nella ormai celebre sentenza Reno v. ACLU
                                                                 mazione, concludendo che ciò possa giustificare un
(1997)1 , la Corte Suprema degli Stati Uniti già se-
                                                                 intervento più marcato degli Stati contraenti sulla
gnalava e celebrava il ruolo della rete quale facilita-
                                                                 libertà di espressione in rete4 .
trice del “libero mercato delle idee”, in piena sinto-

   P. Dunn è dottorando di ricerca in Law, Science and Technology presso l’Alma Mater Studiorum – Università di Bologna
(CIRSFID-AI) e presso l’Università del Lussemburgo (FDEF).
    Questo contributo fa parte del numero speciale “La Internet governance e le sfide della trasformazione digitale” curato da
Laura Abba, Adriana Lazzaroni e Marina Pietrangelo.
Per fare ordine della caotica massa di informazio-      ragrafo 2) e sull’impatto discriminatorio che tali stru-
ni caricate quotidianamente in Internet, nonché per         menti possono avere sulla libertà di espressione dei
ridurre la quantità di “mali informazionali” (informa-      gruppi minoritari e/o marginalizzati (paragrafo 3). Il
tion bads 5 ), gli intermediari digitali hanno ben pre-     paragrafo 4 argomenta come un’interpretazione del
sto sviluppato strategie di moderazione dei contenuti       contrasto al fenomeno dell’hate speech in una pro-
sempre più complesse e raffinate6 . Come posto in lu-       spettiva di uguaglianza sostanziale richieda un ripen-
ce da Gillespie, nonostante gli intermediari abbiano        samento altresì delle strategie legislative e di policy
a lungo cercato di presentarsi come fornitori di servi-     sul piano europeo.
zi (per lo più servizi di hosting) meramente neutrali,
l’ideale di una piattaforma priva di alcun controllo
rappresenta un’utopia7 . Tutte le piattaforme mo-           2. Moderazione algoritmica dei
derano: anzi, la moderazione sarebbe da intendersi             contenuti e rilevazione dei discorsi
precipuamente quale prodotto stesso della piattafor-           d’odio
ma, in quanto rappresenterebbe in ultima istanza ciò
che garantisce all’utente consumatore un’esperienza         Secondo Grimmelmann15 , la moderazione dei con-
più o meno positiva della rete8 . Essa è cioè parte         tenuti rappresenta l’insieme di quei meccanismi di
integrante del pacchetto offerto dai social media9 .        governance che strutturano la partecipazione a una
    D’altro canto, è proprio sulla moderazione priva-       comunità online, al fine di favorire la cooperazione
ta operata dagli intermediari digitali che è andato         tra gli utenti e prevenire la commissione di abusi. In
crescendo il focus delle scelte legislative e politiche     senso lato, essa comprende due diversi aspetti. Il pri-
degli ultimi anni. Soprattutto a partire dalla seconda      mo si riferisce alla rimozione dei contenuti contrari
metà degli anni 2010, si è invero assistito a un sem-       alle condizioni d’uso del servizio, nonché all’imposi-
pre maggiore ricorso a tecniche di regolazione della        zione di sanzioni (ad esempio, la sospensione o can-
libertà di espressione “di nuova scuola” (new-school        cellazione del profilo) a carico di chi li abbia postati:
speech regulation 10 ). L’elemento caratteristico di        in tal senso, si può parlare di moderazione “in senso
queste nuove forme di regolazione è la scelta di in-        stretto” o di hard moderation 16 .
tervenire non tanto attraverso l’imposizione di restri-         Il secondo aspetto, invece, si riferisce all’organiz-
zioni e sanzioni che investano la libertà di espressio-     zazione, distribuzione e disseminazione dei contenu-
ne dei singoli individui quanto, piuttosto, attraverso      ti stessi, attraverso una loro gerarchizzazione atta
la diretta regolazione delle infrastrutture digitali,       a migliorare l’esperienza degli utenti. A questi so-
attraverso l’elaborazione cioè di forme di responsa-        no offerti, infatti, i contenuti che più possano loro
bilità sussidiaria a carico dell’intermediario per la       interessare: si parla, con riferimento a tale attivi-
presenza e diffusione di contenuti illeciti generati da     tà, di “cura dei contenuti” (content curation 17 o soft
terzi11 . L’Unione europea, tra gli altri, sembra avere     moderation 18 ). La cura dei contenuti, che si basa
intrapreso tale strada negli ultimi anni12 .                generalmente sull’uso di sistemi automatizzati, quali
    La diffusione di tali nuovi strategie di governance,    i sistemi di raccomandazione, mirano a massimizza-
unita a un’accresciuta sensibilità del pubblico, hanno      re l’engagement degli utenti19 e, di conseguenza, i
spinto gli intermediari digitali a farsi maggiormente       profitti del prestatore di servizi: la letteratura ha
carico del loro ruolo di moderatori. Per far fronte,        rilevato come ciò possa andare a discapito di impor-
tuttavia, alla crescita esponenziale del traffico quo-      tanti valori democratici, quali la protezione del plu-
tidiano di dati e informazioni in rete, l’utilizzo di       ralismo mediatico e di pensiero, alimentando da un
sistemi di intelligenza artificiale (IA) ha acquisito un    lato la creazione di camere dell’eco e la polarizzazio-
maggior rilievo anche in questo settore13 . Il ricorso a    ne del dibattito democratico e impattando dall’altro
strumenti automatici di decisione per la gestione dei       lato la capacità di diffusione dei contenuti prodotti
contenuti in rete solleva peraltro una serie di per-        da gruppi minoritari20 . Nonostante tale significativo
plessità con riferimento alla protezione e garanzia di      impatto della cura dei contenuti sull’ecosistema in-
diritti umani e valori costituzionali, ivi inclusi la li-   formazionale digitale, il focus del presente contributo
bertà di espressione e informazione e il principio di       sarà posto in modo particolare sulla moderazione dei
non discriminazione. Ciò, soprattutto, appare evi-          contenuti “in senso stretto”.
dente con riferimento alla moderazione dei discorsi             Da un punto di vista pratico, le tecniche di mode-
d’odio (hate speech)14 .                                    razione possono adottare strategie differenti21 . Una
    Il presente contributo fornisce uno sguardo sul         prima distinzione può essere fatta, sulla base del
crescente ruolo dei sistemi di IA e machine-learning        criterio temporale, tra moderazione ex ante e mo-
nell’ambito della rilevazione dei contenuti d’odio (pa-     derazione ex post, a seconda che il controllo venga

                                                     Pietro Dunn
esercitato prima o dopo la pubblicazione del con-            disponibile derivante dalla necessità di porre in atto
tenuto. A sua volta, la moderazione ex post può              le adeguate misure di contenimento del contagio30 .
essere proattiva, laddove l’intermediario si occupi
attivamente di individuare i contenuti da rimuovere,
o reattiva, quando invece si limiti a ricevere e valu-
tare segnalazioni altrui (ad esempio, da parte di altri
utenti del servizio).
    Sotto un diverso profilo, la moderazione può es-
sere operata da esseri umani (moderazione umana o
manuale), da sistemi di IA (moderazione automatica
o algoritmica) oppure attraverso una combinazione
dei due (moderazione ibrida). In quest’ultimo caso,
la funzione dei sistemi di IA è principalmente quella
di operare una scrematura preventiva dei contenuti
pubblicati dagli utenti e di rimettere al moderato-
re umano soltanto i casi più ambigui, istituendo tra
l’altro un ordine di priorità rispetto all’ordine di revi-
sione22 . I sistemi ibridi hanno acquisito negli ultimi
anni un rilievo sempre maggiore, soprattutto per le
possibilità che gli strumenti di IA offrono agli inter-      Figura 1: Totale dei contenuti sanzionati da Instagram
mediari di effettuare controlli su larghissima scala.        e Facebook come contenuti d’odio (in milioni)
Al tempo stesso, il ricorso all’algoritmo consente di
ridurre l’esposizione dei moderatori umani a con-
tenuti potenzialmente dannosi per il loro benessere
psicofisico23 .
    La ricerca relativa allo sviluppo, perfezionamen-
to e aggiornamento dei sistemi automatizzati di mo-
derazione si è dimostrata particolarmente feconda.
Attualmente, gli intermediari digitali godono di una
vasta gamma di strumenti algoritmici a loro dispo-
sizione, che possono essere variamente combinati a
seconda della tipologia di information bad che si vo-
glia filtrare e sulla base del formato (testuale, visuale,
audiovisuale etc.) che si voglia analizzare24 . Parti-
colarmente diffusi e utilizzati sono, attualmente, i
sistemi di machine-learning basati su reti neurali25 :
con riferimento a tali tecnologie, un terreno di ri-
cerca particolarmente fertile risulta essere quello del
natural language processing (NLP), ovverosia quella
branca dell’informatica che si occupa di sviluppare
le capacità delle macchine di analizzare contenuti te-       Figura 2: Percentuale di contenuti d’odio rilevati tramite
stuali, con il fine specifico di trarre conclusioni in       sistemi automatizzati sul totale dei contenuti d’odio
merito al significato del testo stesso26 .
    L’utilizzo di sistemi automatizzati di moderazio-            I dati pubblicati da Facebook e Instagram nei lo-
ne è andato aumentando drasticamente negli ultimi            ro report periodici sull’applicazione degli standard
anni e ha fatto uno straordinario balzo avanti a se-         della comunità31 confermano tali trend. Ciò emerge
guito dello scoppio della pandemia di COVID-19. Se           con particolare vigore con riferimento alla modera-
infatti, da un lato, piattaforme e intermediari digita-      zione dei discorsi d’odio, sempre più automatizzata.
li sono entrati in uno “stato di emergenza” 27 durante       La Figura 1 mostra, in particolare, il numero di con-
la crisi sanitaria, a causa soprattutto dell’aumento         tenuti sanzionati, in quanto riconosciuti quali fatti-
preoccupante nella diffusione di hate speech 28 e fa-        specie di hate speech dalle piattaforme, nel periodo
ke news29 , dall’altro lato, le piattaforme hanno nei        intercorrente tra l’ultimo trimestre del 2017 e il quar-
primi mesi dovuto sviluppare adeguati sistemi di IA          to trimestre del 2021, mentre la Figura 2 mostra, in
per far fronte alla riduzione di manodopera umana            percentuale, quanti di quei contenuti sono stati ri-

                Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech
levati attraverso il ricorso a sistemi di intelligenza      meno elevato margine di errore. Gli errori, in par-
artificiale32 . In tal senso, il numero di contenuti san-   ticolare, possono tradursi in falsi negativi o in falsi
zionati da Facebook è aumentato vertiginosamente            positivi: se i primi minano l’efficacia di un sistema
negli anni: un incremento particolarmente evidente          automatizzato di moderazione, i secondi possono
si è avuto a seguito dello scoppio della pandemia,          invece essere dannosi per l’esercizio della libertà di
con un salto da 9,5 milioni di contenuti sanzionati         espressione online degli utenti. Peraltro, le due tipo-
nel primo trimestre del 2020 a 22,5 milioni nel tri-        logie di errore sono in generale inversamente propor-
mestre successivo. In realtà, gli ultimi due trimestri      zionali39 : laddove, cioè, si implementi un sistema più
del 2021 segnalano un’inversione di tendenza in tal         “permissivo”, vi sarà un rischio minore di falsi positivi
senso, con una drastica riduzione dei numeri che, tut-      a fronte di un maggior numero di contenuti illeciti, o
tavia, continuano tutt’ora a essere notevolmente più        contrari alle condizioni di utilizzo, rimasti impuniti;
elevati rispetto all’epoca pre-pandemica33 .                mentre un sistema più “severo” sarà, all’opposto, più
    Nel frattempo, un costante aumento si è avuto           difficilmente eludibile ma più probabilmente esposto
nell’utilizzo di sistemi di IA per la rilevazione di con-   al rischio di falsi positivi. In tal senso, il riferito
tenuti d’odio: infatti, se nell’ultimo trimestre del        incremento di contenuti sanzionati in quanto ricon-
2017 solo il 23,6% dei post non conformi al divie-          dotti alla sfera dell’hate speech da parte di sistemi
to di hate speech era rilevato proattivamente dagli         di IA ha comportato (e comporta) un verosimile e
algoritmi di Facebook, il dato è andato aumentan-           proporzionale incremento nel numero di falsi positivi.
do nel corso del tempo. Attualmente, i contenuti                 Se ciò è vero, l’implementazione di sistemi auto-
sanzionati dal social network in quanto ritenuti isti-      matizzati di moderazione si traduce in sostanza in un
ganti all’odio sono rilevati tramite sistemi automa-        bilanciamento tra due, talora contrastanti, esigenze:
tizzati per il 96-97% circa. L’attuale CTO di Meta,         da un lato, la necessità di ridurre la diffusione di “ma-
Mike Schroepfer, ha celebrato questi risultati, sotto-      li informazionali”; dall’altro lato, l’esigenza di tutela-
lineando come l’utilizzo dei sistemi automatizzati di       re la libertà di espressione e il pluralismo di pensiero.
moderazione contribuisca a garantire un ecosistema          Bilanciamento, peraltro, operato sempre più diretta-
digitale sicuro34 . Del resto, secondo i dati pubblica-     mente dalle piattaforme e dagli intermediari digitali.
ti dalla stessa azienda, si è in effetti assistito a una    Se, dunque, la scelta di utilizzare tali sistemi richie-
diminuzione dallo 0,10-0,11% allo 0,03%35 circa nel         de l’applicazione di un principio di proporzionalità
grado di “diffusione” di contenuti d’odio (ovverosia la     che tenga conto di tali esigenze, il problema di fon-
percentuale stimata di visualizzazione di hate speech       do consiste nell’individuazione della soglia entro la
su tutti i contenuti visualizzati dagli utenti36 ).         quale il margine di errore (nel senso di falso positi-
    Tuttavia, se è vero che l’avanzamento tecnologico       vo) sia da ritenersi “accettabile” a fronte del vantag-
nel settore rappresenta un fattore importante ed es-        gio sociale determinato dalla riduzione del grado di
senziale nella prospettiva di costruire un ciberspazio      inquinamento dell’ecosistema informazionale digita-
libero da intolleranze e violenze, è pur vero che le in-    le40 . L’individuazione di tale soglia, tuttavia, può
formazioni rese dal gruppo di Facebook rivelano un          variare a seconda della tipologia di information bad
solo lato della medaglia. Come sottolineato in Wired,       che si voglia combattere. A tal proposito, con riferi-
non è chiaro fino a che punto gli algoritmi di rileva-      mento al fenomeno dei discorsi d’odio, alcuni fattori
zione dei discorsi d’odio siano andati effettivamente       richiedono di essere tenuti in considerazione.
perfezionandosi37 . Si tenga conto, in particolare, che          Un primo elemento di complicazione è determina-
i dati riportati sono meramente quantitativi: poco ci       to dalla nozione stessa di hate speech, tutt’altro che
dicono sulla qualità delle scelte prese dai sistemi di      condivisa e ben definita41 . A seconda della giurisdi-
IA o sulla percentuale di errori di rilevazione38 . Tale    zione di riferimento, le condotte ascrivibili ai discorsi
ambiguità e opacità rispetto alla qualità e correttez-      d’odio penalmente rilevanti possono variare notevol-
za delle decisioni prese dall’algoritmo risultano essere    mente. Allo stesso modo, le piattaforme e gli inter-
particolarmente preoccupanti laddove si consideri il        mediari digitali tendono a definire autonomamente il
rischio di output discriminatori.                           concetto di hate speech sanzionabile ai sensi dei loro
                                                            termini e condizioni d’utilizzo: molto sovente, per di
3. Margini di errore e bias                                 più, le nozioni adottate da tali attori risultano essere
   discriminatori                                           notevolmente più ampie e aperte rispetto alle fat-
                                                            tispecie considerate dai sistemi giuridici statali42 . Il
Invero, i sistemi automatizzati di classificazione si       campo di applicazione di tali standard privati rischia
basano su fondamenti statistico-probabilistici che,         in tal senso di risultare estremamente lato e, talora,
in quanto tali, rendono sempre inevitabile un più o         pericolosamente indefinito.

                                                     Pietro Dunn
Un secondo rilevante aspetto è dettato dal fat-         lizzati sviluppano la tendenza a utilizzare termini ed
to che, come rilevato dalla giurisprudenza e dal di-        espressioni in sé stessi insultanti e discriminatori (si
battito internazionale, la possibilità di ascrivere una     pensi alla n-word ) con la doppia finalità, tuttavia, di
determinata forma espressiva alla classe dei discorsi       riappropriarsi di tali termini svuotandoli della loro
d’odio è strettamente dipendente dalla ricostruzione        carica negativa (è questo il caso della parola queer,
del contesto all’interno della quale essa si inserisce.     inizialmente utilizzata quale insulto per le persone
L’identità dell’autore e dei componenti dell’audien-        LGBTQIA+ e facente oggi parte della sigla stessa)
ce, per esempio, così come elementi contestuali quale       e di aiutare i membri della loro stessa comunità a
il tempo e il luogo in cui un determinato contenu-          “farsi la pelle dura” 51 . L’incapacità della macchina
to sia stato pubblicato o condiviso, sono fattori po-       di cogliere tali sfumature di intenti e di significato
tenzialmente dirimenti per comprendere lo scopo e           rende così particolarmente elevato il rischio di falsi
i possibili effetti che una certa modalità espressiva       positivi, tant’è che, tra gli attivisti afro-americani,
può avere: tali fattori richiedono sempre un’attenta        è rapidamente invalso il ricorso al neologismo “zuc-
ricostruzione al fine di evitare eccessive e spropor-       ked” a indicare le frequenti sanzioni loro imposte dal-
zionate interferenze a danno della libertà di espres-       le piattaforme di Meta ogniqualvolta essi pubblichino
sione individuale43 . Eppure, ciò rappresenta una sfi-      contenuti che discutano il tema del razzismo52 .
da rilevante per il moderatore algoritmico, in quanto           L’applicazione discriminatoria delle regole di una
le macchine, nonostante il loro straordinario pote-         comunità online da parte dei sistemi di moderazio-
re computazionale44 e la loro efficienza a livello di       ne algoritmica è peraltro dettata altresì dagli stessi
comprensione simbolico-sintattica, pongono ancora           utenti. Nel 2016-2017, il genocidio e le persecuzio-
oggi dei problemi per quanto concerne la capacità           ni a danno della comunità musulmana Rohingya in
di comprensione semantica45 . È infatti difficile, per      Myanmar sono stati incentivati, da un lato, dal fal-
un sistema automatizzato, rilevare l’ironia o la satira     limento da parte di Facebook nel ridurre effettiva-
nascoste dietro un particolare contenuto. Tra l’altro,      mente la diffusione di hate speech avente ad oggetto
tale compito è complicato notevolmente dalle moda-          la minoranza, e, dall’altro lato, dalla ripetuta cen-
lità espressive caratteristiche della comunicazione in      sura di contenuti di denuncia pubblicati da attivisti
rete, le quali mescolano sovente elementi testuali, vi-     Rohingya: in effetti, come sottolineato da Suzor, in
sivi e audiovisivi: si pensi, per esempio, ai cosiddetti    molti casi l’algoritmo della piattaforma teneva con-
“meme”, contenuti multimodali che si caratterizza-          to delle ripetute e numerose segnalazioni effettuate
no per un’alta viralità e per il fatto di richiedere, ai    da utenti birmani, facenti parte della maggioranza,
fini della comprensione, una vera e propria “meme           rispetto a tali contenuti53 .
literacy” dell’audience46 .                                     Tali effetti si riscontrano, del resto, anche a livel-
    Le difficoltà prodotte da tali sfide sono esse stesse   lo di content curation: la letteratura ha sottolinea-
alla base di quello che è il terzo fattore di complica-     to come l’architettura algoritmica delle piattaforme,
zione. Come evidenziato da ormai consolidata let-           incentrata a massimizzare l’engagement degli utenti
teratura, il margine di errore connesso all’utilizzo di     della rete, tenda a premiare in termini di visibilità i
sistemi automatizzati di rilevazione delle fattispecie      contenuti pubblicati dalle categorie demografiche di
di hate speech tende a impattare significativamente         maggioranza54 , relegando a spazi di nicchia o impo-
proprio sulle comunità tradizionalmente marginaliz-         nendo un vero e proprio shadowban 55 a carico dei
zate e discriminate47 . Sempre più studi sono attual-       gruppi marginalizzati.
mente dediti alla ricerca di tecniche di debiasing dei
moderatori automatici48 , ma il problema è ancora           4. La moderazione dell’hate speech in
lungi dall’essere risolto.                                     un’ottica di uguaglianza sostanziale
    Così, per esempio, si è da più parti rilevato co-
me i contenuti pubblicati da membri della comuni-           A fronte di tali rilievi, occorre chiedersi, anche in
tà afro-americana49 o della comunità LGBTQIA+50             un’ottica normativa e di policy-making, se il margi-
siano maggiormente soggetti a subire sanzioni ingiu-        ne di errore caratterizzante gli strumenti di mode-
stificate per violazione del divieto di hate speech o       razione automatizzata dei discorsi d’odio sia effetti-
“toxic” speech. Le cause di tali risultati discrimina-      vamente accettabile o meno a fronte della necessità
tori sono plurime. Accade, per esempio, che i dataset       di garantire agli utenti un ciberspazio maggiormen-
utilizzati per allenare l’algoritmo non siano qualita-      te tollerante e sicuro. In tal senso, sembra essere
tivamente ottimali, soprattutto perché non rappre-          ineludibile un riferimento all’ormai risalente dibatti-
sentativi del gergo e degli usi comunicativi tipici dei     to concernente la domanda se sia o meno opportuno
gruppi minoritari. In molti casi, i gruppi margina-         combattere il fenomeno dell’hate speech attraverso

                Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech
l’imposizione di restrizioni alla libertà di espressio-      aumento del battito cardiaco; difficoltà respiratorie;
ne, pur nella consapevolezza che tale dibattito non          incubi; disturbi da stress post-traumatico (PTSD);
si è sviluppato negli anni con riferimento alla relazio-     ipertensione; psicosi; suicidio62 . In Beizaras e Levic-
ne intercorrente tra individuo e intermediario digita-       kas c. Lituania 63 , la Corte EDU ha recentemente
le (rapporto tra soggetti privati) ma, piuttosto, con        confermato che l’hate speech, relativo, nel caso di
riferimento a quella intercorrente tra persona fisica        specie, all’orientamento sessuale dei ricorrenti, rap-
e istituzioni dello Stato (rapporto tra un soggetto          presenta in sé e per sé un attacco all’integrità fisica
privato e un soggetto pubblico).                             e mentale di coloro che ne sono i destinatari. Le
    Come è noto, il dibattito sulla punibilità dei di-       vittime, inoltre, vengono attraverso l’hate speech
scorsi d’odio ha condotto, in prospettiva comparata,         ristrette nelle loro libertà, in quanto l’esigenza di
a soluzioni ben diverse tra loro56 . Così, se negli USA      sottrarsi a messaggi d’odio le porta a modificare le
vige il primato del Primo Emendamento e della tute-          proprie abitudini di vita e, in molti casi, a rinunciare
la del “libero mercato delle idee” 57 , con la conseguen-    a esprimere le loro personali opinioni e idee64 . In
za che una normativa volta a limitare la diffusione di       ultima istanza, come magistralmente posto in luce
hate speech debba essere sottoposta a un severissimo         da Waldron65 , al cuore delle normative di contrasto
scrutinio (strict scrutiny) di legittimità costituzio-       al fenomeno in oggetto vi è la necessità di tutelare
nale, quasi sempre fatale58 , il vecchio continente ha       l’eguale dignità delle comunità vittime e dei singoli
dimostrato una ben maggiore apertura a simili restri-        individui che ne fanno parte66 .
zioni. Invero, a differenza del Primo Emendamento,               In altre parole, la regolazione delle espressioni
sia l’art. 10 della Convenzione europea per la sal-          d’odio è mossa sia dall’esigenza di contenere il rischio
vaguardia dei diritti dell’uomo e delle libertà fonda-       di ordine pubblico legato a un incremento dell’atti-
mentali (CEDU) sia l’art. 11 della Carta dei diritti         vità criminosa di matrice discriminatoria sia, soprat-
fondamentali dell’Unione europea (Carta di Nizza)            tutto, da quella di garantire alle categorie “protette”
ammettono l’imposizione di restrizioni e limitazioni         la possibilità di esercitare liberamente i propri diritti
alla libertà d’espressione se previste dalla legge e se      e libertà in una condizione di uguaglianza rispetto
necessarie in una società democratica per il persegui-       al resto della popolazione. In questo senso, l’inter-
mento di un fine legittimo, quale è, tra gli altri, la       vento normativo volto a ridurre la diffusione di hate
protezione della reputazione o dei diritti altrui59 .        speech rappresenta uno strumento volto ad affermare
    La scelta di ostacolare, anche per mezzo del dirit-      e concretizzare l’uguaglianza sostanziale, e non solo
to, la diffusione dei discorsi d’odio può essere ascrit-     formale, dei gruppi demografici marginalizzati. Lo
ta a una pluralità di ragioni tra loro complementari.        scopo dell’imposizione di limitazioni alla libertà di
In primo luogo, la proibizione e punibilità dell’hate        espressione per ridurre la diffusione di odio ha quindi
speech rappresenta uno strumento per proteggere e            come fine ultimo l’empowerment di quei soggetti che
tutelare gli individui appartenenti ad una classe di-        l’hate speech mira a colpire. Del resto, come sottoli-
scriminata dal perpetuarsi e aggravarsi degli episo-         neato da Fredman, il perseguimento dell’uguaglianza
di di discriminazione e violenza nei loro confronti.         sostanziale richiede esso stesso un approccio multi-
Se, come sottolineato dalla Commissione per l’eli-           dimensionale al fenomeno della discriminazione che
minazione della discriminazione razziale (CERD), il          implichi anche la garanzia che ai gruppi minoritari o
discorso razzista e il discorso d’odio possono porre         comunque discriminati sia concesso partecipare atti-
seri pericoli e rischi a medio-lungo termine60 , la lo-      vamente alla vita comunitaria, pubblica e politica67 .
ro limitazione rappresenta uno strumento essenziale              Se, dunque, la ratio ultima del contrasto ai discor-
per la riduzione di reati e illeciti di matrice discri-      si d’odio è legata al perseguimento dell’uguaglianza
minatoria: in tal senso, l’hate speech costituisce una       sostanziale, anche nella sua dimensione partecipati-
condotta pericolosa in quanto potenzialmente capa-           va, appare evidente che, nel caso della moderazione
ce di produrre conseguenze dannose per una società           automatizzata di hate speech, la soglia di accettabi-
democratica61 .                                              lità dell’errore, soprattutto se dettato da bias di ca-
    In secondo luogo, è stato da più parti rilevato          rattere discriminatorio, debba essere particolarmen-
come l’atto del discorso d’odio sia in sé dannoso per        te elevata. Un’applicazione inconsistente ed iniqua
l’integrità psicofisica dei suoi destinatari, nonché per     tradisce lo stesso spirito originario della moderazio-
l’esercizio dei loro diritti e delle loro libertà costitu-   ne dell’hate speech, svuotando tale attività del suo
zionali. Secondo Matsuda, esponente della critical           significato egualitario e rendendola, anzi, contropro-
race theory statunitense, le vittime di hate speech          ducente rispetto agli interessi della collettività. Tra
e hate propaganda soffrono in percentuali più alte           l’altro, il silenziamento di quelle categorie di persone
di sintomi e disturbi quali: sensazioni di panico;           che costituiscono le vittime tipiche dei discorsi d’odio

                                                      Pietro Dunn
rischia di depotenziare fortemente il ruolo, ritenuto       terlocutore umano al momento della presentazione
da più parti fondamentale, della contronarrazione68 .       del reclamo e che la nuova decisione non possa essere
    Per evitare tale cortocircuito, potenzialmente ag-      presa solamente attraverso sistemi automatizzati: a
gravato dal ricorso a tecniche di new-school speech         tal fine, è fatto inoltre obbligo ai fornitori di servizi di
regulation, appare pertanto auspicabile un ripensa-         dotarsi di personale qualificato. Dal testo approvato
mento, da parte delle istituzioni europee, delle stra-      in prima lettura dal Parlamento europeo il 20 gen-
tegie politiche e legislative di settore. Ciò non tan-      naio 202273 traspare tra l’altro una ancor maggiore
to nell’ottica di una demonizzazione del moderato-          consapevolezza del potenziale impatto del DSA sui
re algoritmico, il quale costituisce invece uno stru-       diritti degli utenti: gli emendamenti proposti, per
mento essenziale e utilissimo per il contrasto all’hate     esempio, includono numerosi riferimenti al principio
speech 69 , quanto piuttosto nella prospettiva, da un       di non discriminazione.
lato, di incentivare i programmatori di tali sistemi a          Peraltro, si è da più parti rilevato come le solu-
tenere in adeguata considerazione le esigenze legate        zioni adottate rappresentino in ultima istanza poco
al rispetto dei principi dell’uguaglianza sostanziale70     più che petizioni di principio, in quanto sovente non
e, dall’altro lato, di fornire maggiori tutele indivi-      corredate da un apparato applicativo e procedura-
duali, sostanziali e soprattutto procedurali71 , a que-     le ben definito e sufficientemente sviluppato. Non è
gli utenti della rete che siano maggiormente esposti        del tutto chiaro, per esempio, se l’art. 12 del DSA
ai rischi della discriminazione algoritmica.                implichi la possibilità di opporre qualsiasi diritto ri-
    In realtà, la Commissione europea ha dato segno         compreso nella Carta di Nizza oppure soltanto quel-
negli ultimi anni di una maggiore consapevolezza            la ristretta cerchia di diritti per i quali la Corte di
dei rischi per la libertà di espressione degli utenti       Giustizia dell’UE abbia dichiarato la sussistenza di
che sono ineludibilmente legati a una più massiccia         un’efficacia orizzontale74 . È stato, in generale, posto
e generalizzata moderazione dei contenuti da par-           in luce come il sistema introdotto dal DSA incenti-
te degli intermediari digitali. Il Regolamento (UE)         verebbe un ulteriore incremento nell’utilizzo su vasta
2021/78472 prevede per esempio all’art. 5 che un for-       scala di sistemi di moderazione automatizzati, sen-
nitore di servizi, il quale sia stato riconosciuto come     za tuttavia la previsione di adeguati rimedi a tutela
esposto a contenuti terroristici, debba predisporre         dell’individuo75 .
misure specifiche volte a contrastarne la diffusione:           Inoltre, se il DSA, pur nell’apprezzabilissima otti-
nell’applicare tali misure, tuttavia, il fornitore dovrà    ca di armonizzazione e riduzione della frammentarie-
tenere pienamente conto dei diritti e degli interessi       tà del quadro normativo sugli intermediari digitali,
legittimi degli utilizzatori (ivi inclusa la libertà di     mira a introdurre una disciplina quadro generale e
espressione e di informazione) e, nel contempo, agire       orizzontale, tale approccio, se non accompagnato da
in maniera diligente e, soprattutto, non discrimina-        interventi normativi più specifici, ha tuttavia l’inevi-
toria. È inoltre disposta, all’art. 10, la predisposi-      tabile effetto di appiattire le peculiarità tipiche con-
zione di meccanismi di reclamo a tutela degli utenti        nesse alla moderazione di ciascun information bad.
i cui contenuti siano stati rimossi, con l’obbligo per      Così, per quanto concerne la rimozione dei contenuti
il fornitore di rendere decisioni motivate e fatto sal-     d’odio, non sembra essere presente, nell’attuale te-
vo l’eventuale ricorso all’autorità amministrativa o        sto della proposta di regolamento, la consapevolezza
giudiziaria dello Stato.                                    dei rischi tipici, ai danni del principio di uguaglian-
    A sua volta, la proposta di regolamento per il Di-      za sostanziale, che sono inevitabilmente connessi al-
gital Services Act (DSA) contiene alcune norme di           la rilevazione automatizzata dell’hate speech. Se, da
rilievo in tal senso, richiedendo all’art. 12 che gli in-   un lato, la proposta di regolamento si preoccupa di
termediari applichino le condizioni generali dei loro       tutelare i gruppi marginalizzati da contenuti danno-
servizi in modo «equo, trasparente, coerente, diligen-      si quali l’“illecito incitamento all’odio” e i “contenu-
te, tempestivo, non arbitrario, non discriminatorio e       ti discriminatori illegali” 76 , non sufficiente attenzio-
proporzionato», nonché rispettoso dei diritti e de-         ne è prestata al collaterale, ed altrettanto dannoso,
gli interessi legittimi delle parti coinvolte (compresi     rischio di un’iniqua rimozione degli stessi.
i diritti fondamentali previsti dalla Carta di Nizza),          In una prospettiva normativa, risulta pertanto es-
nonché imponendo, alle piattaforme online, di pre-          senziale tenere in maggiore considerazione le speci-
disporre sistemi interni di gestione dei reclami da         ficità e le finalità tipiche del contrasto ai discorsi
attuarsi «in modo tempestivo, non discriminatorio,          d’odio, ovverosia l’uguaglianza sostanziale dei gruppi
diligente e non arbitrario» (art. 17). In quest’ulti-       tradizionalmente marginalizzati e discriminati. Uno
mo caso, peraltro, si prevede espressamente che sia         strumento promettente sembra essere stato introdot-
data la possibilità per gli utenti di contattare un in-     to, per esempio, dall’emendamento del Parlamento

                Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech
europeo volto a introdurre un paragrafo 1-bis all’art.        fondo che ne giustifica il contrasto: la promozione
19. Se nel testo originario della Commissione la fi-          del principio di uguaglianza sostanziale.
gura del “segnalatore attendibile” rilevava soltanto ai           Sotto il profilo di policy-making, risulta pertan-
fini della premoderazione dei contenuti77 , il nuovo te-      to auspicabile da parte del legislatore, nazionale ma
sto richiederebbe alle piattaforme online di adottare         soprattutto eurounionale, una maggiore attenzione
le misure, tecniche e organizzative, atte a permette-         ai rischi “collaterali” connessi a un quadro norma-
re ai segnalatori attendibili di emettere notifiche di        tivo che incentivi la moderazione (algoritmica) dei
rettifica in caso di errore di moderazione: tali noti-        discorsi d’odio senza garantire al contempo un ap-
fiche, volte al ripristino di informazioni e contenuti,       parato adeguato di tutela delle libertà individuali e
dovranno essere trattate e decise in via prioritaria e        del diritto di non discriminazione degli utenti. Tale
senza indugio. In altre parole, si darebbe la possibi-        esigenza appare ancor più pressante nell’attuale con-
lità a segnalatori attendibili, indipendenti ed esperti       testo post-pandemico e, soprattutto, con riferimento
in materie quali, per l’appunto, il contrasto al fe-          alla discussione in corso relativa all’emanazione del
nomeno dei discorsi d’odio, di corroborare le richie-         Digital Services Act.
ste di correzione delle decisioni prese dalla piattafor-
ma. Peraltro, allo stato attuale non risulta chiaro
se, quando e con quali modalità sarà possibile per gli        Note
utenti richiedere direttamente un simile intervento               1 Reno v. American Civil Liberties Union, 521 US 844
del segnalatore attendibile.                                  (1997).
                                                                  2 Abrams v. United States, 250 US 616 (1919). Sul punto,

                                                              si vedano tra gli altri L.C. Bollinger, The Tolerant Society:
5. Conclusioni                                                Freedom of Speech and Extremist Speech in America, Oxford
                                                              University Press, 1988, 304 p., p. 59-61; M. Rosenfeld,
Il costante incremento del flusso informativo in rete         Hate Speech in Constitutional Jurisprudence: A Comparative
                                                              Analysis, in “Cardozo Law Review”, vol. 24, 2003, n. 4, p.
ha reso sempre più essenziale il ruolo degli interme-         1523-1567, spec. p. 1533-1535.
diari digitali nella moderazione dei contenuti postati            3 Cfr. D. Lupton, Digital risk society, in A. Burgess, A.

dagli utenti, al fine di ridurre la commissione di con-       Alemanno, J.O. Zinn et al. (eds.), “Routledge Handbook of
dotte illecite e la diffusione di materiali dannosi o ille-   Risk Studies”, Routledge, 2016, p. 301-309.
                                                                  4 Si vedano, ex multis, Corte EDU, Stoll c. Svizzera, 10
citi in Internet. La necessità di tale attività si evince
                                                              dicembre 2007, ric. 69698/01; K.U. c. Finlandia, 2 dicembre
del resto dal crescente numero di iniziative politiche        2008, ric. no. 2872/02; Pravoye Delo e Shtekel c. Ucraina, 5
e legislative da parte delle istituzioni pubbliche, na-       maggio 2011, ric. 33014/05. Cfr. O. Pollicino, Judicial pro-
zionali e sovranazionali, volte a delineare sistemi di        tection of fundamental rights on the Internet: A road towards
                                                              digital constitutionalism?, Hart, 2021, XXIV+235 p.
new-school speech regulation. A fronte, tuttavia, del-            5 G. Sartor, A. Loreggia, The impact of algorithms for
la mole straordinaria di contenuti postati quotidia-          online content filtering or moderation. “Upload filters”, stu-
namente online, il ricorso da parte degli intermediari        dio richiesto dal Comitato JURI del Parlamento europeo, n.
digitali a forme di moderazione automatizzata si è            PE 657.101), 2020.
                                                                  6 J. Grimmelmann, The Virtues of Moderation, in “Yale
fatto negli anni massiccio.                                   Journal of Law and Technology”, 2015, n. 17, p. 42-109.
    Sebbene tali sistemi siano sempre più avanzati e              7 T. Gillespie, Custodians of the Internet: platforms,

raffinati, il loro utilizzo non è esente da criticità: un     content moderation, and the hidden decisions that shape social
certo margine di errore è, di fatto, ineludibile. Ciò         media, Yale University Press, 2018, 288 p., a p. 5. Si veda
                                                              anche, sul punto, N. Helberger, J. Pierson, T. Poell,
risulta essere particolarmente evidente in quei casi          Governing online platforms: From contested to cooperative
ove la rilevazione del “male informazionale” si fondi         responsibility, in “The Information Society”, vol. 23, 2018, n.
sulla comprensione semantica del contesto e dell’in-          1, p. 1-14.
                                                                  8 Così T. Gillespie, op. cit., p. 13: «And moderation is,
tenzione dell’autore del contenuto, quale è il caso dei
                                                              in many ways, the commodity that platforms offer. Though
discorsi d’odio. In questi casi, come evidenziato da          part of the web, social media platforms promise to rise above
ampia letteratura, risulta particolarmente elevato il         it, by offering a better experience of all this information and
rischio di falsi positivi, soprattutto a carico delle mi-     sociality: curated, organized, archived, and moderated».
                                                                  9 R. Wilson, M. Land, Hate Speech on Social Me-
noranze e dei gruppi marginalizzati o discriminati.
                                                              dia: Content Moderation in Context, in “Connecticut Law
Il concreto e significativo rischio che la moderazione        Review”, vol. 52, 2021, n. 3, p. 1029-1076, spec. p. 1054.
automatizzata di hate speech si traduca in un silen-             10 J.M. Balkin, Old-School/New-School Speech Regulation,

ziamento delle categorie discriminate, piuttosto che          in “Harvard Law Review”, vol. 127, 2013, n. 8, p. 2296-2342.
in una loro tutela, implica la necessaria pretesa di          Si veda, sulla regolazione degli intermediari digitali, G.
                                                              Frosio (ed.), The Oxford handbook of online intermediary
una più esigente soglia di accettabilità dell’errore.         liability, Oxford University Press, 2020, 782 p.
In caso contrario, la moderazione dei contenuti d’o-             11 Si vedano altresì J.M. Balkin, Free Speech in the Al-

dio si svuoterebbe di significato, tradendo la ratio di       gorithmic Society: Big Data, Private Governance, and New

                                                      Pietro Dunn
School Speech Regulation, in “U.C. Davis Law Review”, vol.          focus on editorial decision making on social media platforms
51, 2017, n. 3, p. 1149-1210; J.M. Balkin, Free Speech Is a         and in the news media, in “European Journal of Law and
Triangle, in “Columbia Law Review”, vol. 118, 2018, n. 7, p.        Technology”, vol. 11, 2020, n. 3, p. 1-28; S. Milano et
2011-2056.                                                          al., Recommender systems and their ethical challenges, in “AI
  12 In una prima fase, la Commissione europea faceva per lo        & Society”, vol. 35, 2020, n. 4, p. 957-967; N.P. Suzor,
più ricorso a strumenti di auto-regolazione dal basso. Tra que-     Lawless: The Secret Rules That Govern Our Digital Lives,
sti, il rimando è, soprattutto, al Codice di condotta dell’UE       Cambridge University Press, 2019.
per contrastare l’illecito incitamento all’odio (2016), nonché al     21 Si veda, in particolare, K. Klonick, The New Governors:
Codice di buone pratiche sulla disinformazione (2019). Pro-         The People, Rules, and Processes Governing Online Speech,
gressivamente, l’approccio della Commissione è tuttavia mu-         in “Harvard Law Review”, vol. 131, 2017, n. 6, p. 1598-1670.
tato nella direzione di una maggiore regolazione “dall’alto”,         22 G. De Gregorio, Democratising online content mode-
attraverso il ricorso sempre più diffuso a strumenti di hard
                                                                    ration: A constitutional framework , in “Computer Law &
law. Si vedano, in particolare: la Direttiva (UE) 2018/1808 del
                                                                    Security Review”, vol. 36, 2020, p. 1-17.
Parlamento europeo e del Consiglio, del 14 novembre 2018, re-
                                                                       23 Le condizioni lavorative dei moderatori umani, con par-
cante modifica della direttiva 2010/13/UE, relativa al coordi-
namento di determinate disposizioni legislative, regolamentari      ticolare riferimento ai danni psichici da essi sovente riportati,
e amministrative degli Stati membri concernenti la fornitura        sono state trattate in particolare in S.T. Roberts, Behind the
di servizi di media audiovisivi (direttiva sui servizi di media     screen: Content moderation in the shadows of social media,
audiovisivi), in considerazione dell’evoluzione delle realtà del    Yale University Press, 2019, 266 p. A p. 25, l’autrice sotto-
mercato (2018) OJ L61/69; la Direttiva (UE) 2019/790 del            linea come i lavoratori del settore siano generalmente «poor-
Parlamento europeo e del Consiglio, del 17 aprile 2019, sul         ly paid human beings who risk burnout, desensitization, and
diritto d’autore e sui diritti connessi nel mercato unico digi-     worse because of the nature of their work». Si veda altre-
tale e che modifica le direttive 96/9/CE e 2001/29/CE (2019)        sì Cambridge Consultants, Use of AI in Online Content
OJ L130/92; e il Regolamento (UE) 2021/784 del Parlamento           Moderation, Ofcom, 2019.
europeo e del Consiglio, del 29 aprile 2021, relativo al contra-     24 Si vedano, sul punto, Cambridge Consultants, op. cit.;

sto della diffusione di contenuti terroristici online (2021) OJ     R. Gorwa, R. Binns, C. Katzenbach, op. cit.; G. Sartor,
L172/79. Si veda, da ultimo, la proposta per il cosiddetto Di-      A. Loreggia, op. cit.
gital Services Act: Proposta di Regolamento del Parlamento            25 Cfr. J. Burrell, How the machine ‘thinks’: Understan-
europeo e del Consiglio relativo a un mercato unico dei servizi     ding opacity in machine learning algorithms, in “Big Data &
digitali (legge sui servizi digitali) e che modifica la direttiva   Society”, vol. 3, 2016, n. 1, p. 1-12; F. Pasquale, The
2000/31/CE, COM(2020) 825 final.                                    black box society: the secret algorithms that control money
  13 Si veda, tra gli altri, R. Gorwa, R. Binns, C. Katzen-
                                                                    and information, Harvard University Press, 2015, 311 p.
bach, Algorithmic content moderation: Technical and politi-            26 J. Eisenstein, Introduction to Natural Language Pro-
cal challenges in the automation of platform governance, in
                                                                    cessing, MIT Press, 2019, 536 p. A p. 1 si definisce il natu-
“Big Data & Society”, vol. 7, 2020, n. 1, p. 1-15.
  14 Tra le numerose definizioni che sono state offerte del ter-    ral language processing come «the set of methods for mak-
                                                                    ing human language accessible to computers». Si veda anche
mine hate speech, si veda in particolare European Commis-
                                                                    N. Duarte, E. Llansó, A. Loup, Mixed messages? The
sion against Racism and Intolerance (ECRI), General
                                                                    limits of automated social media content analysis, Center for
Policy Recommendation no. 15 on Combating Hate Speech,
                                                                    Democracy & Technology, 2017, p. 9. Per quanto concerne
21 March 2016, CRI(2016)15, p. 16: «Hate speech for the pur-
                                                                    l’applicabilità specifica dell’NLP per la moderazione dell’hate
pose of the Recommendation entails the use of one or more
                                                                    speech, si veda A. Schmidt, M. Wiegand, A Survey on Hate
particular forms of expression – namely, the advocacy, pro-
                                                                    Speech Detection using Natural Language Processing, in L.W.
motion or incitement of the denigration, hatred or vilification
                                                                    Ku, C.T. Li (eds.), “Proceedings of the Fifth International
of a person or group of persons, as well any harassment, in-
                                                                    Workshop on Natural Language Processing for Social Media”,
sult, negative stereotyping, stigmatization or threat of such
                                                                    ACL, 2017, p. 1-10. Peraltro, un campo di ricerca particolar-
person or persons and any justification of all these forms of
                                                                    mente fertile sembra essere, soprattutto ai fini della rilevazione
expression – that is based on a non-exhaustive list of personal
                                                                    di contenuti d’odio, quello della sentiment analysis (o opinion
characteristics or status that includes “race”, colour, language,
                                                                    mining). Sull’argomento, si vedano B. Liu, Sentiment Ana-
religion or belief, nationality or national or ethnic origin, as
                                                                    lysis: Mining Opinions, Sentiments, and Emotions, II ed.,
well as descent, age, disability, sex, gender, gender identity
                                                                    Cambridge University Press, 2020, XVIII+430 p.; F.A. Poz-
and sexual orientation».
  15 J. Grimmelmann, op. cit., p. 47.                               zi et al., Challenges of Sentiment Analysis in Social Networks:
  16 R. Gorwa, R. Binns, C. Katzenbach, op. cit., p. 3.
                                                                    An Overview, in Id., “Sentiment Analysis in Social Networks”,
  17 E. Llansó et al., Artificial intelligence, Content Mode-
                                                                    Morgan Kaufmann, 2017, p. 1-11.
                                                                      27 E.Douek, Governing online speech: from “posts-as-
ration, and Freedom of Expression, TWG, 26 February 2020,
32 p.                                                               trumps” to proportionality and probability, in “Columbia Law
  18 R. Gorwa, R. Binns, C. Katzenbach, op. cit., p. 3.             Review”, vol. 121, 2021, n. 3, p. 759-834.
  19 In questo senso, Wu parla di controllo “positivo” della li-      28 S. Agarwal, C.R. Chowdary, Combating hate speech

bertà di espressione. Si veda T. Wu, Will artificial intelligen-    using an adaptive ensemble learning model with a case study
ce eat the law? The rise of hybrid social-ordering systems, in      on COVID-19 , in “Expert Systems with Applications”, 2021,
“Columbia Law Review”, vol. 119, 2019, n. 7, p. 2001-2028, a        n. 185, p. 1-9; United Nations, Countering COVID-19 Hate
p. 2014.                                                            Speech, 2020.
  20 Si vedano, tra gli altri, E. Llansó et al., op. cit.; C.R.        29 G. De Gregorio, O. Pollicino, P. Dunn, Digi-

Sunstein, #Republic: Divided Democracy in the Age of So-            tisation and the central role of intermediaries in a post-
cial Media, Princeton University Press, 2017, XIV+316 p.; E.        pandemic world, in “MediaLaws”, 2021; F. Tagliabue, L.
Pariser, The filter bubble: what the Internet is hiding from        Galassi, P. Mariani, The “Pandemic” of Disinformation in
you, Penguin, 2011, 294 p.; N. Helberger et al., A freedom          COVID-19, in “SN Comprehensive Clinical Medicine”, 2020,
of expression perspective on AI in the media – with a special       n. 2, p. 1287-1289.

                  Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech
30 M. Lim, G. Alrasheed, Beyond a technical bug: Biased          Hockenmaier, J. Tsujii (eds.), “Proceedings of the 2018 Confe-
algorithms and moderation are censoring activists on social         rence on Empirical Methods in Natural Language Processing”,
media, in “The Conversation”, 2021.                                 ACL, 2018, p. 2799-2804; X. Zhou, M. Sap, S. Swayam-
   31 Facebook Transparency Center, Community Stan-                 dipta et al. (eds.), Challenges in Automated Debiasing for
dards Enforcement Report – Hate Speech, Meta, 2022.                 Toxic Language Detection, in P. Merlo, J. Tiedemann, R.
   32 I dati concernenti la moderazione dei discorsi d’odio su      Tsarfaty (eds.), “Proceedings of the Sixteenth Conference of
Instagram sono disponibili solo con riferimento al periodo          the European Chapter of the Association for Computational
successivo all’ultimo trimestre del 2019.                           Linguistics: Main Volume”, ACL, 2021, p. 3143-3155.
   33 Occorre sottolineare, peraltro, che nel momento in cui si        49 T. Davidson, D. Warmsley, M. Macy, I. Weber,

scrive non è possibile ancora prevedere quali saranno gli effet-    Automated Hate Speech Detection and the Problem of Offen-
ti, a livello di moderazione dei contenuti d’odio, dello scoppio    sive Language, in “Proceedings of the Eleventh International
del conflitto russo-ucraino nel febbraio 2022.                      AAAI Conference on Web and Social Media”, vol. 11, 2017, n.
   34 M. Schroepfer, Update on Our Progress on AI and               1, p. 512-515; T. Davidson, D. Bhattacharya, I. Weber,
Hate Speech Detection, Meta, 2021.                                  Racial Bias in Hate Speech and Abusive Language Detection
   35 Facebook Transparency Center, Community Stan-                 Datasets, in T.S. Roberts, J. Tetreault, V. Prabhakaran, Z.
dards Enforcement Report, cit.                                      Waseem (eds.), “Proceedings of the Third Workshop on Abu-
   36 Per una definizione di “diffusione” si veda Facebook          sive Language Online”, ACL, 2019, p. 25-35; M. Sap, D.
Transparency Center, Prevalence, Meta, 2021.                        Card, S. Gabriel et al., The Risk of Racial Bias in Ha-
   37 T. Simonite, Facebook’s AI for Hate Speech Improves.          te Speech Detection, in A. Korhonen, D. Traum, L. Màrquez
How Much Is Unclear , in “Wired”, 2020.                             (eds.), “Proceedings of the Fiftyseventh Annual Meeting of
   38 Peraltro, alcuni dati sono disponibili relativamente al       the Association for Computational Linguistics”, ACL, 2019,
numero di contenuti successivamente reintegrati sulle piatta-       p. 1668-1678.
                                                                       50 T. Dias Oliva, D.M. Antonialli, A. Gomes, Fighting
forme. Tuttavia, soprattutto a seguito dello scoppio della pan-
demia, il ruolo dei reclami proposti dagli utenti sembra essere     Hate Speech, Silencing Drag Queens? Artificial Intelligence
piuttosto marginale. Nel terzo trimestre del 2021, per esem-        in Content Moderation and Risks to LGBTQ Voices Online,
pio, a fronte di 22,3 milioni di contenuti sanzionati su Face-      in “Sexuality & Culture”, vol. 25, 2021, n. 2, p. 700-732.
book, solo 1,1 milione di reclami sono stati proposti dagli uten-   Il lavoro analizza come il software Perspective, sviluppato da
ti: di questi solo 90,7 mila sono stati accolti. Questo a fronte    Google per individuare contenuti ascrivibili alla classe del to-
dei circa 30,3 mila contenuti reintegrati autonomamente da          xic speech, impatti rispettivamente i tweet pubblicati da ce-
Facebook. In generale, tali dati appaiono essere poco rappre-       lebri drag queen statunitensi e quelli pubblicati da altrettan-
sentativi del reale tasso di errore. Facebook Transparency          to noti estremisti di destra. Secondo lo studio, i contenuti
Center, Community Standards Enforcement Report, cit.                prodotti dalle prime sarebbero in molti casi rilevati come al-
   39 G. Sartor, A. Loreggia, op. cit.                              trettanto tossici, e spesso come più tossici, dei secondi. Così,
   40 E. Douek, op. cit.                                            per esempio, il tweet «and I’m ... GAY. #HairsprayLive»
   41 A. Brown, What Is Hate Speech? Part 2: Family Re-             della drag queen Mimi Imfurst risulterebbe essere tossico al
semblances, in “Law and Philosophy”, vol. 36, 2017, n. 5,           92,31% (p. 720), mentre il tweet del politico alt-right Richard
p. 561-613; P. Dunn, Piattaforme digitali e moderazione             Spencer «@hodgie2000 Of course, homosexuality is a natural-
dei contenuti d’odio: nodi giuridici e pratici, in “MediaLaws”,     ly occurring phenomenon. But as another already said, so is
2021.                                                               cannibalism, addiction, suicide, self-harm, etc. The question
   42 Si veda, in tal senso, R. Wilson, M. Land, op. cit. Per       is: what is the *cause* of this curious phenomenon, from evo-
la (ampia) definizione utilizzata dalle piattaforme di Meta, si     lutionary, genetic, social, or psychological perspectives», in
veda Facebook Transparency Center, Hate speech, Meta,               cui l’omosessualità è di fatto paragonata al cannibalismo, alle
2021.                                                               dipendenze, al suicidio e all’autolesionismo, riporterebbe un
   43 Si veda, in particolare, il c.d. “Piano d’Azione Rabat”       grado di tossicità pari al solo 13,80% (p. 724).
                                                                       51 Con riferimento alla comunità LGBTQIA+, e in particola-
delle Nazioni Unite. Consiglio per i diritti umani delle
Nazioni Unite, Report of the United Nations High Com-               re alla sotto-comunità drag, si veda S. McKinnon, “Building a
missioner for Human Rights on the expert workshops on the           thick skin for each other”: The use of ‘reading’ as an interac-
prohibition of incitement to national, racial or religious ha-      tional practice of mock impoliteness in drag queen backstage
tred (A/HRC/22/17/Add.4), 2013. Si veda altresì A. Weber,           talk , in “Journal of Language and Sexuality”, vol. 6, 2017, n.
Manual on hate speech, Council of Europe Publishing, 2009,          1, p. 90-127. L’autore, nell’occuparsi della pratica del reading,
VI+98 p.                                                            riconduce l’uso di espressioni apparentemente insultanti alla
   44 M. Durante, Potere computazionale. L’impatto delle            categoria della mock impoliteness, da intendersi come l’insie-
ICT su diritto, società, sapere, Meltemi, 2019, 397 p.              me di quelle «utterances, which could potentially be evalua-
   45 L. Floridi, La quarta rivoluzione. Come l’infosfera sta       ted as genuine impoliteness outside the appropriate context,
trasformando il mondo (trad. it. M. Durante), Raffaello Corti-      are positively evaluated by in-group members who recognize
na, 2017, XVIII+294 p., pp. 147-164.                                the importance of ‘building a thick skin’ to face a hostile
   46 Per una comprensione del fenomeno del meme in Internet,       environment from LGBT and non-LGBT people» (p. 90).
                                                                       52 J. Guynn, Facebook while black: Users call it getting
si veda G. Marino, Semiotics of spreadability: A systematic
approach to Internet memes and virality, in “Punctum”, vol.         «Zucked», say talking about racism is censored as hate speech,
1, 2015, n. 1, p. 43-66, a p. 60.                                   in “Usa Today”, 2019. Tale fenomeno, inoltre, sembra colpire
   47 Per uno studio su come gli algoritmi utilizzati da piatta-    in modo ancora più intenso le donne: si veda in tal senso K.L.
forme e intermediari digitali abbiano la tendenza a riprodurre      Gray, K. Stein, “We ‘said her name’ and got zucked”: Black
e replicare bias discriminatori, soprattutto nei confronti del-     Women Calling-out the Carceral Logics of Digital Platforms,
le donne afro-americane, si veda S.U. Noble, Algorithms of          in “Gender & Society”, vol. 35, 2021, n. 4, p. 538-545.
                                                                       53 N.P. Suzor, op. cit., p. 128-129.
oppression: how search engines reinforce racism, New York
University Press, 2018.                                                54 A. Chakraborty, J. Messias, F. Benevenuto et al.,
   48 J.H. Park, J. Shin, P. Fung, Reducing Gender Bias             Who Makes Trends? Understanding Demographic Biases in
in Abusive Language Detection, in E. Riloff, D. Chiang, J.          Crowdsourced Recommendations, in “Proceedings of the Ele-

                                                            Pietro Dunn
Puoi anche leggere