Il ruolo dell'intelligenza artificiale nell'evoluzione della professione forense - Filodiritto

Pagina creata da Gianluca Cavalli
 
CONTINUA A LEGGERE
Tribunale Bologna 24.07.2007, n.7770 - ISSN 2239-7752
                                              Direttore responsabile: Antonio Zama

 Il ruolo dell’intelligenza artificiale nell’evoluzione della
                      professione forense
                                           25 Gennaio 2021
                                   Guglielmo Gulotta, Jessica Capellini

Si propone inizialmente l’analisi del percorso che ha portato alla nascita della tecnologia e come questa
abbia influenzato e definito la vita delle persone, viene poi approfondito come l’avvento dell’Intelligenza
Artificiale abbia modificato la professione forense, in particolare di come l’utilizzo sempre maggiore dei
sistemi e dei programmi informatici abbia permesso di velocizzare alcuni dei compiti più ripetitivi. Le
applicazioni e i software si sono rivelati un supporto importante non solo per le coppie separate o in via di
separazione, le quali volevano continuare a definirsi come coppia genitoriale, ma anche per la conduzione
da parte degli organi investigativi delle indagini.
Oggigiorno l’Intelligenza Artificiale (AI) sta divenendo un fattore di cambiamento sempre più importante,
andando ad influenzare in particolare il modo in cui lavoriamo, ci interfacciamo con le altre persone e
prendiamo decisioni. Infatti, come Balkin afferma, viviamo già in una società algoritmica (Cit. in Contissa,
Lasagni, Sartor, 2019, p. 1), una società organizzata intorno al processo decisionale automatizzato.

Nascita e sviluppo dell’AI
L’Intelligenza Artificiale per come la conosciamo oggi si è sviluppata a partire dagli studi di Alan
Turing, il quale lavorò nel centro di Bletchley Park per decodificare le comunicazioni tedesche durante la
II Guerra Mondiale.
Il matematico pubblicò un articolo intitolato “Computing machinery and intelligence” nel 1950 sulla rivista
Mind proponendo il Test Turing come strumento per determinare la differenza tra un’operazione svolta da
una persona e una macchina attraverso delle domande valutando la capacità della macchina di avere un
comportamento intelligente, umano.
Il termine Intelligenza Artificiale, coniato da John McCarthy, è stato associato per la prima volta ai
computer negli anni ’50 definendo la crescita parallela tra questi e AI. A seguito dell’interesse
sviluppato dalla tecnologia nacquero diversi approcci, tra cui la logica matematica e le reti neurali. Il
deep learning, caratterizzato dall’uso di reti neurali artificiali (ANN) che consentono al computer di
categorizzare le informazioni in modo simile al cervello umano, è una forma di apprendimento
automatico profondo che mira a risolvere problemi complessi.
L’adozione di un’innovazione tecnologica è il punto di arrivo di un processo che porta l’individuo a fare
propria una particolare tecnologia. Questo processo è basato su quattro fasi:
la consapevolezza, il soggetto prende atto dell’innovazione;
l’interesse, in cui il soggetto si appassiona all’idea e cerca informazioni aggiuntive su di essa;
la valutazione, la quale consiste nel prefigurarsi uno scenario d’uso per spiegarne le opportunità che
verranno completamente comprese poi nella fase di prova;
l’adozione, fase nella quale il soggetto diventa consapevole dei benefici apportati dalla tecnologia e da ciò
decide di continuare ad utilizzarla.
Questa evoluzione, come tutte quelle che concernono le nuove tecnologie, viene accolta da taluno come
un’opportunità sociale, da talaltro come un pericolo.
Con il concetto di neofobia si indica la paura di ciò che è nuovo, un sentimento di profonda
avversione verso la novità che potrebbe portare a un cambiamento rispetto a situazioni e costumi
precedenti. Agli anni ’20 risale lo scetticismo nei confronti delle automobili, le quali inizialmente
venivano considerate come una risposta miracolosa ai problemi dei veicoli trainati dai cavalli, mentre negli
anni ’70 lo scoraggiamento nei confronti della tecnologia nasceva dalle preoccupazioni per la
sovrappopolazione, per i danni all’ambiente e per la prospettiva di un olocausto nucleare. La delusione
provata spesso deriva da speranze non realizzate e da conseguenze non previste, qui gli svantaggi
sembravano essere maggiori dei vantaggi e ciò che può accadere è un diffuso senso di “tecno-pessimismo
”.

   Nel tempo, nonostante i possibili benefici che l’utilizzo delle
   nuove tecnologie potevano apportare, si manifestarono
   incomprensione e scetticismo per diverse innovazioni, tra cui la
   televisione, in questo caso specifico il dirigente della 20th
   Century Fox, Darryl Zanuck, affermò “la televisione non durerà,
   perché le persone si stancheranno presto di passare le serate a
   fissare una scatola di legno”.
La lampadina fu un’altra innovazione che venne considerata una trovata “inutile”, come il telefono, il quale
venne definito come troppo difettoso per essere considerato uno strumento di comunicazione e
come anche il personal computer, il quale secondo i giornali aveva creato soprattutto nelle donne la
“computerfobia”.
Come avvenne con gli inventori di Google, i quali inizialmente cercarono di sviluppare un progetto
per permettere di ordinare la pizza su internet, l’innovatore non è mai completamente consapevole
di ciò che andrà a creare e di come l’invenzione modificherà le vite delle persone, così anche il cinema,
nato inizialmente come strumento di documentazione e non di intrattenimento e il social network
Facebook, inizialmente lo stesso Mark Zuckerberg non immaginava le potenzialità del progetto sviluppato
insieme ad alcuni compagni di stanza dell’Harvard University.
Una riflessione importante da fare è sui cambiamenti che sono avvenuti nel modo in cui le persone
percepiscono oggi la tecnologia (Fasano, 2016). Con il termine “pulsantizzazione delle emozioni” si
definisce l’idea che a ogni emozione sia associato un pulsante o un simbolo che permetta di descrivere
meglio ciò che stiamo provando (Bucchi, 2018).

L’Intelligenza Artificiale oggi
Oggi l’AI può essere definita come la volontà di creare una macchina capace di svolgere azioni per le
quali generalmente si richiede l’intelligenza dell’uomo (Kurzwell, 1990. Russell, Norving, 2016). Essa
risulta composta da tre importanti funzioni:
incameramento dei dati,
elaborazione e memorizzazione degli stessi e
autonoma capacità di apprendimento.
Possiamo inoltre distinguere l’Intelligenza Artificiale debole da quella forte: la prima è in grado di
simulare alcune funzionalità cognitive dell’uomo senza raggiungerne le capacità intellettuali tipiche, la
seconda è caratterizzata da sistemi in grado di diventare sapienti o addirittura coscienti di sé.
Certamente gli avanzamenti nelle neuroscienze creeranno una maggiore “finezza” nell’intelligenza
artificiale a partire dalle tre leggi della robotica “1. Un robot non può recar danno a un essere umano,
né permettere che, a causa della propria negligenza, un essere umano patisca danno. 2. Un robot deve
sempre obbedire agli ordini degli esseri umani, a meno che contrastino con la Prima Legge. 3. Un robot
deve proteggere la propria esistenza, purché questo non contrasti con la Prima o la Seconda Legge.
Manuale di robotica 56? Edizione, 2058 d.C.” (Asimov, 1950.).
La Commissione Europea si riferisce a questo tipo di intelligenza in modo ancor più stringente, definendola
come un software capace di simulare un complesso ragionamento e/o che sia in grado di imparare
(Berti, Zumerle, 2019).
Lo storico Harari sottolinea come l’intelligenza artificiale sia caratterizzata dalle capacità di
connettività e di aggiornamento, richieste impossibili per gli esseri umani, ma non per le macchine, le
quali sono facili da integrare in una sola rete flessibile, diventa quindi più semplice pensare che le persone
vengano rimpiazzate da una rete integrata e non da singoli software (Harrari, 2019).
L’evoluzione tecnologica è “controllata” dalle leggi del diritto d’autore, dalla brevettabilità dei
software e dalla tipologia di trattamento dei dati personali e dal diritto alla privacy.
I software e le applicazioni per smartphone fanno largo uso dei servizi di chatbot o chatterbot, termine che
definisce un programma progettato per permettere agli utenti di simulare una conversazione con un
essere umano. L’operatività di questi sistemi è definita dalla capacità di machine learning, ossia di
analizzare nozioni inferendo informazioni che permettano alla macchina di apprendere ed evolvere.
L’utilizzo dell’Intelligenza Artificiale in ambito legale permette di usufruire di software capaci di
seguire Step-by-Step il cliente e di stampare un report che evidenzierà le azioni necessarie da parte
dell’avvocato, così da velocizzare il flusso di operazioni interne allo studio legale, permettendo inoltre al
cliente di ottenere feedback immediati in caso di autonomia del chatbot.
Siamo, come dice Guido Alpa nella prefazione al libro di Ruffolo (2020), “di fronte a una vicenda epocale
[…] Qui siamo di fronte a vicende che cambiano il modo di pensare, di vivere, di vedere le cose, non solo
di lavorare, e che consentono di fare ciò che prima si riteneva impossibile realizzare con le capacità umane
”.
Come si può vedere dalle modifiche apportate dalle numerose invenzioni, la tecnologia definisce una
rottura nei confronti del tradizionale, “si rompe il confine tra biologia e tecnologia, tra naturale ed
artificiale, tra terapia e potenziamento, tra reale e digitale/virtuale” (Ruffolo, 2020).
Differentemente dall’Italia, in USA l’uso delle piattaforme web a supporto degli studi legali è comune
. Un’applicazione molto conosciuta è Super Lawyers, la quale permette di accedere a una pagina
contenente i nominativi di avvocati e studi legali differenziati per area geografica e di specializzazione;
inoltre, l’applicazione offre una sezione interattiva a pagamento in cui gli utenti possono ricevere
tempestiva risposta a questioni legali da avvocati appositamente selezionati.

Alcuni esempi di software utilizzati in ambito forense
Nel 2017 lo studio Toffoleto De Luca Tamajo e Soci utilizzava un software gestionale in condivisione con
NCTM, l’app si utilizza per segnalare ai clienti le informazioni e gli aggiornamenti, mentre la Law Maps
permette di confrontare diverse discipline giuridiche, al suo interno si possono analizzare differenti
mappe disponibili (retribuzione, contribuzione e non concorrenza) e in ciascuna è possibile confrontare le
informazioni per i diversi stati del mondo.
La IBM nel 2012 iniziò a sviluppare il Project Debater, il primo sistema di intelligenza artificiale
capace di dibattere su argomenti complessi con un soggetto umano; questo software è in grado di
leggere testi voluminosi, costruire un discorso strutturato su un determinato argomento e accompagnare le
persone nel ragionamento fornendo argomenti convincenti basati sull’evidenza e limitando l’influenza di
emozioni, pregiudizi e ambiguità.
Questo progetto si basa su tre capacità pioneristiche la cui combinazione consente alla macchina di
portare avanti un dibattito:
la scrittura e la consegna di discorsi basati sui dati,
la comprensione dell’ascolto e, infine,
la modellazione dei dilemmi umani.
L’AI si sta muovendo nella direzione di facilitare il dibattito intelligente così da poter costruire
argomenti ben informati e prendere le decisioni migliori.
La stessa azienda nel 2016 lanciò il primo robot togato, Ross, il quale fu “assunto” dallo studio legale
Baker & Hostetler per occuparsi di diritto fallimentare svolgendo da solo il lavoro di 50 avvocati; nello
specifico è stato impiegato nella divisione bancarotta e fallimenti per analizzare i documenti della frode
finanziaria messa in atto da Bernie Madoff.
L’obiettivo degli avvocati, per Toffoletto (Morelli, 2017), è quello di imparare a saper investire sulla
tecnologia sofisticata.
Nell’ambito dell’intelligenza artificiale non è presente un
   pensiero unanime sulla possibilità di riduzione o aumento di
   nuovi posti di lavoro, nello specifico Manpower ha stimato che la
   digitalizzazione potrebbe creare in Italia tra il 31 e il 40% di
   nuovi posti di lavoro. Anche Giulio Coraggio afferma che “
   Al momento gli ostacoli sono culturali, di difesa conservativa, più
   che tecnologici. Anche se in prospettiva scomparirà l’impiego
   routinario, non la funzione dell’avvocato, che dovrà anzi allargare
   il campo delle proprie competenze” (Coraggio, 2019, p. 2).
La multinazionale J.P.Morgan mostra un interessante esempio di Intelligenza Artificiale chiamato COIN
(Contract Intelligence), un robot che va a sostituire il lavoro di molti avvocati della società per un totale di
360 mila ore di lavoro l’anno; si tratta di un sistema basato sulla tecnologia della machine learning
ed è quindi capace di comprendere accordi commerciali in pochi secondi.

Le applicazioni in fase di separazione e divorzio
Altri esempi di AI sono le applicazioni che, oltre a supportare il lavoro dell’avvocato, aiutano le
coppie separate o in fase di separazione; tra questi sistemi troviamo come esempi di particolare interessa
tre software, sviluppati in Australia e denominati Amica, Penda e Adieu.
Il primo mette a disposizione delle coppie informazioni gratuite relative alla separazione e le guida nel
processo; il secondo è stato lanciato con l’intento di rompere il ciclo della violenza domestica e familiare
attraverso la combinazione di informazioni finanziarie, di sicurezza personale e legali con rinvio a livello
nazionale; il terzo è un servizio che aiuta le famiglie in via di separazione a trovare il percorso più idoneo
anche a livello finanziario.
Anche in Italia è stata sviluppata con il nome di Anthea la prima applicazione utilizzata per facilitare
la gestione della conflittualità genitoriale post separazione, che permette alle famiglie di interagire con i
servizi sociali attivati dal tribunale anche per fornire loro in tempo reale informazioni sull’andamento della
gestione familiare e di coppia.
Nel 2017 presso il Tribunale di Modena, per la prima volta, una coppia di genitori ha concordato
sull’utilizzo del Progetto Anthea per la risoluzione della loro separazione consensuale, trattandosi di
una piattaforma che esalta la lealtà genitoriale puntando sul mantenimento dell’integrità del concetto di
coppia genitoriale (Art. 706 - bis c.p.c “Fase stragiudiziale di separazione e patto di lealtà genitoriale”; Art.
710 c.p.c. – “Uso degli strumenti di telecomunicazione e di strumenti alternativi a sostegno della gestione
del conflitto e della lealtà genitoriale”; Art. 7 – “Registro della Bi-genitorialità”).
Nel dibattito attorno all’impatto che l’AI avrà sul mondo del
   lavoro trova spesso consensi l’idea che questa andrà a sostituire
   alcune professioni, tra cui quella dell’avvocato, grazie al
   continuo accesso ai big data che rendere il lavoro di questi
   sistemi particolarmente competitivo. A tal riguardo è
   importante sottolineare come il lavoro svolto dall’AI
   non andrà a sostituire completamente quello umano ma
   permetterà di ridurre i compiti ripetitivi definendo nuovi ruoli
   più creativi e gratificanti.
Sebbene già da tempo negli studi legali siano presenti programmi per calcolare la misura del risarcimento
in presenza di lesioni invalidanti e sistemi per confrontare la giurisprudenza a disposizione, solo negli
ultimi tempi è stato introdotto il termine Legal AI per definire il lavoro delle piattaforme di AI
utilizzate in ambito legale in tutte le sue parti, dall’aiuto nella redazione degli atti, fino alla
sostituzione del giudice per la decisione.
A tal proposito una prima criticità riscontrata riguardo l’utilizzo della Legal AI ed in particolare di
software predittivi è che a questa sottenda una “black box decision”, cioè una decisione priva di
motivazione (Contissa, Lasagni, Sartor, 2019); per evitare ciò si sta cercando di ridurre l’utilizzo di report
relativi al solo lavoro svolto dai software e si è ipotizzato di definirli come indizi, i quali hanno bisogno di
essere corroborati con altri elementi di prova, oppure utilizzati come strumento di double check.

Nuove modalità di utilizzo dell’AI: previsioni, investigazioni e processi decisionali circa il
comportamento
La tecnologia si sta inserendo anche nel mondo forense, definendo l’idea di “giustizia predittiva”
, nel campo del processo penale si sta facendo spazio lo scenario nel quale si potrebbe arrivare ad un
affiancamento, se non sostituzione, del giudice con una macchina. Grazie alla capacità di machine learning
questi software promettono la modernizzazione e il miglioramento dell’efficienza del sistema di
giustizia penale. In questo caso l’ordinamento statunitense permette un osservatorio privilegiato, lì
l’utilizzo di strumenti automated decision systems è raccomandato.
Oltre ai software e alle applicazioni precedentemente citati, alcune start up hanno sviluppato
programmi capaci di prevedere l’esito di un processo con un margine di esattezza dell’80%
(Ferrari, 2018). Il lavoro svolto dal programma può essere utilizzato in diversi campi a seconda dei dati
introdotti nel sistema e può per esempio prevedere la pericolosità del soggetto e la sua capacità futura di
delinquere, può interpretare una legge e individuare gli orientamenti giurisprudenziali su specifiche
tematiche e può prevedere l’esito di un contenzioso. (Gulotta, 2019)
Per prevenire la commissione di reati si sta facendo sempre più uso degli algoritmi. L’aspetto della
prevenzione dei reati, come riporta Paola Severino, è un campo che in Italia è stato poco indagato a
differenza della letteratura presente all’interno del panorama angloamericano. I software possono
essere utilizzati per l’analisi e la valutazione ex post dei dati aziendali identificando le aree più a rischio di
reato sulle quali intervenire. Nonostante i vantaggi, sono presenti anche svantaggi, tra cui l’adottare un
software che, essendo prodotto da altri, non va ad indagare le vere carenze che possono caratterizzare l’ente
(Severino, 2020).
Nell’ambito dei predictive policing la predizione può individuare luoghi sospetti (crime hotspot) se basato
sul placed-based-system o elaborare profili criminali individuali di persone a rischio (predictive composite
) se basato sul person-based-system (Manes, 2020, p. 552).

   Tra i diversi software impiegati dalla “polizia predittiva” per
   contrastare o prevenire la commissione di reati, possiamo citare
   come esempio il programma Keycrime, utilizzato in caso di
   condotte seriali come rapine, truffe e violenze, il programma
   XLAW, utilizzato dalla Polizia di Napoli ed applicato in diverse
   regioni per prevedere furti e rapine, ed il programma PredPol
   definito dalla UCLA, il quale si mostra come un software capace
   di formulare previsioni a partire da tre classi di dati: tipo di
   reato, luogo del reato e data/ora di commissione.
I vantaggi apportati dall’utilizzo di questi sistemi sono una migliore gestione del know how delle forze
dell’ordine in un’area geografica specifica e un miglioramento nelle performance investigative attraverso
una allocazione più efficiente delle risorse. Ciononostante, si può comprendere come questa attività di
monitoraggio possa scontrarsi con alcuni dei diritti fondamentali dell’individuo e andare in contro a
bias per l’appartenenza del soggetto a contesti sociali ritenuti “a rischio”. Nel caso dell’utilizzo da
parte della macchina di pregiudizi, non è facile trovarvi rimedio visto che i software appartengono ad
aziende private, che per il trade secret non ne rivelano il funzionamento, ma anche perché data la loro
capacità di machine learning i sistemi si “auto-alimentano con i dati prodotti dal loro stesso utilizzo, col
rischio di innescare circoli viziosi” (Basile, 2019)
Nel caso specifico dell’ambito investigativo, l’AI permette di mappare il rischio criminale e
provvedere alla razionale allocazione delle risorse. Gli strumenti di supporto per gli investigatori
nell’analisi della scena del crimine o nelle situazioni di analisi delle scienze forensi vengono utilizzati
come supporto nelle attività quotidiane minimizzando la contaminazione, la perdita di informazioni e
l’errore nel bias cognitivo. Questi permettono l’analisi del DNA, il video and image analysis, la gunshot
detection, e il cybercrime detection. Per supportare le indagini sulla scena del crimine, gli agenti posso
fare uso di visori, come il Microsoft Hololens, il quale permette, attraverso la realtà mista, la visione
di ologrammi. Nel caso dell’analisi della scena del crimine attraverso lo spatial mapping e il puntatore
gaze si ha la possibilità di interagire con gli ologrammi, i marcatori diventano virtuali con la possibilità di
contenere file multimediali, come anche la sagoma di gesso e tutto viene salvato.
Il processo decisionale, grazie all’intelligenza artificiale e ai big data, sta diventando sempre più
automatizzato, i software possono essere impiegati per risolvere vertenze penali, divenendo una
figura di sostituzione o affiancamento del giudice-uomo e valutare la pericolosità di un soggetto. Ciò
può risultare utile per la presa di decisioni sia nel campo pubblico, che nel privato, ma comporta anche la
nascita di nuovi rischi.
Alcuni studiosi hanno evidenziato le possibilità di errore e discriminazione poste dalle decisioni
algoritmiche: in alcuni casi le scelte proposte si mostravano esplicitamente discriminatorie (
discriminazione diretta) perché utilizzavano alla base della disposizione predittori come razza, etnia o
genere, in altri casi si evidenziava una discriminazione indiretta attraverso la considerazione
dell’appartenenza del soggetto a particolari gruppi, senza però una giustificazione accettabile.
Come anche sottolineato nella conferenza tenuta su “L’uso degli algoritmi nelle sentenze: verso una
giustizia informatica?” (Gulotta, 2019) risulta importante evidenziare una sentenza della Corte
Suprema del Wisconsin, la quale è intervenuta sulla decisione di un tribunale di utilizzare i risultati
elaborati dal programma COMPAS (Correctional Offender Management Profiling for Alternative
Sanctions), strumento di risk assessment che attraverso le informazioni fornite da un questionario di 137
domande valuta il rischio di recidiva.
La difesa sottolineava come l’utilizzo dello strumento nel giudizio di determinazione della pena
violasse il diritto all’equo processo sotto tre profili: il diritto di essere condannato sulla base di
informazioni accurate, il diritto ad essere condannato a una pena individualizzata e l’uso improprio del dato
di genere nella determinazione della pena. La Corte Suprema ha affermato che nonostante il software possa
essere utilizzato per determinare la pena è necessario servirsene con cautela.
Un altro programma utilizzato nel New Jersey è il software
   SAVRY (Structured Assessment of Violence Risk in Youth), il
   quale ha sostituito le udienze per la concessione della libertà su
   cauzione su ragazzi tra i 12 e i 18 anni con valutazioni di rischio
   definite da algoritmi. Lo strumento, composto da 24 item
   suddivisi in aree (storiche, sociali e individuali) considera i
   fattori di rischio tipici dell’età evolutiva associati normalmente
   alla violenza interpersonale ed enfatizza la natura del rischio dal
   punto di vista dinamico e socio-contestuale. La versione italiana
   ha reso lo strumento anche quantitativo: è stato pensato nello
   specifico per finalità di screening di adolescenti con condotte a
   rischio.
Analogamente, nel libro “Il dilemma dello sconosciuto” viene presentato uno studio condotto da un
economista di Harvard (Sendhil Mullainathan), tre informatici e un esperto di cauzioni della University of
Chicago, i quali raccolsero a New York gli atti processuali di 554.689 imputati chiamati in giudizio penale
dal 2008 al 2013; dalle osservazioni emerse che i giudici hanno rilasciato poco più di 400.000 persone
(Kleinberg, 2018).
L’economista decise quindi di progettare un sistema di intelligenza artificiale in cui poter inserire le
stesse informazioni che l’accusa aveva fornito ai magistrati, dall’analisi emerse una selezione
differente, secondo la macchina le persone non dovevano essere assolutamente rilasciate prima
dell’udienza, “Molti imputati contrassegnati dall’algoritmo come soggetti “ad alto rischio” vengono
trattati dai giudici come se fossero a basso rischio” affermò il gruppo di Mullainathan, quindi come
riferiscono i ricercatori, le decisioni dei giudici sulla libertà su cauzione “sono sballate”.
La possibilità che ha l’uomo, a differenza della macchina, di poter vedere l’imputato non sempre si mostra
utile.
Malcolm Gladwell: Se non avesse visto l’imputato, sarebbe cambiato qualcosa?
Solomon: Se penso che sarebbe stato meglio?
Malcolm Gladwell: Pensa che sarebbe stato meglio?
Solomon: Una parte di me crede che sarebbe stato meglio, perché a quel punto l’ardua decisione di
mettere qualcuno in galera sarebbe sembrata meno ardua. Ma non è giusto. […] Se un essere umano viene
arrestato dallo stato, lo stato deve spiegare perché sta privando quell’essere umano della libertà. Giusto?
In caso contrario, per me non si tratta più di esseri umani, ma di componenti informatici.
(Gladwell, 2020, p. 153).
Un nuovo e futuro prodotto del settore legale potrebbe essere LegalTech, un tipo di software a disposizione
degli avvocati per supportarli nelle loro attività, nello specifico nelle azioni in giudizio, mentre i software
CorpTech permetteranno di agevolare l’adozione di decisioni in situazioni complesse, è poi scelta
dell’avvocato se seguire o no il “consiglio” dell’algoritmo.
Il possibile futuro dell’AI
Data la già grande capacità dei programmi alcuni studiosi si sono lanciati in previsioni, tra questi troviamo
Hawking, il quale afferma che “nell’arco dei prossimi cento anni, l’intelligenza dei computer supererà
quella degli esseri umani”, idea confermata da un’analoga previsione contenuta nei Considerado
della Risoluzione del Parlamento europeo sulla robotica datato 16 febbraio 2017 nel quale si evidenzia che
“è possibile che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana”.
Per i motivi sopra evidenziati risulta importante che l’ordinamento penale inizi ad aprirsi ad un
nuovo scenario, la possibilità che le macchine o “persone senz’anima” possano causare un evento di
danno o pericolo, colposo o “doloso”.
Da ultimo risulta importante fare riferimento alla “Carta etica europea sull’uso dell’intelligenza artificiale
(AI) nei sistemi giudiziari e in ambiti connessi” elaborata nel 2018 dalla Commissione europea per
l’efficienza della giustizia del Consiglio d’Europa che ha definito due possibili cambiamenti nella
professione forense a cui l’introduzione dell’AI potrebbe portare: la possibilità che l’utilizzo
dell’Intelligenza Artificiale conduca l’uomo a delegare alla macchina (machine learning) decisioni
automatiche, o una modifica del ruolo del giurista che diventerà sempre più automatizzato (Ruffolo,
2019).
Si può quindi concludere affermando che la tecnologia dovrebbe puntare a migliorare l’efficienza
rispettando i diritti dell’uomo e della non discriminazione, sottolineando l’importanza del “principio di
trasparenza delle metodologie e delle tecniche utilizzate nel trattamento delle decisioni giudiziarie”, nello
specifico “l’accessibilità e la necessità di comprensione delle tecniche di trattamento dei dati, nonché sulla
possibilità per le autorità o gli esperti di effettuare audit esterni” (Ruffolo, 2020).

Bibliografia
Asimov I., 1950. Io robot. Mondadori.
Basile F., 2019. Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine. Diritto
Penale e Uomo.
Berti R., Zumerle F., 14.05.2019. Intelligenza artificiale e sistema giudiziario, gli impatti: luci e ombre
, in Agenda digitale.
Bucchi M., 2018. Dall’atomica all’iphone è la fine dell’ossessione umana per i bottoni?. Corriere
Innovazione.
Casonato C., 2019. Intelligenza artificiale e diritto costituzionale: prime considerazioni. Biodiritto.
Contissa G., Lasagni G., Sartor G., 2019. Quando a decidere in materia penale sono (anche) algoritmi e
IA: alla ricerca di un rimedio effettivo.
Coraggio G. in Aquaro D., 2019. Intelligenza artificiale: gli studi legali esplorano l’esito delle sentenze
. Il Sole 24 Ore, norme e tributi, p. 2.
Fasano L., 2016. I 5 tecno-Sensi: come percepiamo il mondo attraverso la Tecnologia. TecnologicaMente.
Ferrari A., 2018. L’intelligenza artificiale aiuterà la professione forense. Legaldesk.
Gulotta G., 2019. L’uso degli algoritmi nelle sentenze: verso una giustizia informatica. Canale YouTube
Fondazione Gulotta.
Gladwell M., 2020. Il dilemma dello sconosciuto. UTET.
Harrari Y. N., 2019. 21 Lezioni per il XXI Secolo, Milano, 47. Cit. in Ruffolo U., 2020. Intelligenza
artificiale. Il diritto, i diritti, l’etica. Giuffrè Francis Lefebvre, p. 7.
Hawking S. durante nella conferenza Zeitgeist, Londra, maggio 2015 (citazione riportata da Diritto Penale
e Uomo, 2019. Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, p.2).
Kleinberg J., et al., 2018. Human Decisions and Machine Predictions. The Quarterly Journal of
Economics, Volume 133, n. 1, p. 237-293.
Kurzwell R., 1990. The age of intelligent machines. Cambridge.
Manes V. in Ruffolo U., 2020 Intelligenza artificiale. Il diritto, i diritti, l’etica. Giuffrè Francis Lefebvre,
p. 552.
Morelli C., 2017. Essere avvocato nell’era digitale: l’esperienza sul campo di Franco Toffoletto.
Gestionale su misura, App, Law Mps e “nanetti”: le creazioni di una law firm innovativa. Altalex.
Ruffolo U., 2019. Intelligenza artificiale, machine learning e responsabilità da algoritmo, in Giur.it.,
7,1689: Esposito, 2019. Al confine tra algoritmo e discrezionalità. Il pilota automatico tra procedimento e
processo, in Diritto e processo amministrativo, 39.
Ruffolo U., 2020. Intelligenza artificiale. Il diritto, i diritti, l’etica. Giuffrè Francis Lefebvre.
Russell S. J., Norvig P., 2016. Artificial intelligence. A modern Approach. Upple Saddle River, sez. 11.
Severino P. in Ruffolo U., 2020 Intelligenza artificiale. Il diritto, i diritti, l’etica. Giuffrè Francis Lefebvre.
Risoluzione del Parlamento europeo del 16.02.2017, recante raccomandazioni alla Commissione
concernenti norme di diritto civile sulla robotica (2015/2103(INL)).

Sitografia
https://www.amica.gov.au/
https://penda-app.com/
https://www.adieu.ai/
https://www.progetto-anthea.com/
https://gazzettadimodena.gelocal.it/modena/cronaca/2018/05/01/news/app-per-separati-donata-una-casa-
1.16784260
https://www.keycrime.com/
https://progetto-anthea.com/_files/200000264-a80bda9070/DDL%20ANTHEA-7.pdf
https://gazzettadimodena.gelocal.it/modena/cronaca/2017/12/08/news/divorzio-con-la-app-per-gestire-i-
figli-senza-farsi-la-guerra-1.16210253
https://www.microsoft.com/it-it/hololens
https://docs.microsoft.com/it-it/windows/mixed-reality/design/spatial-mapping
https://www.treccani.it/enciclopedia/la-circolazione-delle-tecnologie_%28XXI-Secolo%29/
https://www.internazionale.it/notizie/2020/01/10/nuove-tecnologie-paura
https://www.selligent.com/it/blogs/tecnologia-e-innovazione/intelligenza-artificiale-i-pro-e-i-contro
https://www.cyberlaws.it/2018/la-storia-dellintelligenza-artificiale-da-turing-ad-oggi/
https://blog.osservatori.net/it_it/storia-intelligenza-artificiale
https://www.salesforce.com/it/blog/2019/12/cosa-e-intelligenza-artificiale.html
https://www.youtube.com/watch?v=yv-XZZh9Ti8
https://www.giurisprudenzapenale.com/2019/04/24/lamicus-curiae-un-algoritmo-chiacchierato-caso-
loomis-alla-corte-suprema-del-wisconsin/
TAG: intelligenza artificiale, Software, Machine learning

Avvertenza
La pubblicazione di contributi, approfondimenti, articoli e in genere di tutte le opere dottrinarie e di
commento (ivi comprese le news) presenti su Filodiritto è stata concessa (e richiesta) dai rispettivi autori,
titolari di tutti i diritti morali e patrimoniali ai sensi della legge sul diritto d'autore e sui diritti connessi
(Legge 633/1941). La riproduzione ed ogni altra forma di diffusione al pubblico delle predette opere
(anche in parte), in difetto di autorizzazione dell'autore, è punita a norma degli articoli 171, 171-bis, 171-
ter, 174-bis e 174-ter della menzionata Legge 633/1941. È consentito scaricare, prendere visione, estrarre
copia o stampare i documenti pubblicati su Filodiritto nella sezione Dottrina per ragioni esclusivamente
personali, a scopo informativo-culturale e non commerciale, esclusa ogni modifica o alterazione. Sono
parimenti consentite le citazioni a titolo di cronaca, studio, critica o recensione, purché accompagnate dal
nome dell'autore dell'articolo e dall'indicazione della fonte, ad esempio: Luca Martini, La discrezionalità
del sanitario nella qualificazione di reato perseguibile d'ufficio ai fini dell'obbligo di referto ex. art 365
cod. pen., in "Filodiritto" (https://www.filodiritto.com), con relativo collegamento ipertestuale. Se l'autore
non è altrimenti indicato i diritti sono di Inforomatica S.r.l. e la riproduzione è vietata senza il consenso
esplicito della stessa. È sempre gradita la comunicazione del testo, telematico o cartaceo, ove è avvenuta
la citazione.

                                Filodiritto(Filodiritto.com) un marchio di InFOROmatica S.r.l
Puoi anche leggere