Il diritto societario incontra il diritto dell'informazione

Pagina creata da Nicola Merlo
 
CONTINUA A LEGGERE
NICCOLÒ ABRIANI* - GIULIA SCHNEIDER**

                    Il diritto societario incontra il diritto dell’informazione
                IT, Corporate governance e Corporate Social Responsibility ***

                                                    “Ogni cosa sembra portare in sé la sua contraddizione (…)
                                                       Da parte nostra non disconosciamo lo spirito malizioso
                                                               che si manifesta in tutte queste contraddizioni”
                                                      K. Marx, Discorso per l’anniversario del People’s paper

Abstract

Il diritto societario incontra il diritto dell’informazione.
(IT, Corporate governance e Corporate Social Responsibility)

    Lo studio indaga i riflessi sul diritto societario, e in particolare sul sistema di corporate governance, del crescente
utilizzo delle tecnologie di intelligenza artificiale negli assetti e nella gestione delle imprese. Alla luce delle molteplici
occasioni di interazione tra nuove tecnologie e assetti societari si profila l’interrogativo se le trasformazioni in atto
richiedano un radicale ripensamento del quadro giuridico in materia societaria ovvero se sia più opportuna, oltreché
possibile, un’interpretazione evolutiva dello stesso che rimanga aderente ai principi e regole cardine del sistema attuale.
L’indagine si colloca in questa seconda prospettiva, articolandosi in una prima parte di carattere più generale, in cui si
esplora la relazione tra intelligenza artificiale, assetti societari, disciplina in materia di protezione di dati personali e
sostenibilità; e una seconda in cui si trattano temi più specifici in materia di informatizzazione dei processi di corporate
governance.
        La prima parte muove dal riconoscimento della rilevanza della disciplina in materia di dati personali, come
predisposta Regolamento (UE) 2016/796 (RGDP) ai fini della definizione delle strategie societarie automatizzate: il
crescente impiego di strumenti algoritmici di gestione societaria dà infatti origine a un inedito rapporto di interdipendenza
tra le tutele predisposte dal citato Regolamento in relazione alla strutturazione e organizzazione delle infrastrutture
processanti e le regole proprie del diritto societario. A partire dalla prospettiva dell’incontro tra diritto societario e diritto
dell’informazione, il contributo mira a delineare le opportunità, ma al contempo i limiti del consolidamento dei processi
informatizzati in relazione al perseguimento dell’interesse sociale e degli obiettivi di sostenibilità e responsabilità sociale
d’impresa.
        Nella seconda parte il raggio dell’analisi viene quindi ad indirizzarsi in termini più selettivi sui temi di corporate
governance, vagliando gli scenari applicativi dell’intelligenza artificiale in tale ambito, ora come elemento di supporto al
consiglio, ora come componenti del medesimo, fino alla più radicale ipotesi di un Roboboard costituito da sole
Robocompanies. Questi scenari, già oggetto di sperimentazioni nel contesto internazionale, richiedono un ripensamento
delle competenze di un consiglio così “informatizzato”, nonché una ridefinizione della tassonomia dei profili di
responsabilità, a partire dai principi di corretta gestione societaria e imprenditoriale.
        Nella parte finale si propongono alcune considerazioni sulla dialettica tra irrazionalità umana e razionalità della
macchina, che caratterizza il dibattito generale sulla intelligenza artificiale: un tema centrale anche nel campo in esame,

        * Professore ordinario di Diritto commerciale nell’Università degli Studi di Firenze.
        **
           Assegnista di ricerca di Diritto privato comparato nell’Università Sant’Anna di Pisa.
        ***
            Lo scritto è frutto di riflessioni comuni che si riflettono in particolare nell’impostazione generale del paragrafo
iniziale e nelle considerazioni proposte nel paragrafo finale; i §§ da 2 a 8 sono stati redatti da Giulia Schneider, i §§ da 9
a 14 da Niccolò Abriani. Si ringraziano Filippo Annunziata, Vincenzo Di Cataldo, Luca Enriques e Marco Ricolfi per i
preziosi commenti.

                                                                1
che impone di individuare un punto di equilibrio tra i due profili. In tale prospettiva si ritiene di valorizzare la rilevanza
sistematica dell’art. 22 RGDP quale criterio guida nell’analisi dei rischi e benefici del processo di progressiva
automatizzazione degli assetti societari. Questa impostazione, utile per indagini future sul tema, vale a scongiurare
l’avverarsi dello scenario, da altri prefigurato, della “fine” della società per come la conosciamo oggi.

English version

Corporate Law Meets Information Technology Law
(IT, Corporate Governance and Corporate Social Responsibility)

The study investigates the legal implications under corporate law of the increasing use of artificial intelligence tools in
the corporate structure. In light of the wide employment of new technologies for the organization and management of
corporations, the question arises whether the corporate law system needs to undergo a substantial revision or rather be
subject to an evolutive interpretation in consistency with traditional principles and rules. Adopting this second approach,
the first section detects the link between artificial intelligence tools, corporate organization, data protection law and
sustainability objectives, while the second part deals with more specific problems related to the employment of such tools
in the dynamics of corporate governance.
The first section moves from the assumption of the unexpected relevance of data protection law as laid down by
Regulation UE 2016/796 (GDPR) for the regulation of growingly automated corporate strategies. As argued, this is
directly given by the interconnection between data protection law safeguards structuring new technologies and corporate
law safeguards. In light of this new interdependence between corporate law and information technology law, the analysis
investigates the opportunities and limits of new technologies for the achievement of the corporate interest and of broader
CSR goals.
The second section narrows down the focus of enquiry to corporate governance issues, examining the possible uses of
artificial intelligence for management purposes, either as a mere support to the board; as a component of the board, or in
the form of an outright Roboboard entirely managed by Robocompanies. These scenarios trigger a reconsideration of the
competences required to “machine-driven” boards, as well as a redefinition of the taxonomy of liabilities, which is
conducted on the basis of the principles of good corporate governance and business best practice.
In conclusion, an adequate balance between human irrationality and machines’ rationality, demanded by art 22 GDPR, is
identified as a useful criteria for any future investigations regarding the risks and benefits of new technologies in the
organization of corporations. The criteria is useful in order to avoid the “end” of the corporation as we know it.

SOMMARIO: 1. Premessa. Il diritto delle società nell’era dell’algoritmo. – 2. Strumenti di intelligenza artificiale e assetti
    societari. – 3. Diritto societario e diritto dell’informazione: un incontro tecnologico? – 4. Diritto societario,
    intelligenza artificiale e disciplina in materia di protezione dei dati personali. – 5. IT, interesse sociale e Corporate
    Social Responsibility. – 6. Segue. La prospettiva di governance. – 7. Segue. La prospettiva di mercato. – 8. Da una
    Corporate Social Responsibility a una Corporate Digital Responsibility? – 9. Corporate governance e nuove
    tecnologie. – 10. Fenomenologia del consiglio di amministrazione “informatizzato”: Roboards, Robocompanies,
    Roboadvisor. – 11. Competenze e composizione degli organi “informatizzati”. – 12. Automazione dell’organo
    amministrativo e profili di responsabilità: una tassonomia. – 13. Segue. I principi di corretta amministrazione
    “informatizzata”. – 14. La corporate governance tra razionalità della macchina e irrazionalità umana: alla ricerca
    di equilibri. – 15. Conclusioni: verso un approccio alla IA societaria differenziato ed etico.

      1.    La recente evoluzione delle più rilevanti realtà aziendali e dei mercati finanziari, nonché
delle organizzazioni societarie alle quali le prime fanno capo e che offrono titoli sui secondi, è
connotata dalle profonde trasformazioni innescate da un crescente ricorso a sistemi organizzati
mediante tecniche di intelligenza artificiale. Si tratta di un fenomeno imponente sviluppatosi
dapprima nei processi di mercato, che vedono la maggior parte delle scelte di investimento da tempo
basate sui meccanismi automatizzati propri del trading algoritmico, nel più ampio ambito della c.d.
FinTech, e successivamente irradiatosi all’esercizio delle funzioni di vigilanza da parte delle autorità
preposte, che a loro volta sollecitano il ricorso a strumenti di intelligenza artificiale da parte dei
soggetti vigilati (c.d. RegTech), fino a penetrare il tessuto delle stesse imprese societarie e i relativi
organi di amministrazione e controllo in quella che è stata da ultimo efficacemente definita come

                                                              2
CorpTech 1.
       Nelle sue varie declinazioni tale linea di tendenza va a toccare nervi tradizionalmente scoperti
del dibattito dottrinale, relativi alle due domande di fondo circa quanta informazione richiedere in
campo societario e, di riflesso, quale specifica disciplina accordarle: quesiti di portata generale che
la rivoluzione digitale carica di contenuti nuovi, imponendo ad operatori e interpreti riflessioni sino
ad oggi inedite2.
       In questo contesto il variegato processo di incorporazione delle nuove tecnologie negli assetti
societari e la conseguente incidenza del medesimo nella duplice dimensione dei flussi informativi
interni ed esterni impongono all’interprete il delicato compito di delimitare la portata delle
trasformazioni in atto.
       In particolare, l’identificazione delle formidabili opportunità, ma al contempo dei non meno
rilevanti rischi sottesi all’impiego di strumenti di intelligenza artificiale nelle dinamiche del
funzionamento societario, suggerisce un supplemento di riflessione circa le ricadute regolatorie del
nuovo scenario operativo.
       Una prima questione di fondo attiene all’applicabilità delle categorie tradizionali del diritto
societario alla informazione algoritmica: una estensione necessariamente selettiva, che non può
prescindere dalle caratteristiche di quest’ultima, dal suo oggetto e dalle sue peculiari finalità. Tale
considerazione preliminare di ordine metodologico trova conferma sia nelle difficoltà di
inquadramento giuridico delle criptovalute, come il progetto Libra annunciato tempo fa dalla
piattaforma privata Facebook, e più volte modificato3, sia nella soluzione tendenzialmente negativa
offerta dalla dottrina in ordine alla applicabilità della disciplina dettata per le informazioni
privilegiate, come recentemente riformata dal Regolamento europeo MAR4, alle informazioni usate
dai traders algoritmici5. A quest’ultimo riguardo si è puntualmente rilevato, da un lato, che gli
investitori algoritmici utilizzano informazioni irrilevanti per gli investitori “umani” (come quelle
relative al numero di volte in cui la notizia si è ripetuta); dall’altro, e soprattutto, che una dilatazione
della nozione di informazione privilegiata sino al punto da ricomprendervi anche le informazioni utili
per i traders algoritmici verrebbe a porsi in contrasto con le finalità proprie degli stessi istituti e
porrebbe oneri e vincoli particolarmente estesi a carico degli emittenti e degli investitori6.
       Su un secondo versante, interpreti e legislatori si interrogano sulla opportunità di stabilire nuovi

       1
          L’espressione “CorpTech governance” è stata coniata da L. ENRIQUES-D. ZETZSCHE, Corporate Technologies
and the Tech Nirvana Fallacy, in Hastings Law Journal, 2020, 72, 55 ss., 59 s., per distinguerla dall’espressione
“RegTech”, riferita alle forme di utilizzo della tecnologia per fini regolatori e di vigilanza; per uno spunto in ordine alla
possibile utilizzazione nell’ambito dell’organizzazione societaria degli strumenti di intelligenza artificiale, ai quali fanno
ricorso le autorità di vigilanza nell’esercizio delle proprie funzioni, v. F. VELLA, Le società aperte: oltre il TUF? Per una
discussione, Position Paper per l’Associazione Disiano Preite, in AGE, 2019/2, 431 ss.
        2
          C. IBBA, Contenuti e forme dell’informazione societaria tra passato e futuro. Profili generali, in AGE, 2/2019,
601 ss. Sul tema v. ora gli importanti contributi raccolti negli atti del convegno in ricordo di G. ROSSI, Il caleidoscopio
dell’informazione nel diritto societario e dei mercati, a cura di P. Marchetti, F. Ghezzi, R. Sacchi, Milano, 2020.
        3
          Sulle criticità regolatorie della Libra, v. D.A. ZETZSCHE, Regulating LIBRA: The Transformative Potential of
Facebook’s Cryptocurrency and Possible Regulatory Responses, University of Hong Kong Faculty of Law Research
Paper N. 2019/042, reperibile all’indirizzo https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3414401. Per una
ricognizione delle problematiche contrattuali sollevate dalle criptovalute in ambito societario, v. F. FELIS, L’uso di
criptovaluta in ambito societario. Può creare apparenza?, in Società, 2019, 26 ss.
        4
          Regolamento (UE) n. 596/2014 del Parlamento europeo e del Consiglio del 16 aprile 2014 relativo agli abusi di
mercato (regolamento sugli abusi di mercato) e che abroga la direttiva 2003/6/CE del Parlamento europeo e del Consiglio
e le direttive 2003/124/CE, 2003/125/CE e 2004/72/CE della Commissione, 12 giugno 2014, OJL 173/1: in argomento v.
M. VENTORUZZO-S. MOCK, Market Abuse Regulation: Commentary and Annotated Guide, 2017, Oxford University
Press.
        5
          Sul tema v. per tutti F. ANNUNZIATA, I processi di mercato automatizzati e il trading algoritmico, in M. Cian e
C. Sandei (a cura di), Diritto del Fintech, Milano, 2020, 397 ss.
        6
          Così G. STRAMPELLI, L’informazione societaria a 15 anni dal TUF: Profili evolutivi e problemi, in questa Rivista,
2014, 1038 ss. Per un quadro aggiornato sulla regolamentazione degli algoritmi v., nella letteratura italiana, il numero
monografico di AGE, 1/2019, Algoritmi. Se li conosci, li regoli…, a cura di A. Nuzzo e G. Olivieri.

                                                              3
strumenti di disciplina di queste tecnologie innovative, tali da calibrare le tutele ai rischi individuati.
In questo ambito si iscrive l’introduzione in capo ai soggetti che pongono in essere negoziazioni con
attività algoritmiche degli obblighi e dei presidi qualificati di cui all’art. 67-ter TUF7; e sempre a tale
filone tematico può ricondursi l’ampio dibattito sviluppatosi in una prospettiva de jure condendo
attorno a Fintech8 e, in particolare, alle proposte per colmare le perduranti lacune normative nella
regolamentazione delle criptovalute9.
       Nel ventaglio delle trasformazioni tecnologiche registrate in campo societario, il crescente
ricorso di innovazioni connesse all’intelligenza artificiale ha innescato un processo di progressiva
irradiazione dei processi informatizzati dalla dimensione dell’attività d’impresa a quella degli assetti
organizzativi, sino a coinvolgere il funzionamento degli stessi organi della società. Un processo che
solleva una pluralità di quesiti sul fronte teorico e pratico-operativo: dalla riconfigurazione
dell’organo amministrativo, come variamente modellato e supportato dalla tecnologia,
all’aggiornamento delle competenze richieste ai soggetti che si servono dei (o che comunque si
accostano ai) nuovi strumenti tecnologici, alla definizione di una più articolata tassonomia di
responsabilità. Si tratta di questioni tanto delicate, quanto ineludibili, suscettibili di riperimetrare i
principi di corretta amministrazione, la portata della business judgement rule, ma prima ancora lo
stesso business purpose, in funzione dell’ampliamento dell’interesse sociale in una prospettiva di
sostenibilità di lungo periodo e di inedite – e più efficienti – modalità di conseguimento degli obiettivi
che verso lo stesso convergono.
       La complessità della metamorfosi tecnologica della società, nella sua dinamica interna di
governo ed esterna di mercato, richiede in prima battuta un actio finium regundorum sulla tecnologia
responsabile dei mutamenti in atto. Questa azione definitoria è peraltro resa disagevole dalla diversità
degli strumenti informatici che stanno venendo a incidere sulla fisionomia dell’attività e
dell’organizzazione dell’impresa societaria, ma anche dalla loro frequente interconnessione.
Ciononostante, prima ancora di vagliarne le funzioni e le connesse implicazioni giuridiche, sembra
possibile operare una categorizzazione degli strumenti rilevanti nel contesto societario in
considerazione delle diverse caratteristiche che ciascuno di essi presenta sul piano strutturale.
       In questa prospettiva si può operare in via preliminare una distinzione tra a) i sistemi sviluppati
su tecniche di intelligenza artificiale e b) gli strumenti basati su c.d. distributed ledger technologies,
di cui blockchain e smart contracts sono diretta espressione.
       a) La nozione di intelligenza artificiale comprende una vasta tipologia di sistemi, capaci di
effettuare operazioni cognitive complesse che tentano di riprodurre quelle umane, attraverso l’utilizzo
di sensori che rilevano contesti esterni e di attuatori che modificano gli stessi10. Questi sistemi sono

       7
          Vedi F. ANNUNZIATA, Il recepimento Mifid II: uno sguardo d’insieme tra continuità e discontinuità, in questa
Rivista, 2018, 110 ss.
        8
          Sui più recenti sviluppi del Fintech v., per tutti, C. SCHENA - A. TANDA - C. ARLOTTA - G. POTENZA, Lo sviluppo
del Fintech. Opportunità e rischi per l’industria finanziaria nell’era digitale, in Quaderni Fintech della Consob, 1 marzo
2018, reperibile online www.consob.it, nonché il documento del FINANCIAL STALIBITY BOARD, Artificial intelligence and
machine learning in financial services. Market developments and financial stability implications, 1° novembre 2017,
reperibile online all’indirizzo www.fsb.org.
        9
          BANCA D’ITALIA, Le nuove frontiere dei servizi bancari e di pagamenti tra PSD II, criptovalute e rivoluzione
digitale, a cura di F. Maimeri e M. Mancini, settembre 2019, reperibile online all’indirizzo
https://www.bancaditalia.it/pubblicazioni/quaderni-giuridici/2019-0087/qrg-87.pdf, in particolare i contributi di N. DE
GIORGI, Criptovalute: l’approccio dei policymakers, 205 s. e di N. RUCCIA, Criptovalute e modelli di sorveglianza, 219
ss. (spec. a p. 221).
        10
            COUNCIL OF EUROPE, What’s AI?, reperibile online all’indirizzo https://www.coe.int/en/web/artificial-
intelligence/what-is-ai. Nella ormai vasta letteratura sul concetto e il funzionamento dell’algoritmo, si vedano, per tutti,
S. BRINGSJORD - N.S. GOVINDARAJULU, Artificial Intelligence, in Stanford Encyclopedia of Philosophy, 12 luglio 2018,
reperibile online all’indirizzo https://plato.stanford.edu/entries/artificial-intelligence/; E. FINN, What Algorithms Want,
Imagination in the Age of Computing, 2017 (ed. ita. Che cosa vogliono gli algoritmi, L’immaginazione nell’era dei
computer, Torino, 2018); P. DOMINGOS, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will
Remake Our World (ed. ita. L’algoritmo definitivo, La macchina che impara da sola e il futuro del nostro mondo, Torino,
2016); C. TOFFALORI, Algoritmi, Bologna, 2015; J. MCCARTHY, What is Artificial Intelligence?, 12 novembre 2007,

                                                             4
alimentati dai c.d. big data, ossia da tutte quelle informazioni raccolte a mezzo di dispositivi digitali11,
che algoritmi di machine learning processano tracciando correlazioni e classificazioni12. Queste
ultime sono l’output di processi computazionali che si autoalimentano secondo un processo induttivo
automatizzato in grado di creare dei veri e propri modelli estratti dalla struttura dei dataset iniziali13.
Tra gli algoritmi di machine learning, degni di particolare considerazione sono gli algoritmi c.d.
predittivi, i quali rilevano correlazioni prospettiche utili a orientare scelte strategiche sulla base di
quanto è stato appreso dai dati14. I programmi più sofisticati hanno inoltre la capacità strutturale di
adattarsi continuamente in base ai nuovi dati che ricevono e generano per formulare nuovi modelli,
così consentendo all’intelligenza artificiale di svolgere i propri compiti in maniera più efficiente e
autonoma. Siamo di fronte a macchine che trascendono la dimensione esecutiva, essendo in grado di
apprendere attraverso l’esperienza e l’interazione (dal self-learning sino all’affective computing), di
adeguare il loro comportamento all’ambiente in cui operano e di agire in contesti – e reagire a
situazioni – diversi e ulteriori rispetto a quelli per i quali erano state programmate. Tra i numerosi
tentativi definitori, uno dei più significativi è offerto dalla risoluzione del Parlamento europeo del
2017, che, nel formulare “raccomandazioni alla Commissione concernenti norme di diritto civile
sulla robotica”, individua l’autonomia della macchina nella sua abilità di “prendere decisioni e
metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna”, con
la precisazione che tale autonomia è “di natura puramente tecnologica” e che il suo livello “dipende
dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente”15.
       Gli strumenti di intelligenza artificiale possono presentare un più o meno elevato grado di
autonomia dal quale dipende anche il carattere trasformativo dei medesimi, che a sua volta ne
determina la capacità di “generare profondi e dirompenti cambiamenti”16.
       b) Una particolare tipologia di intelligenza artificiale è rappresentata dalle tecnologie di
blockchain, basate sulle c.d distributed ledger technologies. Queste si articolano su una struttura di
dati condivisa e immutabile attraverso la quale vengono gestite transazioni trasmesse a più nodi di
una rete in cui ciascuna transazione viene validata17. La caratteristica che connota questa tecnologia
è data dalla sua natura decentralizzata e distribuita, che assicura che l’alterazione delle registrazioni

reperibile online all’indirizzo http://jmc.stanford.edu/articles/whatisai.html.
        11
           M. RICOLFI, Il futuro della proprietà intellettuale nella società algoritmica, in Giur. it., 2019, 10 ss.
        12
           Si veda in generale, S.J. RUSSEL - P. NORVIG, Artificial Intelligence: A Modern Approach, London, 2020, 721
ss.
        13
           COUNCIL OF EUROPE (nt. 10).
        14
            G. COMANDÈ, Intelligenza artificiale e responsabilità tra “liability” e “accountability”. Il carattere
trasformativo dell’IA e il problema della responsabilità, in AGE, 1/2019, 169 ss.
        15
            PARLAMENTO EUROPEO, Risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione
concernenti norme di diritto civile sulla robotica (2015/2103(INL)), reperibile online all’indirizzo https://eur-
lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52017IP0051&from=IT, Considerando AA. In argomento v. ora
A. ADINOLFI, L’Unione europea dinanzi allo sviluppo della intelligenza artificiale: la costruzione di uno schema di
regolamentazione europeo tra mercato unico digitale e tutela dei diritti fondamentali, in Il ragionamento giuridico
nell’era dell’intelligenza artificiale, a cura di S. Dorigo, Pisa, 2020, 13 ss.e F. PACILEO, L’intelligenza artificiale nel
prisma dell’impresa (anche bancaria): evoluzione normativa e prospettive di studio, scritto inedito consultato grazie alla
cortesia dell’Autore. L’espressione “artificial intelligence” è stata coniata nel 1956 dal matematico statunitense John
McCarthy; tra le molteplici definizioni che si sono da allora prospettate, una delle più accreditate è quella prospettata dal
documento della Stanford University (Artificial intelligence and life in 2030. One hundred year study on Artificial
Intelligence,                    2016,                     reperibile                  online                     all’indirizzo
https://ai100.stanford.edu/sites/g/files/sbiybj9861/f/ai_100_report_0831fnl.pdf, 5,), che la identifica in “un insieme di
tecniche computazionali che vengono ispirate – pur operando tipicamente in maniera diversa – dal modo in cui gli esseri
umani utilizzano il proprio sistema nervoso e il proprio corpo per sentire, imparare, ragionare e agire”.
        16
           G. COMANDÈ (nt. 14), 173.
        17
           Le distributed ledger technologies (DLT) sono definite come tecnologie che consentono “la registrazione e la
conservazione di dati attraverso archivi multipli (ledger), ognuno dei quali contiene contemporaneamente gli stessi dati
che sono conservati e controllati da una rete di computer (nodi)”. Per una recente disamina sul tema si veda A.U. JANSSEN
- F.P. PATTI, Demistificare gli smart contracts, in Osservatorio sul diritto civile e commerciale, 2020, 31 ss.

                                                              5
possa avvenire unicamente con la partecipazione di tutti i membri del network18. Ne consegue che il
dato inserito e fatto circolare in sistemi di blockchain è veritiero e monitorabile per tutti gli operatori
senza l’intervento o il contributo di un’autorità terza, al punto da indurre alcuni autori a parlare di
trustless technology19.
       Le medesime tecnologie di blockchain strutturano i c.d. smart contracts, nuove forme di
contrattazione intelligenti che autodeterminano il loro contenuto in base all’oggetto e alla causa
definita dalle parti: il contratto viene in questo caso amministrato interamente dall’intelligenza
artificiale attraverso elementi automatici self-executing e un sistema di blockchain proprietario traccia
le prestazioni20. Gli smart contracts possono, a loro volta, essere connessi da data feeds, vale a dire
contratti che permettono la circolazione di informazioni tra smart contracts21. La rilevanza di queste
tecnologie per lo svolgimento dell’attività d’impresa ha recentemente indotto il legislatore italiano a
codificare una nozione di smart contracts, definiti dalla l. 12/2019 di conversione del d.l. 135/2018,
quali programmi che operano “su tecnologie basate su registri distribuiti e la cui esecuzione vincola
automaticamente due o più parti sulla base di effetti predefiniti dalle stesse”22.

       Le tecnologie sin qui descritte sono alla base, da un lato, delle crescenti potenzialità di
trasmissione dei dati e, dall’altro, della sempre più elevata e sofisticata capacità computazionale dei
sistemi utilizzabili da parte delle imprese23. Le stesse costituiscono dunque l’infrastruttura, nella
dimensione gestionale interna, di nuovi meccanismi automatizzati impiegati a scopo decisionale e di
riunione e nella prospettiva di mercato, di strumenti di trading automatizzato e di nuovi prodotti
finanziari digitali24.
   Sulla base di queste considerazioni introduttive, nel presente studio si procederà a una ricognizione
dei riflessi sul diritto societario, e in particolare sul sistema di corporate governance, del crescente
utilizzo delle tecnologie di intelligenza artificiale nelle realtà aziendali, dai livelli più strettamente
operativi sino a quelli apicali e propriamente gestionali. Alla luce delle molteplici occasioni di
interazione tra nuove tecnologie e assetti societari si profila l’interrogativo se le trasformazioni in atto
richiedano un radicale ripensamento del quadro giuridico in materia societaria ovvero se sia più
opportuna, oltreché possibile, un’interpretazione evolutiva dello stesso che rimanga aderente ai
principi e regole cardine del sistema attuale. L’indagine si colloca in questa seconda prospettiva,
articolandosi in una prima parte di carattere più generale, in cui si esplora la relazione tra intelligenza
artificiale, assetti imprenditoriali, disciplina in materia di protezione di dati personali e sostenibilità;
e una seconda in cui si trattano temi più specifici in materia di corporate governance.

       18
           D. TAPSCOTT - A. TAPSCOTT, Blockchain Revolution: How The Technology Behind Bitcoin is Changing Money,
Business and the World, New York, 2016; T. ASTE, P. TASCA, T. DI MATTEO, Blockchain Technologies: the Foreseeable
Impact on Society and Industry, in Computer, 2017, 18 ss.
        19
           Così M. FINK, Blockchains: Regulating the Unknown, in German Law Journal, 2018, 19, 665 ss. (spec. a p.
669).
        20
           In tema di smart contracts cfr. A. NUZZO, Algoritmi e Regole, in AGE , 2019, 1, 39 ss.; R. PARDOLESI - A.
DAVOLA, “Smart contract”: lusinghe ed equivoci dell’innovazione purchessia, in Foro italiano, 2019, 195 ss. Per un
inquadramento degli smart contracts alla luce del diritto generale dei contratti, S. CERRATO, Contratti tradizionali, diritto
dei contratti e smart contract, in R. Battaglini - M. Tullio Giordano, Blockchain e smart contract. Funzionamento, profili
giuridici e internazionali, applicazioni pratiche, Milano, 2019, 273 ss.
        21
           K. WERBACH - N. CORNELL, Contracts ex Machina, in Duke Law Journal, 2017, 67, 313 ss.
        22
           Così art. 8-ter, comma 2 della l. 12/2019 di conversione del d.l. 135/2018, rubricato “tecnologie basate su registri
distribuiti e smart contract”. La disposizione ha cura di precisare che “[g]li smart contract soddisfano il requisito della
forma scritta previa identificazione informatica delle parti interessate, attraverso un processo avente i requisiti fissati
dall’Agenzia per l’Italia digitale con linee guida da adottare entro novanta giorni dalla data di entrata in vigore della legge
di conversione del presente decreto”.
        23
           E v. ora F. ANNUNZIATA (nt. 5), 397 ss.
        24
           A. NUZZO, Contenuti e forme dell’informazione societaria tra passato e futuro- Titoli e operatori atipici nell’era
dell’algoritmo, in AGE, 2/2019, 573 ss.

                                                              6
2.   La varietà delle occasioni di impiego delle tecnologie di intelligenza artificiale nel
contesto societario impone innanzitutto la distinzione dei vari piani su cui le nuove tecnologie in
esame vengono ad interagire con il medesimo.
       A questo riguardo, sembra possibile individuare tre distinti piani di interazione tra strumenti di
intelligenza artificiale e assetti societari.

       i)    L’utilizzo di strumenti di IA per l’organizzazione e il funzionamento societario interno.
Per quanto concerne l’impatto sulla governance societaria, l’intelligenza artificiale ha assunto – ed è
destinata ad assumere in misura sempre più marcata – un ruolo rilevante nella definizione delle scelte
e delle strategie di governance. In questo senso, il ricorso a strumenti di connessione virtuale, già da
tempo alla base della prassi del “virtual shareholder meeting”, sempre più diffusa e finanche imposta
dalla recente disciplina emergenziale di contrasto alla pandemia25, pare destinato ad ulteriori e più
significativi sviluppi in relazione a innovative modalità di voto basate su tecnologie di blockchain e
a forme di verbalizzazione della partecipazione dei soci all’assemblea fondate su tecnologie di smart
contracts26.
       Analoghe evoluzioni riguardano gli organi di amministrazione e controllo, che già si ritengono
legittimati a tenere le rispettive riunioni in modalità full audio-video, senza indicazione nell’ordine
del giorno del luogo di convocazione, mentre nelle realtà di gruppo o divisionali tecniche di
monitoraggio continuo permettono di migliorare processi comunicativi tra i vari organi gestori,
rendendoli più efficienti.
       In termini più in generali si delinea la prospettiva dell’inclusione dell’intelligenza artificiale
nell’ambito degli assetti organizzativi, amministrativi e contabili della società27. Il tema si declina in
una serie di questioni che si intersecano tra loro radialmente: in quale misura possono dirsi adeguati
assetti societari che non facciano ricorso all’intelligenza artificiale? Quale ruolo può rivestire
l’intelligenza artificiale nella elaborazione dei dati che consentono di percepire tempestivamente i
segnali di crisi e di prevenire in tal modo derive liquidatorie, conservando la continuità aziendale? E
quale ruolo nella definizione dello strumento più adatto per risolvere la crisi stessa, e nella verifica
dei risultati dei piani di risanamento? E ancora, sotto altro versante, di quali conoscenze tecniche
devono disporre i componenti dell’organo amministrativo per utilizzare consapevolmente gli
algoritmi28?

      ii) Gli strumenti di IA come strumenti sia di supporto sia di output dell’attività di impresa.
Per quanto concerne la trasformazione digitale dell’attività di impresa, gli strumenti di c.d.
trattamento algoritmico di dati sono usati, ad esempio, per attività di marketing, nella forma di attività
di profilazione29 sulla base della quale vengono adottate pratiche di pubblicità personalizzata o di
discriminazione di prezzo30. Ancora, a supporto dell’attività di impresa, crescente è il ricorso a forme

       25
           Modalità di svolgimento interamente da remoto dell’assemblea sono state di recente previste dall’art. 106 del
decreto legge n. 23/2020, emanato in risposta all’emergenza da Covid-19. Sul punto vedi più diffusamente infra para 9.
        26
           L. ENRIQUES - D. ZETZSCHE (nt. 1), 62 ss.
        27
           Sul tema v. gli spunti di G.D. MOSCO, Roboboard. L’intelligenza artificiale nei consigli di amministrazione, in
AGE, 1/2019, 247 ss., ripresi da N. ABRIANI, La corporate governance nell’era dell’algoritmo. Prolegomeni a uno studio
sull’impatto dell’intelligenza artificiale sulla corporate governance, in NDS, 2020, 261 ss.
        28
           E v. ancora N. ABRIANI (nt. 27), 264 e G.D. MOSCO (nt. 27), 250. Sulle esigenze di comprensione dei c.d. codici
«sorgente» e delle linee guida di carattere tecnico in base ai quali sono programmati e funzionano i sistemi di intelligenza
artificiale v. P. MÖSLEIN, Robots in the Boardroom: Artificial Intelligence and Law, in Research Handbook on the Law
of Artificial Intelligence, a cura di W. Barfield e U. Pagallo, Cheltenham, 2017/2018, 649 ss.
        29
           Sul tema si rimanda a E. PELLECCHIA, Profilazione e decisioni automatizzate al tempo della black box society:
qualità dei dati e leggibilità dell’algoritmo nella cornice della responsible research and innovation, in NLCC, 2018, 1209
ss..
        30
            La dottrina si sta interrogando sulla rilevanza di tali pratiche discriminatorie, ad esempio, ai fini
dell’applicazione della disciplina antitrust. Sul punto si rimandi a M. MAGGIOLINO-C. MURACA, Personalised Prices

                                                             7
di contrattazione “smart” (smart contracts)31. Sempre in campo contrattuale, si ricorda il dibattito
attorno alla possibilità di configurare forme di integrazione automatizzata di contratti di lunga
durata32. Si stanno affermando infine pratiche di real time accounting e di analisi automatizzata di
dati a fini di due diligence33.
       Sotto una prospettiva diversa, invece, strumenti di intelligenza artificiale possono essere
l’output diretto dell’attività di impresa nella forma di prodotti e servizi digitali offerti al pubblico,
quali, nel settore finanziario, servizi di pagamento digitali e criptovalute. Queste ultime in particolare
sono prodotti finanziari atipici negoziabili su mercati non regolamentati34.
       Un esempio è costituito dai token, oggetto di Initial Coin Offerings (ICO), talvolta proposti
come strumenti partecipativi alle attività di Decentralised Autonomous Organisations (DAO)35,
ovvero estratti nell’ambito di un network orizzontale, come i Bitcoin. I token si caratterizzano per
una struttura complessa e ibrida, giacché le unità di conto registrate sui ledger sono difficilmente
sussumibili in una sola categoria, e si distinguono per specifiche tecniche di sistema e poteri che
attribuiscono a chi ne controlla la movimentazione. La funzione del token dipende dalla funzione del
sistema a cui lo stesso è associato. Secondo la classificazione ormai condivisa dalle Autorità di
vigilanza europee36, i token possono dunque essere distinti in ragione del loro diverso contenuto in i)
token di pagamento; ii) token di investimento; iii) token di utilità.
       Per quanto concerne in particolare i servizi di pagamento digitali e l’immissione sul mercato di
criptovalute, è stato osservato come questi sollevino delicati problemi di sorveglianza, in particolare
in punto di nuovo expertise informatico e ingegneristico necessario per attivare forme di controllo
adeguatamente penetranti da parte delle autorità competenti. Al riguardo, una parte della dottrina ha
sottolineato il rischio di un problema di risorse umane, direttamente discendente dalla difficoltà di
attrazione di professionalità richieste dalle autorità di vigilanza, dovute principalmente a ragioni di
insufficienza retributiva37.

      iii) L’utilizzo di strumenti di IA per la valutazione dall’esterno del funzionamento societario:
rientra in quest’ultima ipotesi il trattamento di informazioni societarie da parte di algoritmi gestiti da

under EU Antitrust Rules in European Competition Law Review, 2019, 483 ss.; v. anche E. CALZOLARI-V. DENICOLÒ-S.
PASTORELLO, Algorithmic Pricing What Implications for Competition Policy?, in Review of Industrial Organization,
2019, 55,155 ss.
        31
           C. VAN DER ELST - A. LAFARRE, Bridging the AGM to the 21st Century: Blockchain and Smart Contracting
Tech for Shareholder Involvement, European Corporate Governance Institute (ECGI) - Law Working Paper n. 358/2017,
reperibile online all’indirizzo https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2992804.
        32
           A. VERSTEIN, Privatizing Personalized Law, in The University of Chicago Law Review, 2019, 86, 551 ss. (spec.
p. 559); e già A. PORAT-L.J. STRAHILEVITZ, Personalizing default rules and disclosure with big data, in Michigan Law
Review, 2013, 112, 1417 ss. La concreta fattibilità di forme di integrazione automatizzata di contratti è tuttavia molto
dibattuta e posta in dubbio da ostacoli tecnici e pratici.
        33
           W.E. FOSTER - A. LAWSON, When to Praise the Machine: The Promise and Perils of Automated Transactional
Drafting, in South Carolina Law Review, 2018, 69, 597 ss.
        34
           In materia si segnala la recente proposta di Regolamento della Commissione europea dedicata ai mercati di
cripto-attività (c.d. MICA), v. COMMISSIONE EUROPEA, Proposal for a Regulation of the European Parliament and of the
Council on Markets in Crypto-assets and Amending Directive (EU) 2019/1937, 24 settembre 2020, COM(2020) 593 final,
reperibile       online     all’indirizzo      https://eur-lex.europa.eu/resource.html?uri=cellar:f69f89bb-fe54-11ea-b44f-
01aa75ed71a1.0001.02/DOC_1&format=PDF. Per un commento v. F. ANNUNZIATA, Verso una disciplina europea delle
cripto-attività. Riflessioni a margine della recente proposta della Commissione europea, 15 ottobre 2020, reperibile
online all’indirizzo https://www.dirittobancario.it/approfondimenti/fintech/verso-una-disciplina-europea-delle-cripto-
attivita-riflessioni-margine-recente-proposta-commissione.
        35
           A. NUZZO (nt. 24), 575.
        36
           FINMA, Guida pratica per il trattamento delle richieste inerenti all’assoggettamento in riferimento alle initial
coin offering (ICO), febbraio 2018, https://www.finma.ch/it/ news/2018/02/20180216-mm-ico-wegleitung/; EBA, Report
with advice for the European Commission on crypto-assets, 9 gennaio 2019, 14 e 15 e Esma, Advice. Initial Coin Offerings
and Crypto-Assets, ESMA50-157-1391, 9 gennaio 2019, par. 19.
        37
           L. ENRIQUES, Financial Supervisors and RegTech: Four Roles and Four Challenges, in RTDF, 2017, 53 ss.

                                                            8
soggetti terzi rispetto alla società emittente in base a tecniche di c.d. negoziazione algoritmica38.
      Queste tecniche di negoziazione si basano su predizioni algoritmiche, derivanti dal trattamento
di dati su larga scala39. Il bacino di dati da cui queste attingono è ben più ampio dei dati “ufficiali”
quali quelli iscritti nel registro delle imprese o comunque acquisiti presso le camere di commercio,
quali statuti o bilanci, o ancora dalle informazioni reperibili dai mercati regolamentati, come le
quotazioni o gli indici di borsa. I dataset rilevanti ai fini delle tecniche di negoziazione sono invero
estremamente ampi e ricomprendono informazioni variamente provenienti dal web40; ed è proprio
perché si tratta di informazioni diverse dai dati tradizionalmente utilizzati per effettuare valutazioni
di carattere economico-finanziario, che sono stati denominati alternative data41.
      Pur ricomprendendo fenomeni tra di loro diversi42, questi sistemi negoziano strumenti
finanziari mediante mezzi informatici e operano a prescindere dall’intervento umano sulla base di
algoritmi predefiniti43, per finalità di investimento che possono essere molto varie44.
      Proprio per la pluralità strutturale e funzionale che li contraddistingue, gli strumenti di trading
algoritmico possono avere effetti distorsivi non indifferenti sul funzionamento di mercato: basti
pensare all’effetto che può suscitare il riversamento sul mercato di una gran quantità di operazioni
prodotte da algoritmi matematici, con conseguenze dirompenti, in particolare, sul processo di
formazione dei prezzi. Ciò richiede una riflessione aggiuntiva sui presidi di tutela richiesti, e dunque
sugli strumenti regolatori opportuni.
      A margine dei profili più strettamente operativi legati alle nuove modalità di negoziazione
finanziaria, si profila l’interrogativo di fondo se gli strumenti algoritmici e le nuove tecniche di
accounting connesse possano incrementare, come alcuni sostengono, i livelli di trasparenza del
mercato, e di riflesso, ridurre le asimmetrie informative tra i soggetti che vi agiscono45. Un particolare
impiego degli strumenti algoritmici potrebbe essere connesso alla gestione di informazioni price
sensitive da parte degli emittenti quotati. Ove adeguatamente allenati, infatti, gli algoritmi potrebbero
rilevare in anticipo, e dunque predire, l’insorgenza di una informazione privilegiata ai sensi della
disciplina europea in materia di abusi di mercato. Gli stessi potrebbero dunque essere impiegati, ad
esempio in un grande gruppo di imprese, per il monitoraggio del processo di formazione e di
evoluzione delle informazioni price sensitive, e per fornire a riguardo valutazioni sulla sussistenza
degli estremi per ritardarne la diffusione sul mercato46.
       38
           La negoziazione algoritmica è definita all’art. 1, comma 6 quinquies TUF come “la negoziazione di strumenti
finanziari in cui un algoritmo informatizzato determina automaticamente i parametri individuati degli ordini, come ad
esempio l’avvio dell’ordine, la relativa tempistica, il prezzo, la quantità o le modalità di gestione dell’ordine dopo l’invio,
con intervento umano minimo o assente, ad esclusione dei sistemi utilizzati unicamente per trasmettere ordini a una o più
sedi di negoziazione, per trattare ordini che non comportano la determinazione di parametri di negoziazione, per
confermare ordini o per eseguire il regolamento delle operazioni”: e per un primo, puntuale, commento, v. ora F.
ANNUNZIATA (nt. 7), 115.
        39
           F. ANNUNZIATA (nt. 5), 397-398.
        40
           E sul punto v. già i rilievi di F. PACILEO, Alternativa data, corretta gestione imprenditoriale, credit scoring e
“parametro ESG”: appunti giuridici, Relazione al X Convegno annuale dell’associazione italiana dei professori
universitari di diritto commerciale “Orizzonti del diritto commerciale” - “L’evoluzione tecnologica e il diritto
commerciale”, 22-23 febbraio 2019, Roma.
        41
           G. FERRARINI, Alternative Data to Evaluate Companies According to ESG Criteria, in FinScience, 9 luglio 2018,
reperibile online all’indirizzo https://finscience.com/en/press-release/alternative-data-to-evaluate-companies-according-
to-esg-criteria/.
        42
           Si distingue tra traders algoritmici in senso stretto e traders c.d. ad alta frequenza. B. HAGSTRÖMER – L.
NORDEN, The Diversity of High-Frequency Traders, in Journal of Financial Markets, 2013, 16, 741 ss.
        43
           F. ANNUNZIATA (nt. 5), 398.
        44
           B. HAGSTRÖMER – L. NORDEN (nt. 42), 752.
        45
           D. YERMACK, Corporate Governance and Blockchains, in Review of Finance, 19 January 2017, reperibile online
all’indirizzo http://revfin.org/corporate-governance-and-blockchains-by-david-yermack/. In senso negativo, v. W.
MAGNUSON, Artificial Intelligence, in Harvard Business Law Review, 2020, 10, 338 ss., e spec. 355- 365, ove si mettono
in evidenza i rischi dell’impiego di tecniche di intelligenza artificiale nel settore finanziario.
        46
           La riflessione è diretto frutto della preziosa interlocuzione con alcuni colleghi, in particolare il Prof. Filippo
Annunziata.

                                                              9
Le potenzialità dell’utilizzo di tecnologie predittive basate sull’intelligenza artificiale al fine
del rilevamento e della gestione delle informazioni privilegiate potrebbero suggerire l’opportunità di
includere siffatte tecnologie negli assetti organizzativi richiesti dall’art. 16 dello stesso Regolamento
europeo per la prevenzione e l’individuazione di abusi di mercato, ai sensi del quale è raccomandata
l’istituzione e il mantenimento di “dispositivi, sistemi e procedure efficaci al fine di prevenire e
individuare manipolazioni del mercato e tentativi di abuso di informazioni privilegiate e
manipolazioni del mercato conformemente agli articoli 31 e 54 della direttiva 2014/65/UE”47.
       I vantaggi offerti dall’intelligenza artificiale in relazione alla gestione dei flussi informativi
avrebbero anche delle non trascurabili ricadute in punto di corporate governance, posto che una
maggiore trasparenza di mercato diminuirebbe taluni costi di agenzia legati ad attività quali la
selezione degli amministratori, ovvero le operazioni con parti correlate48. Tuttavia, occorre sin da
subito osservare come i vantaggi di una trasparenza di mercato “algoritmizzata” debbano essere
relativizzati alla luce delle problematiche, ancora largamente irrisolte, connesse alla trasparenza
algoritmica, che permane un obiettivo di difficile implementazione tecnica, ancor prima che
giuridica49.

       3.     La varietà delle fattispecie di applicazione delle nuove tecnologie nel contesto societario
suggerisce un’ulteriore considerazione preliminare. Invero, l’utilizzo di tecnologie di trattamento di
dati per orientare l’organizzazione e il funzionamento della società, e alcune fasi cruciali dell’attività
di impresa, dà luogo a un processo di “informatizzazione” della dimensione societaria, che rende la
informazione societaria stessa più complessa.
       Ciò deriva direttamente dal fatto che per effetto dell’impiego di nuove tecnologie processanti50,
assurge a informazione “societaria” l’intera catena di trattamento automatizzato di dati, come
composta i) dagli input inizialmente inseriti nella tecnologia processante; ii) dalle informazioni
riguardanti le modalità con cui gli input vengono processati (i.e. le informazioni tecniche relative a
come la tecnologia è strutturata); iii) dalle informazioni generate da tali tecnologie, nella forma, ad
es., di correlazioni e predizioni che da ultimo orientano l’organizzazione societaria e/o le strategie e
l’attività di impresa.
       Se infatti, in un modello di società pre-digitale è solo quest’ultimo tipo di informazione –
direttamente rilevante all’interno (a livello di corporate governance, i.e. flussi informativi interni) o
all’esterno (nella proiezione dei mercati finanziari, i.e. flussi informativi esterni) della società – che
viene fatto oggetto di specifica disciplina, nella diversa dimensione di un’impresa digitalizzata, tutte
le diverse componenti del ciclo informativo che conducono alla informazione finale devono essere
adeguatamente considerate dal punto di vista regolatorio.
       La considerazione della complessità del ciclo informativo attivato dalle tecniche algoritmiche
rileva in particolare per quanto concerne i bias che possono inficiare il ciclo medesimo fin dagli input,
così compromettendo a cascata gli effetti comunicativi e/o decisionali che ne conseguono. Questi
possono essere direttamente discendenti dai dataset di partenza impiegati per “allenare” il sistema;
ovvero dalle c.d. proxy discrimination51. Nel primo caso i dataset utilizzati sono incompleti ovvero

       47
           Direttiva 2014/65/UE del Parlamento europeo e del Consiglio del 15 maggio 2014, relativa ai mercati degli
strumenti finanziari e che modifica la direttiva 2002/92/CE e la direttiva 2011/61/UE, 12 giugno 2014, OJ L 173/349,
reperibile online all’indirizzo https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32014L0065&from=IT.
Corsivo aggiunto. Per un commento generale alla normativa in esame si v. F. ANNUNZIATA, “Madamina il catalogo è
questo…”. La disclosure delle informazioni privilegiate, tra regole speciali e disciplina dell’organizzazione d’impresa,
in Diritto della banca e del mercato finanziario, 2020, 427 ss.
        48
           D. YERMACK (nt. 45).
        49
           Cfr. S. WACHTER - B. MITTELSTADT - L. FLORIDI, Why a Right to Explanation of Automated Decision-Making
Does Not Exist in the General Data Protection Regulation, in International Data Privacy Law, 2017, 7, 76 ss.
        50
           C. IBBA (nt. 2), 602-603.
        51
           Mette in luce questa distinzione P. HACKER, Teaching Fairness to Artificial Intelligence: Existing and Novel
Strategies Against Algorithmic Discrimination in the EU, in Common Market Law Review, 2018, 55, 1143 ss. V. anche
S. BAROCAS, A.D. SELBST, Big Data’ s Disparate Impact, in California Law Review, 2016, 104, 671 ss e spec. 677 s.

                                                          10
affetti da errori52. Simile incompletezza o erroneità può dipendere, ad esempio, dalla presenza di bias
c.d. storici, direttamente derivanti da pregiudizi sociali che inficiano la rappresentatività dei dataset
utilizzati. Nel secondo caso, invece, il bias non è direttamente inerente ai dataset iniziali ma deriva
dall’erroneo funzionamento del modello predittivo realizzato, che dunque genera correlazioni e
predizioni inesatte, producendo una discriminazione statistica53.
       I bias vengono ad essere incorporati nel sistema ad opera del soggetto che progetta il sistema,
in via intenzionale o non intenzionale54. È dunque evidente come il modo in cui gli strumenti
algoritmici sono addestrati incida strettamente sulla performance successiva degli stessi, e anche sul
modo in cui gli stessi successivamente si auto-sviluppano in itinere.
       Deve tuttavia deve riconoscersi che, per quanto ogni algoritmo possa portare con sé errori di
programmazione e bias già presenti nei dati o nei codici di programmazione, esso costituisce anche
uno strumento molto potente per la prevenzione dei rischi insiti nella “precomprensione” umana55.
Difatti, pur dipendendo in larga parte dall’addestramento iniziale, l’auto-sviluppo proprio in
particolare degli algoritmi con proprietà adattive, contiene elementi di imprevedibile “autodichia”,
costituita dagli insegnamenti che l’algoritmo autonomamente impara dalle decisioni via via effettuate
nel contesto societario di riferimento. Se dunque prima dell’utilizzo in concreto di uno strumento di
intelligenza artificiale, lo stesso può essere impiegato in più realtà societarie, anche molto diverse tra
di loro, il suo utilizzo e allenamento in un contesto specifico determina da ultimo la sua
personalizzazione al sistema di riferimento.
       In particolare, il funzionamento self-learning di questi strumenti informatici ne determina la
dipendenza dal percorso che questi “storicamente” hanno seguito: in quest’ottica, la strutturazione
dei dataset sulla base dei quali viene calibrata la struttura predittiva è particolarmente rilevante perché
è su questi che il sistema automatizzato genererà predizioni nella forma di correlazioni “vincolate”
alle informazioni di partenza. Se l’auto-sviluppo di questi sistemi dipende in gran parte da ciò che
questi hanno imparato in passato, affiora il dubbio circa l’adeguatezza dei medesimi strumenti in
situazioni critiche caratterizzate da incertezza strutturale. In questi casi, infatti la prevedibilità degli
scenari di rischio risulterebbe nettamente compromessa dalla predeterminazione a monte degli indici
rilevanti al momento della progettazione informatica, i quali potrebbero risultare insensibili ad alcuni
fenomeni imprevedibili per l’algoritmo. A questo proposito, deve tuttavia rilevarsi come un più alto
grado di adattività propri dei sistemi di intelligenza artificiale sia destinato a determinare una
maggiore “responsività evolutiva” dei medesimi, anche in relazione a scenari prima sconosciuti56.
       Proprio l’effetto di personalizzazione e modellamento delle tecnologie sul contesto di
riferimento, suggerisce una riflessione aggiuntiva circa la neutralità delle nuove tecnologie impiegate
nel contesto societario: infatti, pur presentandosi inizialmente neutrali nei loro fini57, le stesse
finiscono dipoi, proprio in virtù della loro adattività ambientale, per recepire e promuovere i criteri,

       52
            Si tratta di quello che la letteratura definisce ‘sampling bias’. P. HACKER (nt. 51) 1147.
       53
            J.A. KROLL ET AL., Accountable Algorithms, in University of Pennsylvania Law Review, 2017, 165, 633 ss., 680-
681.
       54
           J.A. KROLL ET AL. (nt. 53), 682; P. HACKER (nt. 51), 1147.
       55
           E v. sul punto C.R. SUNSTEIN, Algorithms, Correcting Biases in Social Research: An International Quarterly,
219, 86, 499 ss.
        56
           S.J. RUSSEL-P. NORVIG (nt. 12), 36. V. anche H. EIDENMÜLLER, The Rise of Robots and the Law of Humans,
Oxford         Legal     Studies      Research       Paper      No.      27/2017,      reperibile      online      all’indirizzo
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2941001, 5, secondo cui i sistemi di intelligenza artificiale “are
unpredictable by design”. Cfr. anche A. BERTOLINI, Robots as Products: The Case for Realistic Analysis of Robotic
Applications and Liability Rules, in Law, Innovarion, Technology, 2013, 213 ss., 220 s.. La natura auto-generativa degli
strumenti informatici, se potrebbe, per un verso, mitigare i limiti di una eccessiva dipendenza dal percorso degli stessi,
rischia sotto altra prospettiva di ostacolare l’identificazione dei possibili bias invalidanti il processo di sviluppo. Inoltre,
proprietà eccessivamente adattive dei sistemi algoritmici potrebbero incrinare quel rapporto tra prevedibilità e certezza
della regola, magistralmente illustrato da G. ZACCARIA, Figure del giudicare: calcolabilità, precedenti, decisione
robotica, in Riv. dir. civ., 2020, 277 ss., e spec. 279 s.
        57
           Il tema è toccato da A. NUZZO (nt. 24), 575.

                                                              11
Puoi anche leggere