L'evoluzione dell'Intelligenza Artificiale: dall'automazione del lavoro al condizionamento reciproco

Pagina creata da Nicolo Borrelli
 
CONTINUA A LEGGERE
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

L’evoluzione dell’Intelligenza
Artificiale: dall’automazione del
lavoro al condizionamento
reciproco
Carlo Milani e Vivien García

Sommario
   L’IA affascina e spaventa. Uno spauracchio si aggira per il mondo: il timore
   che esseri tecnologici intelligenti sostituiranno gli esseri umani in (quasi) tutte
   le loro attività, a partire dal lavoro. L'IA se ne occuperebbe automaticamente,
   agendo come un aiutante magico, capace di svolgere qualsiasi compito
   assegnato.
   Attingendo alla prospettiva di Gilbert Simondon sull'alienazione tecnica,
   sosterremo che l'automazione è in realtà il livello più basso possibile di
   interazione uomo-macchina. L'analisi di Simondon offre un metodo per
   prendere le distanze sia dalla tecnofobia che dalla tecnofilia, promuovendo
   una cultura tecnica capace di sviluppare "macchine aperte", caratterizzate da
   un certo livello di variabilità nel loro funzionamento reciproco con gli umani.
   Ricordando alcune tappe fondamentali nella storia dell'IA, sosterremo che le
   cosiddette macchine digitali "intelligenti", basate su algoritmi di riduzione dei
   dati, sono caratterizzate da una modellazione statistica che talvolta tende, a
   prescindere dall’intenzione degli esseri umani coinvolti, a incorporarne alcuni
   presupposti ideologici, credenze e valori. Usando la nostra analisi
   dell'interazione umana con i motori di ricerca potenziati dall'IA, mostreremo
   come i sistemi automatizzati stiano diffondendo il condizionamento reciproco
   tra umani e macchine. Più gli esseri umani si rivolgono a queste macchine in
   modo meccanicamente semplice e non ambiguo, più esse agiscono
   "automaticamente" e sembrano "intelligenti".
   Infine analizzeremo lo sfruttamento di questi sistemi di condizionamento
   reciproco in una miriade di micro-attività digitali a scopo di lucro. L'IA in questo
   contesto si manifesta come un essere tecnico di formazione antropologica e
   manipolazione comportamentale, molto lontano dall'ideale di "macchina
   aperta" proposto da Simondon.

                                                                                                       1
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

Abstract
     A bogeyman lurks around the world: the fear that intelligent technological
     beings will substitute human beings in (almost) all their activities, starting from
     work. In this sense, AI is often perceived as a magical helper, a high
     technology (maybe the highest one) potentially capable of performing any
     task. Guided by Gilbert Simondon's takes on technical alienation, this paper
     argues that automation is actually the lowest form of human-machine
     interaction.
     Recalling some milestones in the history of AI, it makes some suggestions on
     why, regardless of their human design, the so-called 'intelligent' digital
     machines based on data reduction algorithms, tends to incorporate ideological
     assumptions, beliefs and values. And by analysing human interactions with
     search engines, it shows that automated systems implies human-machine
     mutual conditioning: the more humans address these machines in a
     mechanically, simple and unambiguous way, the more the latter act
     'automatically' and appear 'intelligent'.
     Drawing on this analysis this paper finally discusses the exploitation of that
     mutual conditioning mechanics by a myriad of for-profit digital micro-activities.
     "Trained" machines, in this context, are far away from the ideal of the
     Simondonian "open machine".

Keywords: human-machine interaction, automatism, technical alienation, digital
labor, convivial technologies, open machine, hacker pedagogy, organic internet

1.       Introduzione. IA, automazione e disoccupazione
Gli effetti sui salari sono fra le maggiori preoccupazioni riguardo all'IA (Intelligenza
Artificiale). Agitano lo spauracchio della disoccupazione di massa di origine
tecnologica. L'argomento non è nuovo: lo difendeva anche il padre nobile della
cibernetica, Norbert Wiener [Wiener, 1949]. Consiste principalmente
nell'affermare che i cambiamenti tecnologici porteranno alla disoccupazione
strutturale, poiché l'automazione sostituirà un numero sempre maggiore di
compiti umani.
Automazione è qui intesa in particolare come aspetto tecnico e applicativo della
cibernetica e della teoria dei sistemi. L’automazione è quindi l’impiego di
macchine, articolate in procedure complesse, capaci di regolare il proprio
funzionamento e di controllare mediante organi sensibili la qualità del lavoro
prodotto. Il timore è che, con l'informatica moderna, non solo i lavori manuali
(come nelle prime ondate di automazione industriale) ma anche i lavori intellettuali
che implicano progettazione, creatività e capacità decisionali potrebbero essere
effettuati da macchine “intelligenti”. Da cui verrebbe inferito che un aumento
dell’IA coincide con un aumento dell’automazione e quindi con un aumento della
disoccupazione.

                                                                                                       2
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

Nell'ultimo decennio diversi leader dell'industria tecnologica hanno rinnovato la
previsione; Bill Gates ha dichiarato che la diffusione della “software automation”
avrebbe causato una drastica riduzione dei posti di lavoro nei successivi
vent’anni [Stiegler, 2017]. L'IA, nei suoi termini stessi, gioca su opposizioni
classiche (esseri umani vs. cose, naturale vs. artificiale, creatore vs. creazione)
che possono facilmente evocare l'idea di una competizione tra esseri umani e
macchine.
L'automazione e i suoi effetti sull'occupazione non sono però necessariamente
negativi. Nel “Frammento sulle macchine” [Marx, 1973], Marx considera la
possibilità che il surplus lavorativo si trasformi in tempo libero. A suo parere la
condizione necessaria di una tale trasformazione è un cambiamento radicale nel
modo di produzione derivante da una rivoluzione proletaria.
Il nostro obiettivo qui non è sottolineare la rilevanza o meno di questi opposti
approcci alla questione, né di valutare se l'automazione avrà ripercussioni
benefiche o pregiudizievoli sull'occupazione, ma di mettere in discussione i
presupposti impliciti dell'automazione in sé.
Adottando un punto di vista prevalentemente economico, si stabilisce spesso
un'equivalenza fra progresso tecnologico e aumento del livello di automazione. Il
filosofo della tecnologia Gilbert Simondon offre una prospettiva diversa rispetto
all'automazione, in opposizione all’idea marxista dell'alienazione tecnica:
L'alienazione dell'uomo in relazione alla macchina non ha solo un senso socio-
economico; ha anche un senso psico-fisiologico; la macchina non prolunga più
lo schema corporale, né per gli operai, né per coloro che possiedono le
macchine. [Simondon, 2020, 136]
Per riconsiderare l'automazione dobbiamo comprendere meglio questo possibile
accoppiamento tra essere umano ed essere tecnico.
L'automazione è in realtà il livello più basso possibile di interazione uomo-
macchina. Attingendo alla prospettiva di Simondon sull'alienazione tecnica,
prenderemo le distanze sia dalla tecnofobia che dalla tecnofilia, promuovendo
una cultura tecnica capace di sviluppare "macchine aperte”, caratterizzate da un
certo livello di variabilità nel loro funzionamento reciproco con gli umani.
Ricordando alcune tappe fondamentali nella storia dell'IA, sosterremo che le
cosiddette macchine digitali "intelligenti", basate su algoritmi di riduzione dei dati,
sono caratterizzate da una modellazione statistica che tende talvolta, a
prescindere dall’intenzione degli esseri umani coinvolti, a incorporarne alcuni
presupposti ideologici, credenze e valori.
In questo articolo useremo la nostra analisi dell'interazione umana con le
tecnologie potenziatie dall'IA per mostrare come i sistemi automatizzati stiano
diffondendo il condizionamento reciproco tra umani e macchine. Analizzeremo
infine lo sfruttamento di questi sistemi di condizionamento reciproco in una
miriade di micro-attività digitali a scopo di lucro. L'IA in questo contesto si
manifesta come un essere tecnico di formazione antropologica e manipolazione

                                                                                                       3
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

comportamentale, molto lontano dall'ideale di "macchina aperta" proposto da
Simondon

2        L’alienazione tecnica come automazione
2.1      Automagico
L'automazione porta con sé una sorta di elemento magico perché le macchine
operano in un modo nascosto o non compreso dall'utente umano e per questo
apparentemente "magico".
Simondon esamina il mistero che circonda l'oggetto tecnico in situazioni di
alienazione tecnica, connettendolo all'automazione. Le macchine altamente
automatizzate sono solitamente sovradeterminate da un punto di vista psico-
sociale e tendono a produrre un'immagine dai connotati magici. L’introduzione
del termine "automagico" nel linguaggio colloquiale sembra corroborare questa
analisi. In Psychosociologie de la technicité, Simondon fa un esempio per
spiegarne le origini:
L'oggetto domestico è spesso accusato di meccanizzare la vita: ma in realtà è la
donna in una situazione domestica che chiede a una lavatrice o ad altre macchine
di sostituirla in un compito difficile che ha paura di far male. Le fiabe ritraggono
noi ex casalinghe, cariche di lavoro, che ci addormentiamo mentre lavoriamo,
prese dallo sconforto; ma le fate le sorvegliano, e le formiche o gli gnomi vengono
a lavorare durante la notte. Quando si svegliano, tutto è chiaro, tutto è pronto. La
lavatrice moderna è magica in quanto è automatica, e non in quanto è una
macchina. È questo automatismo che si desidera, perché la casalinga desidera
vicino a sé, per darle coraggio, un'altra casalinga, oscura e misteriosa, che sia lo
spirito benevolo della lavanderia, così come il frigorifero è quello della cucina
moderna. "Moderno" significa "magico", per il subconscio individuale dell'utente.
[Simondon, 2014, 76-77]
Viene considerata “la donna in una situazione domestica” e, come tale, in una
certa posizione nel quadro dei rapporti di potere dell’epoca. Si insiste anche sul
fatto che gran parte del lavoro di produttori e venditori sta nel “catturare [la] fame
di magia” [Simondon 2014, 76] dei loro potenziali clienti. Così, anche se la
dimensione tecnica dell'automazione non ha nulla di magico, a livello
psicosociale genera questa sensazione. La macchina automatizzata sembra far
nascere un doppio dell'operatore. La sua funzionalità ripetitiva sembra assicurare
il successo del completamento del compito e quindi libera l'operatore dall'ansia
da prestazione. Per questo Simondon considera un mito l'idea di una completa
sostituzione umana da parte delle macchine automatizzate, una versione
rinnovata del racconto del Golem. La tecnicità non porta necessariamente
automazione, ma gli umani si aspettano spesso che l'oggetto tecnico fornisca
un'automazione magica. Esso però può soddisfare questa esigenza solo in modo
imperfetto e del tutto illusorio.
Infatti, sostiene Simondon, l'automazione corrisponde a un grado di perfezione
tecnica piuttosto basso. Al contrario, le "macchine aperte" si caratterizzano per la

                                                                                                       4
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

loro apertura: integrano il loro "milieu associato" nel loro funzionamento, e possono
quindi tollerare maggiori interazioni con gli esseri umani. Ad esempio,
Le macchine da calcolo moderne non sono dei puri automi, sono esseri tecnici
che, oltre ai loro automatismi aggiuntivi (o di decisione di funzionamento di
commutatori elementari), possiedono ampie possibilità di commutazione dei
circuiti, che permettono di codificare il funzionamento della macchina
restringendone il margine di indeterminazione. […]. È ancora tramite il margine
d’indeterminatezza e non per gli automatismi che le macchine possono essere
raggruppate in insiemi coerenti, scambiare informazione le une con le altre tramite
il coordinatore che è l’interprete umano. Anche quando lo scambio d’informazione
è diretto tra due macchine (come tra un oscillatore pilota e un altro oscillatore
sincronizzato a impulsi), l’uomo interviene come essere che regola il margine
d’indeterminazione affinché sia adatto al miglior scambio possibile
d’informazione. [Simondon, 2021, 14]
Simondon parla dall’ambiente tecnico degli anni Cinquanta e Sessanta del XX
secolo. Purtroppo, da allora le macchine elettroniche sono state sviluppate nella
direzione del reciproco condizionamento fra esseri umani ed esseri tecnici. Il
condizionamento può essere visto come una particolare forma di automazione,
cioè l'automazione di un comportamento attraverso l'iterazione ripetuta di modelli
semplici, ma in evoluzione, prendendo in considerazione alcuni feedback
(retroazioni) e inserendoli in uno schema esistente. Questo condizionamento è
possibile e anzi necessario perché corrisponde al condizionamento parallelo su
larga scala degli esseri umani coinvolti nelle interazioni con le cosiddette
macchine intelligenti.

2.2 Macchine aperte, esseri umani e IA
Secondo Simondon, gli schemi deterministici delle macchine automatizzate
implicano un ambito ridotto di operazioni possibili. Invece le macchine aperte
sono soggette a una certa gamma di variabilità.
Il vero perfezionamento delle macchine, quello di cui si può dire che eleva il grado
di tecnicità, corrisponde non a un accrescimento dell'automatismo, ma al
contrario al fatto che il funzionamento di una macchina contenga un certo margine
di indeterminazione. [Simondon, 2021, 13]
Le risposte di un automa perfetto alle variazioni del milieu sono predeterminate.
Le macchine aperte, al contrario, hanno un margine di indeterminazione; possono
riadattare i loro schemi in base a queste variazioni. Come tali, hanno una vasta
gamma di possibilità di interazione con gli esseri umani.
La macchina che è dotata di un alto grado di tecnicità è una macchina aperta e
l’insieme delle macchine aperte presuppone l'uomo come organizzatore
permanente, come interprete vivente delle macchine le une in rapporto alle altre.
Lungi dall’essere il sorvegliante di una squadra di schiavi, l’uomo è l’organizzatore
permanente di una società degli oggetti tecnici […]. In tal modo l'uomo ha la
funzione di essere il coordinatore e l'inventore permanente delle macchine che

                                                                                                       5
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

sono intorno a lui. È tra le macchine che operano insieme a lui. La presenza
dell'uomo accanto alle macchine è un'invenzione continua. [Simondon, 2020, 13-
14]
In questa visione, le relazioni umane con gli oggetti tecnici non sono strumentali.
La rappresentazione delle macchine come schiavi meccanici è alla base dell'idea
di esseri umani che utilizzano oggetti tecnici come mezzi per addomesticare le
forze naturali. Ma una tale ispirazione dominatrice non può che produrre servitù
umana e tecnica, in opposizione a qualsiasi forma di emancipazione, perché “è
difficile liberarsi trasferendo la schiavitù ad altri esseri, uomini, animali o
macchine; regnare su un popolo di macchine che soggiogano il mondo intero,
vuol dire ancora regnare e ogni regno implica l'accettazione di schemi di
asservimento” [Simondon, 2017, 144]. Per evitare questo tipo di situazione, e per
ridurre l'alienazione, è necessario sviluppare un legame più stretto con gli oggetti
tecnici favorendo una cultura tecnica.
Le analisi di Simondon sono seducenti. Risuonano ancora con i nostri tempi e
permettono di uscire dalla sterile opposizione fra tecnofilia e tecnofobia. Tuttavia,
alcuni aspetti sembrano superati rispetto alla tecnologia digitale. Il modello
simondoniano di esseri umani con macchine individuali nel loro milieu associato
appare limitato rispetto a reti globali di dispositivi vari e reticolari, integrati in
processi di regolazione e governance algoritmica. L'approccio di Simondon è più
rilevante della sua analisi. Il saggio Del modo di esistenza degli oggetti tecnici è
quasi contemporaneo alla nascita dell'IA nel 1956 e alle pretese di imitare le
funzioni cognitive umane. Si impone una rassegna storica e “tecnica” per
continuare la nostra riflessione, ponendola in una prospettiva storica. Gli oggetti
tecnici sono infatti soggetti all’evoluzione sia dei materiali che delle teorie; nuovi
materiali, nuove implementazioni e nuove idee influenzano la comparsa di nuovi
artefatti e ne orientano le interazioni con gli esseri umani e l’ambiente circostante.

3.       Rinascimento dell'IA
3.1      La cibernetica, il fondamento dell'IA
La storia dell'IA è passata attraverso diverse fasi alternando grandi speranze e
cocenti delusioni: le "primavere" di grandi e costosissimi progetti e gli "inverni" di
abbandono e dismissione della maggior parte delle attività di ricerca e sviluppo,
crollo degli investimenti, e fallimento di molti programmi.
L'evento seminale dell'IA fu la conferenza estiva dell'IA del Dartmouth College,
organizzata da John McCarthy, Marvin Minsky, Nathan Rochester di IBM e Claude
Shannon nel 1956. Nel 1955, McCarthy aveva coniato il termine "Intelligenza
Artificiale" per ottenere il finanziamento dell'evento [McCarthy et al., 1955]. Voleva
distinguersi dalla "vecchia" cibernetica, termine coniato dal greco antico
kubernetes (gubernator in latino), da cui derivano i termini attinenti al “governo”.
Norbert Wiener aveva contribuito notevolmente alla diffusione del termine
“cibernetica” [Wiener 1950, 1961], definita come “controllo e comunicazione
nell’animale e nella macchina”. Allo stesso tempo, aveva sviluppato un profondo
pessimismo sull'evoluzione dei sistemi di controllo e comunicazione: razzi, robot,

                                                                                                       6
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

catene di montaggio automatizzate, reti di computer sono tutti derivati da
applicazioni di ingegneria cibernetica. In piena guerra fredda, metteva in guardia
contro il rischio per le democrazie di combattere il totalitarismo con le armi del
totalitarismo stesso, costruendo servomeccanismi: sistemi di retroazione in grado
di scatenare un'apocalisse nucleare semplicemente premendo un pulsante.
McCarthy e Minsky cercavano di migliorare i sistemi di comunicazione tra esseri
umani e macchine, in un'epoca in cui i computer occupavano intere stanze, erano
meno potenti di una calcolatrice tascabile e la comunicazione avveniva con pile
di schede perforate. Ma questi giovani ricercatori non condividevano il
pessimismo del vecchio Wiener.
Il termine da loro preferito, "intelligenza artificiale", introduceva anche un
riferimento diretto all'intelligenza anche se, di fatto, si trattava pur sempre di
automatizzare sistemi di controllo e comunicazione.
Per circa trent'anni, la potenza di calcolo rimase insufficiente per raggiungere ciò
che pionieri come Allen Newell e Herbert A. Simon avevano immaginato, come
un computer campione del mondo di scacchi o addirittura un General Problem
Solver (GPS) capace non solo di simulare il pensiero umano, ma di risolvere ogni
possibile problema [Newell, Shaw, e Alexander, 1958]. Poi, a partire dalla
seconda metà degli anni Ottanta, la diffusione dei Personal Computer (PC) e
l'evoluzione del progetto di difesa militare DARPA in quello che oggi conosciamo
come Internet, portarono gradualmente la cibernetica e l’IA ovunque
Oggi rimangono intatte le questioni fondamentali: “chi saranno i kubernetes?”,
“chi governerà l'IA e come?”. Enormi sforzi vengono fatti nella propaganda di
forme di IA “buona e gentile”, per scongiurare gli avvertimenti di Wiener, che però
sembrano più che mai attuali e riguardano l'intero pianeta [Brockman, 2019].
Ogni "primavera" dell'IA porta un'infinità di articoli, saggi e titoloni che annunciano
la nascita di una nuova generazione di esseri intelligenti. Porta anche film, serie
TV, videogiochi, una massa di conversazioni e attenzione spasmodica. Negli
ultimi settant'anni vari approcci hanno occupato le luci della ribalta, hanno
guadagnato slancio e hanno attirato notevoli finanziamenti privati e pubblici.
Eppure, secondo l'esperto di algoritmi evolutivi e ricercatori di IA da un trentennio,
Robert Elliot Smith,
La realtà dell'attuale IA è che non ci sono stati spettacolari cambiamenti di
paradigma; ciò che è cambiato è la disponibilità, l'ubiquità, la velocità e
l'interconnessione dei computer e, cosa più importante, l'enorme interesse
commerciale dietro l'impresa IA. Questa empia convergenza di scientismo,
computazione e mercificazione è diventata essa stessa un sistema complesso,
che si esibisce in modi difficili da comprendere e controllare, manifestando al
tempo stesso tutti i difetti e i pregiudizi già evidenziati (traduzione nostra). [Smith,
2019, 300].
Esploriamo questa congiuntura senza precedenti tra bias umani e macchinici,
cioè fra le inclinazioni cognitive e operative degli umani (sia di chi ha ideato i

                                                                                                       7
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

modelli in base ai quali vengono addestrate le macchine, sia dei “semplici” utenti)
e il rinforzo comportamentale che le macchine stesse inducono negli utenti umani.

3.2      Condizionamento reciproco uomo-macchina dietro
         l'apprendimento profondo
A prescindere dalla stagione, alcune applicazioni concrete filtrano dai laboratori
di ricerca per approdare sul mercato; spesso le merci spuntano in settori lontani
da quelli inizialmente immaginati. Oggi possiamo interagire con assistenti vocali
alla ricerca della nostra musica preferita, con bot che imperversano sui social
network, con sistemi di riconoscimento facciale che fanno capolino quasi
ovunque e così via. Queste e molte altre comodità derivano dalla ricerca nel
vasto campo dell'IA, ma siamo lontani dall'aver capito come funziona
l'intelligenza degli esseri viventi e ancor più dall'averla riprodotta artificialmente.
Come Smith discute approfonditamente nel suo saggio, nella seconda decade
del XXI secolo stiamo assistendo a un ennesimo revival dell'IA grazie a un
rinnovato interesse per una nuova versione del paradigma connessionista. Nel
connessionismo l'analogia funzionale si sposta dalla mente (tipica del paradigma
simbolico-cognitivista) al cervello umano e alle reti neurali biologiche. L'attività
della mente risulta distribuita tra le connessioni delle unità di calcolo (i “neuroni”);
non è quindi analizzabile nei singoli processi cognitivi. La macchina
connessionista "impara" iterando modelli di calcolo sotto forma di algoritmi,
principalmente costrutti condizionali di tipo IF-THEN-ELSE [Skarda, 1992].
Uno dei principi connessionisti più importanti è che le reti di unità semplici,
indipendentemente dai simboli utilizzati, possono descrivere ciò che si suppone
stia dietro il comportamento intelligente, cioè i fenomeni mentali. Queste unità
sono per lo più uniformi e interconnesse, ma ci sono diversi tipi di connessioni e
unità possibili a seconda del modello adottato. Il modello connessionista di gran
lunga più comune e conosciuto è ispirato al cervello. Si parla quindi di reti neurali,
in cui i singoli nodi (le unità di calcolo) delle reti sono le unità che rappresentano
i neuroni, mentre le connessioni tra loro potrebbero rappresentare le sinapsi.
Il modello connessionista usato nell'apprendimento delle macchine deriva dal
primo comportamentismo, il quale postula che l'apprendimento è il risultato della
formazione di associazioni tra Situazioni (e gli stimoli che ne derivano) e Risposte
(S-R). Negli animali tali associazioni, che possono essere misurate e quantificate,
costituiscono abitudini caratteristiche, suscettibili di rafforzarsi o indebolirsi a
seconda del tipo e della frequenza degli accoppiamenti S-R. Sono, come
affermava Edward L. Thorndike nel suo libro del 1898, "la connessione di un certo
atto con una certa situazione e il conseguente piacere" [Thorndike, 1898, 29].
Grazie alle ricompense, certe risposte arrivano a surclassare le altre perché gli
animali le associano a sensazioni piacevoli nel corso dei processi di
apprendimento per tentativi ed errori. I connessionisti, come i comportamentisti,
credono che l'apprendimento possa essere adeguatamente spiegato senza fare
riferimento a stati interni non osservabili.

                                                                                                       8
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

Probabilmente non è un caso che l'attuale diffusione delle tecniche di deep
learning (apprendimento profondo) per l'addestramento dell'“intelligenza” nelle
macchine si sviluppi in parallelo con l'ampia diffusione degli approcci
comportamentali nella psicologia umana e in molti altri campi, per quanto
mescolati a quelli cognitivi. Allontaniamoci un po' dalla singola macchina di
calcolo, dal clamore per questo o quel risultato di "macchine che battono le
prestazioni degli umani", dalla matematica e dagli algoritmi intelligenti,
dall'enorme potenza di calcolo. Consideriamo in maniera più generale il
funzionamento concreto dei processi di deep learning. Sottoinsieme del machine
learning (in italiano, correttamente tradotto con apprendimento automatico),
indica un insieme di tecniche basate su reti neurali artificiali organizzate in diversi
strati, dove ogni strato/livello (layer) calcola i valori per quello successivo. Si basa
su classi di algoritmi di apprendimento automatico che utilizzano livelli multipli
(iterazioni, cioè ripetizioni procedurali) per estrarre progressivamente
caratteristiche di livello superiore dall'input grezzo.
La nostra ipotesi è che si tratta di una tipologia di apprendimento automatico che
può essere descritta come un modo di condizionare le macchine. Il
condizionamento può essere visto come una particolare forma di automazione,
cioè l'automazione di un comportamento attraverso l'iterazione ripetuta di modelli
semplici, ma in evoluzione, prendendo in considerazione alcuni feedback
(retroazioni) e inserendoli in uno schema esistente. Questo condizionamento è
possibile e anzi necessario perché corrisponde al condizionamento parallelo su
larga scala degli esseri umani coinvolti nelle interazioni con le cosiddette
macchine intelligenti.
Più gli esseri umani si rivolgono a queste macchine in modo meccanicamente
semplice e non ambiguo, andando incontro alla tendenza degli algoritmi a
semplificare e quantificare seguendo schemi di automazione, più le macchine
agiscono "automaticamente" e sembrano "intelligenti". L'esperienza acquisita
dagli esseri umani con i motori di ricerca sul World Wide Web è forse il modo più
semplice per esemplificare questa tesi.
Innanzitutto la maggior parte delle persone non ha idea di come funzionino gli
algoritmi di ricerca. In questo senso patiscono decisamente l'alienazione tecnica
segnalata da Simondon. In ogni caso, il macchinario al lavoro non è aperto allo
scrutinio umano, ma nascosto, configurando una black box, una scatola nera e
chiusa. Gli input entrano nella scatola attraverso l'angusto spazio vuoto deputato
all'interrogazione umana; gli output escono sotto forma di liste di risultati ordinati
secondo criteri non espliciti, ma certamente personalizzati e su misura in base
alla domanda stessa e, se non alla persona stessa, almeno al profilo disponibile
della persona. Questa crescente personalizzazione contribuisce alla sensazione
di trovarsi di fronte a comportamenti intelligenti.
In secondo luogo l'essere umano tende a rapportarsi al sistema di ricerca come
a un oracolo: non solo non comprende i dettagli del suo funzionamento e non è
quindi in grado di intervenire, riparare e modificare l'essere tecnico, ma addirittura

                                                                                                       9
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

vi si avvicina come a una fonte automatica di verità, o almeno di risposte generate
in modo automatico, cioè automagicamente.
Certo, il lavoro di ricerca in un enorme bacino di dati è svolto da algoritmi, che
operano a velocità straordinarie navigando nei meandri della rete. Eppure, se
guardiamo più da vicino, scopriamo l'esistenza di un lavoro altrettanto
fondamentale svolto dagli esseri umani in modo spesso del tutto inconsapevole,
eppure talvolta veicolato sotto forma di "uso corretto" dell'interfaccia del sistema.
Consideriamo un'esperienza comune. Quando gli umani iniziano a riempire il
campo vuoto del motore di ricerca di Google, dove il cursore lampeggia, di solito
hanno cura di inserire qualche parola chiave che sembra adatta a descrivere ciò
che stanno cercando. Tendono a evitare di complicare troppo le cose e non di
rado optano per le ricerche suggerite dal sistema, cioè quelle più ricercate. Il
comportamento umano nei confronti della macchina è quindi semplificato e
adattato a parametri statisticamente quantificabili. SE la maggior parte degli utenti
con caratteristiche analoghe a me (ad esempio, il browser configurato in lingua
italiana) ha cliccato un certo risultato, ALLORA automaticamente il sistema
proporrà quel risultato per primo, perché statisticamente più cliccato dal gruppo
di utenti a cui il sistema mi ha assegnato. ALTRIMENTI cercherà un risultato più
vicino a quelle che ha identificato come caratteristiche che mi determinano,
assimilandomi statisticamente ad altri utenti. Il costrutto condizionale IF-THEN-
ELSE è all’opera
Semplificazione e quantificazione non sono concetti comuni per definire
"l'intelligenza", eppure questi sono i due principali attributi degli attuali sistemi di
IA. Questo comportamento non è il risultato del caso, una caratteristica "emersa"
dalle macchine grazie a un implacabile processo evolutivo, ma il risultato di un
lungo processo di selezione, aggiustamento e perfezionamento di algoritmi e
tecniche basato su presupposti teorici e ideologici.

3.3      I fondamenti tecnologici dell'IA
La prima base tecnologica dell'IA è la semplificazione. Gli umani semplificano le
loro domande perché questa è una condizione per rendere le loro domande
comprensibili alle macchine.
Per comodità, continuiamo con l'esempio del motore di ricerca. Come fanno le
macchine a “capire” e distinguere il significato di una domanda umana su
argomenti lontani relativi a contesti differenti, come un concetto legato alla
teologia, alla storia dell'arte, al risultato di una partita di calcio giocata decenni fa
o alla prossima programmazione dei cinema della zona? Dopo il fallimento
dell'approccio dei sistemi esperti (in cui i problemi vengono rappresentati
mediante simboli comprensibili dall’essere umano), i ricercatori hanno cominciato
a supporre che non fosse rilevante per le macchine capire la semantica e si sono
liberati del problema del contesto semplicemente ignorandolo. I sistemi hanno
solo bisogno di semplificare la domanda e di essere in grado di calcolarne la
rilevanza “indovinando” a cosa si riferisce la domanda.

                                                                                                       10
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

Questo approccio connessionista si è dimostrato straordinariamente efficace
perché è un modo di "trovare un risultato" estremamente economico dal punto di
vista computazionale. Invece di essere effettivamente "esperto" di qualsiasi
argomento, il sistema deve “solo” aver classificato le informazioni in base a parole
chiave appropriate. Quando queste parole chiave vengono trovate nella richiesta,
il sistema evita di vagliare altre possibili risposte che non contengono quelle
parole chiave. Le parole chiave sono modelli estremamente semplificati che
rappresentano la conoscenza reale descrivendo alcuni dei suoi aspetti, non la
conoscenza stessa. Non stiamo negando l'incredibile utilità di questo tipo di
tecnica, ma sottolineando la necessità di essere consapevoli dei limiti strutturali
di queste procedure di modellazione. Una citazione molto nota dello statistico
inglese George Box spiega chiaramente questo problema: “Tutti i modelli sono
sbagliati, ma alcuni sono utili” [Box, 1979].
Naturalmente stiamo semplificando, ma il punto essenziale da tenere a mente è
che queste procedure euristiche abilitate algoritmicamente (riduzione dei dati,
ecc.) sono necessarie per far fronte alle sottigliezze dei linguaggi umani naturali.
Cosa succede però se una data parola chiave appare sia in una serie di risultati
di teologia che in una serie di risultati di partite di calcio? In realtà è un'ipotesi
meno ridicola di quanto possa sembrare a prima vista. Ad esempio: dal portatile
con cui stiamo scrivendo questo articolo, apriamo un browser web, andiamo alla
pagina di un motore di ricerca e inseriamo la query “Mano di Dio”. Si può fare lo
stesso con la voce, chiedendo a un assistente vocale “Cos'è la mano di Dio?” I
possibili risultati riguardano la teologia, se si cercava l'antico motivo dell'arte
ebraica e cristiana per rappresentare Dio senza raffigurare una figura umana
completa. Ma anche a una famosa partita di calcio durante la Coppa del Mondo
FIFA del 1986, quando il calciatore argentino Diego Maradona segnò con la
mano, riferendosi poi a quell'episodio come "Mano di Dio". Può riferirsi anche a
una scultura di Auguste Rodin (1898 circa), o a un film di Paolo Sorrentino.
La seconda base tecnologica degli attuali sistemi di IA aiuta a superare queste
difficoltà facendo ampio uso di metodi probabilistici. Gli esseri umani tendono ad
accettare un risultato della macchina in base alla sua probabile correttezza,
perché questa verità statistica è una condizione per effettuare la ricerca in un
tempo ragionevole. Nel linguaggio corrente si usa spesso il termine probabilità,
ma è una forzatura semantica. Le probabilità di lancio di una moneta sono
calcolate su un evento molto semplice, con due soli risultati possibili (testa o
croce) e che tra l'altro è stato ripetuto molte volte.
Al contrario, è la prima volta che io eseguo la ricerca “La mano di Dio”, portando
la mia storia personale (anche di profilazione web) con l'aiuto/mediazione di uno
specifico portatile, in una situazione complessa con uno specifico browser web
impostato in una lingua determinata, e così via. Come può il sistema prevedere
cosa sto effettivamente cercando, se questa è la prima volta nella storia del
mondo che questo evento si verifica, insieme a un numero non minimo di variabili?
In breve, i metodi statistici usati in data science assegnano un numero a ogni
risultato nel database disponibile e, tramite algoritmi di riduzione dei dati,

                                                                                                       11
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

calcolano la possibilità che questo numero (risultato) sia quello che sto cercando,
se si tratta di arte, calcio, film, teologia, ecc. restituendo un elenco ordinato di
risultati desiderabili [Gleich, 2015].
A prescindere dalle varie teorie della probabilità, si può sottolineare che le
operazioni di ordinamento dei risultati sono effettuate sulla base di parametri scelti
dall'umano secondo le sue convinzioni personali e soggettive. Gli algoritmi
vengono utilizzati per evitare la soggettività umana, ma in realtà le loro
"probabilità" sono solo valutazioni soggettive dei possibili risultati, derivate dalle
procedure statisticamente discutibili della cosiddetta data science, portando a
rafforzare preesistenti pregiudizi molto umani come il razzismo [Noble, 2018] o la
disuguaglianza nel processo decisionale di predictive policing [Babuta, 2018]. I
sistemi di riconoscimento facciale sono infatti relativamente precisi
nell’identificare individui classificati come “caucasici” negli Stati Uniti, ma molto
meno abili nell’identificazione di individui “di colore”, perché sono stati “nutriti”
con fotografie di persone perlopiù “caucasiche”. Allo stesso modo, individui
classificati come “di colore” sono statisticamente considerati più inclini a
commettere reati, banalmente perché le “intelligenze artificiali” sono state
“nutrite” con i dati pregressi del casellario giudiziario statunitense, secondo cui le
persone “di colore” delinquono più di altri gruppi.
Oltre alla semplificazione della modellazione, il secondo elemento da considerare
è che la probabilità basata sulla statistica è molto diversa dalla verità. Il quadro
di condizionamento reciproco dell'interazione uomo-IA comincia a chiarirsi.
Queste due basi tecnologiche dell'IA si fondano su due presupposti principali: la
credenza nell’ottimizzazione e nell'organizzazione spontanea per ottenere un
"buon" risultato, anzi l'"unico veramente vero". Il principio dell'ottimizzazione
presuppone che sia non solo possibile, ma anzi adatto a ottenere un risultato
"ottimale" che è quello perfetto, la corrispondenza esatta che risponde alla
domanda [Goldberg, 1989]. Il principio di organizzazione spontanea nell'IA
connessionista assume che questa risposta perfetta con un punteggio ideale del
100% verrà spontaneamente dal sistema a causa della sua evoluzione "naturale"
in una rete organizzata.
Comunque sia, la chiave è la disponibilità di dati per addestrare algoritmi per
prevedere il futuro. I dati sono diventati la materia prima per realizzare il sogno di
sviluppare l'IA, così come la disponibilità a basso costo e "illimitata" di altre
materie prime (petrolio, gas, minerali, ecc.) è necessaria per lo sviluppo
industriale.

3.4      Il valore dei dati
È impossibile sopravvalutare l'importanza dei dati nelle attuali applicazioni del
mondo reale legate all'IA. I dati sembrano essere ovunque, spesso sotto la vaga
espressione di "Big Data", e tuttavia è molto difficile raggiungere un consenso
scientifico su cosa siano esattamente i dati, e dove e come esattamente il valore
economico possa essere estratto dai dati [Boyd e Crawford, 2011].

                                                                                                       12
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

Non sorprende che l'economia sia interessata allo sviluppo dell'IA, perché lo
sviluppo tecnologico è sempre stato una fonte di potere e ricchezza. Le reti
vengono considerate una fonte di valore perché producono dati. Ricordiamo che
l'economista libertariano (non libertario, che è una categoria politica afferente alla
famiglia socialista; libertariano, anti-socialista, sostenitore dell’espansione
illimitata del capitalismo de-regolamentato, in inglese right libertarian) Frederich
Hayek ha ispirato l'informatico Herbert Alexander Simon, uno dei padri dei sistemi
esperti di IA euristici. Il cuore del connessionismo è una cieca fede nelle reti
[Smith e Reisman, 1997]: crede infatti che situazioni con alti livelli di incertezza e
complessità si "evolveranno" spontaneamente in una rete ordinata di agenti,
proprio come in ambito organico l'intelligenza umana è considerata un fenomeno
emergente dall'organizzazione spontanea dei neuroni nel cervello, seguendo
modelli evolutivi.
Questo “ordine spontaneo” ricorda precedenti metafore economiche, fra cui la
celebre “mano invisibile” del mercato di Adam Smith. Il parallelo tra il cervello
degli organismi e le reti neurali è cruciale. Ben prima dell'avvento
dell'apprendimento automatico, in un documento del 1948 che rimase inedito fino
al 1968, Alan Turing definì i computer simili al cervello “macchine non
organizzate”, ipotizzando che i cervelli dei neonati fossero in gran parte non
organizzati in modo simile fino a quando i loro algoritmi biologici impliciti li
avrebbero plasmati verso un ordine spontaneo più strutturato (educato),
proponendo una sorta di “ricerca genetica” per organizzare le reti. La sua visione
presenta alcune sorprendenti somiglianze con le idee successive di Hayek, che
sottolineava la confusione cerebrale dei cavi di connessione nell'ENIAC e in altri
fra i primi computer [Turing n.d.].
Oltre mezzo secolo dopo, la narrazione di mercati auto-organizzati, “frictionless”
(senza attrito), emergenti dalla concorrenza commerciale indisciplinata per la
sopravvivenza va di pari passo con l'IA che emerge dai Big Data: condividono
come terreno comune la fede cieca nell'Ordine Spontaneo che verrà, un giorno.
Potremmo allora aspettarci che non sarà più necessario sforzo né lavoro per far
prosperare l'IA. Sembra che basterà lasciare che sia il tempo a gestire tutto,
grazie ai corretti algoritmi che lavorano senza sosta e instancabilmente.

4.       Digital labour? No, grazie.
4.1      Una storia del concetto
Invece di essere sull'orlo dell'estinzione grazie alla crescente automazione, il
lavoro e lo sforzo a esso collegato sono molto presenti nel mondo in cui l'IA si sta
sviluppando, il nostro comune mondo digitale di massa. Merci di ampio consumo
equipaggiate con IA (ad esempio gli assistenti vocali attualmente alla moda come
Alexa, Siri e simili) nascondono dietro la semplicità di interazione un’enorme
complessità produttiva, logistica e industriale, nonché elevati livelli di sfruttamento
in termini di manodopera umana, risorse energetiche e materie prime [Crawford,
2021].

                                                                                                       13
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

Le prime analisi che utilizzano l'espressione digital labour appaiono in articoli
accademici nel 2009, senza arrivare a una definizione univoca. Una distinzione è
però comunemente accettata: il digital labour non deve essere confuso con il
lavoro digitale (digital work), che si riferisce alle persone che lavorano nel settore
IT. Non si riferisce nemmeno ai lavoratori delle fabbriche dove vengono prodotti i
dispositivi su cui si basa questo settore. Come scrive Antonio Casilli, “dobbiamo
collocarci al di fuori dei classici luoghi di produzione per vedere apparire questo
lavoro” [Casilli, 2015, 12].
In generale, lo sforzo teorico profuso cerca di mostrare cos’hanno comune
pratiche online eterogenee di interazione con le macchine come la moderazione
(blog, forum, commenti sui social network), la scrittura collaborativa di articoli
online, il rating dei contenuti, la gig-economy (Uber, AirBnB). Si propone di
leggere, prevalentemente e originariamente in una prospettiva di ispirazione
marxista, queste pratiche alla luce delle relazioni sociali che caratterizzano
l’ambito lavorativo. Portare alla luce il lavoro nascosto permette di denunciare
forme di sfruttamento più o meno evidenti.
Questo spiega in parte perché non esiste una definizione unanimemente
condivisa di digital labour. Nel caso del lavoro "uberizzato", i profitti accumulati
dalla piattaforma non possono corrispondere al surplus di lavoro risultante dalla
differenza tra il capitale investito e il profitto ottenuto non remunerando il lavoro in
eccesso, tranne quando si considera il lavoro degli sviluppatori e dei loro team
che producono e sviluppano la piattaforma: ma questo è un caso di digital work
e non di digital labour. Si tratta invece di una disruption libertariana
(sconvolgimento libertario di destra) di interi settori economici.

4.2      Non si tratta solo di (social) media
Per quanto riguarda i social media, il problema del contributo umano può apparire
ancora più complesso. A prima vista, consultare i social sembrerebbe un puro
"svago", condotto dagli esseri umani secondo i dettami del loro libero arbitrio;
molti utenti si connettono con discrezione nel loro orario di lavoro retribuito, per
sfuggire un po' alla routine. Tuttavia, poiché i media (sociali) di massa sono
guidati dai dati di algoritmi che sfruttano i principi della cosiddetta IA, il loro
utilizzo rientra nel condizionamento reciproco sopra delineato.
Il modello di business che la maggior parte dei social media ha adottato è ormai
noto: si basa sulla profilazione degli utenti, utilizzando dati e metadati che da loro
disseminati durante la navigazione in rete, e sfruttando questi profili a fini
commerciali, pubblicità compresa. La profilazione corrisponde alla
semplificazione e quantificazione della massa umana per soddisfare l'analisi
degli algoritmi.
Il termine crowdsourcing appare per la prima volta nel 2006 nella rivista Wired,
un mensile americano particolarmente influente nell'ambiente delle nuove
tecnologie. Questo neologismo è una parola macedonia costruita da crowd e
outsourcing. L'idea è semplice: Internet aumenta le possibilità di outsourcing
(“abolendo” le distanze geografiche e permettendo di contattare un gran numero

                                                                                                       14
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

di persone) e permette anche di aumentare la produttività mobilitando vere masse
di “lavoratori”. In pratica, il crowdsourcing può assumere varie forme:
•      Grandi progetti "collaborativi", commerciali o meno. L'enciclopedia online
Wikipedia è l'esempio più noto. Bot software automatizzati per monitorare,
segnalare, correggere e vietare (discorsi di odio, ecc.) sono una parte cruciale di
questo tipo di ecosistema.
•        Micro-lavoro. Il migliore esempio è la piattaforma Amazon Mechanical
Turk. I turkers si iscrivono per eseguire HITs (Human Intelligence Tasks, come li
definisce Amazon) che le macchine non sono (ancora) in grado di eseguire da
sole o costano troppo (ricerca di un titolo per descrivere una foto o un video,
trascrizione di file audio, moderazione dei commenti, standardizzazione dei nomi
dei file, ecc), in cambio di un micro-lavoro. Amazon non è l'unico "datore di
lavoro", chiunque può registrarsi per approfittare del grande mercato di micro-
lavoratori (Amazon prende una commissione tra il 20% e il 40% della
remunerazione). Gli algoritmi di Machine-Learning sono addestrati con le risposte
dei turkers, e l'IA risulta essere sia il sistema che ottimizza l'assegnazione dei
compiti, il modo per estrarre "comportamenti intelligenti" dagli umani e, senza
alcuna ironia, il paravento dietro cui si nascondono i lavoratori umani sottopagati.
•       Micro-lavoro non retribuito. È il caso di reCaptcha, il sistema CAPTCHA
(Completely Automated Public Turing test to tell Computers and Humans Apart)
di Google. Si trova spesso alla fine dei formulari, quando agli esseri umani viene
chiesto, per dimostrare di essere effettivamente umani, di copiare una sequenza
di caratteri o di selezionare, tra un insieme di immagini, quelle che corrispondono
a un determinato criterio. Questo tipo di sistemi, che Google offre gratuitamente
agli amministratori di siti web, permettono loro di impedire ai bot di utilizzare i loro
servizi o di rendere più difficili gli attacchi brute-force, un attacco che consiste nel
trovare una password testando una per una tutte le combinazioni possibili. La
funzione esplicita di reCaptcha abilitata dall'IA è quella di impedire alle macchine
meno intelligenti di interagire con il sistema. Infatti, i bot sono software in grado di
interagire automaticamente con un server, simulando il comportamento umano.
Ma d'altra parte rende anche possibile, grazie alle risposte date dagli utenti,
migliorare il sistema di riconoscimento dei caratteri che Google utilizza sui libri
che scansiona (e ha scansionato) per alimentare Google Books o, nel caso in cui
gli venga chiesto di classificare le foto, migliorare le prestazioni di Google Street
View e delle auto a guida autonoma, tutti servizi che fanno largo uso di tecniche
di IA.
•        Lavoro speculativo. In crescita in settori come la grafica, il design,
l'architettura o la fotografia, consiste nella creazione di piattaforme che offrono
bandi di gara sotto forma di concorso. I concorrenti devono solo presentare il loro
lavoro. Il vincitore otterrà di essere pagato. I sistemi di punteggio, valutazione,
asta, offerta e vincita si basano su algoritmi di IA.
Una nuova svolta è stata segnata dall'adozione di massa degli smartphone, che
permettono un aumento del tempo di connessione e della reattività degli utenti.
Inoltre forniscono il supporto a certe forme di consumo "collaborativo" senza

                                                                                                       15
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

scopo di lucro (almeno per gli utenti, e in teoria) come il carpooling o le reti di
scambio di ospitalità, ma anche la partecipazione dei cittadini a compiti di
monitoraggio e controllo (COVID19 tracking, segnalazione di attività sospette) o
le piattaforme di scambio C2C (Customer to Customer) che permettono di mettere
in contatto domanda e offerta senza altri intermediari oltre alla piattaforma
(Airbnb, Booking, Ebay, Subito.it e così via). Gli smartphone aggiungono la
geolocalizzazione costante alla connettività permanente, combinandola con
quella fornita da tutti gli altri terminali mobili indossabili, "intelligenti" e domotici,
che si prevede aumenteranno nei prossimi anni con l'IoT (Internet of Things). Con
gli utenti che hanno costantemente il loro dispositivo in tasca, con le piattaforme
che diventano gli unici intermediari, è sufficiente implementare alcuni algoritmi di
abbinamento per rendere la catena di approvvigionamento un po' più flessibile.
L'applicazione concreta più evidente di un simile meccanismo è proprio il
mercato della mobilità. Il servizio "auto con autista" di Uber è l’esempio più noto.
Analoghe le piattaforme per consegne di pasti e qualsiasi altra merce da auto-
imprenditori in bicicletta o simili, permanentemente geolocalizzati: i cosiddetti
rider. I cloni di questo tipo di ecosistema, chiaramente di destra libertariana
ispirato al mito dei mercati senza attrito e spontaneamente ordinati, sono infiniti.

4.3      IA o Automazione Industriale dell'umano
Le piattaforme potenziate dall'IA sono sistemi per l'automazione industriale delle
attività umane, che possono consistere nella ricerca, segnalazione, etichettatura,
descrizione, trascrizione, annotazione, guida, condivisione, cura, distribuzione.
Alcuni aspetti dell'approccio del digital labour sono interessanti, in particolare,
nella misura in cui rendono esplicite le basi della crescente fortuna della maggior
parte dei giganti di Internet; nel complesso però non è soddisfacente. Il suo
principale punto debole sta nella definizione di lavoro. Se si vuole includere nella
stessa categoria l'attività degli utenti sui social network, il micro-lavoro,
l'uberizzazione, ecc. per denunciare forme di sfruttamento da una prospettiva che
si dichiara critica nei confronti dell'economia politica vigente, bisogna restringere
la definizione di lavoro al minimo comune denominatore tra queste attività: la
produzione di "valore". Poiché è molto complesso definire esattamente dove e
quando le micro-attività iterate come il tagging, il re-twitting, ecc. producono
valore, questa strada non sembra molto promettente.
Cosa chiedono i critici del digital labour una volta che hanno denunciato lo
sfruttamento che questo tipo di lavoro rappresenta? Alcuni si indignano per
l'indecente ottimizzazione fiscale di GAFAM e consorti che, va ricordato,
stabiliscono le loro sedi europee in paesi dove beneficiano di un'aliquota fiscale
molto bassa prima di inviare i loro profitti nei paradisi fiscali [Rougé, 2017; Kutera,
2017]. Ma spesso reclamano “l'ipotesi di un reddito di base come leva di
emancipazione e misura compensativa” [Casilli, 2015, 39], che talvolta va a
braccetto con l’idea di una tassazione più efficiente dei giganti di Internet. Si
differenziano così dai più liberali, come Jaron Lanier, che ritengono che la nostra
partecipazione ai mondi digitali dovrebbe essere ricompensata con

                                                                                                       16
Mondo Digitale                                                                       Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco

micropagamenti: non appena viene pubblicata una nuova informazione, il suo
autore verrebbe automaticamente pagato, riceverebbe un compenso per il
materiale originale che diffonde [Lanier, 2013].
Queste proposte suscitano almeno due critiche. In primis, manifestano un ristretto
orizzonte in termini di critica al capitalismo e alla strategia politica, ben oltre il
problema secondario della fattibilità del progetto del reddito universale. Si
limitano all’aspetto economico. Ci vorrebbe un altro articolo per discuterne, ma
altri ricercatori hanno chiarito la questione. Qui diremo qualcosa di più su una
seconda critica.
Il prisma redistributivo, mobilitato dalle proposizioni precedenti, porta a elidere
alcuni aspetti decisivi: il condizionamento reciproco spinto dalla semplificazione
e dall'ottimizzazione nel quadro della credenza dei "mercati spontaneamente
ordinati senza attrito", le interazioni degli umani con le AI menzionate (che non
sono macchine qualsiasi, ma macchine industriali), il crescente impatto di queste
ultime sulla formazione della soggettività umana e il modo in cui ci fanno
sottomettere sempre di più, per diventare completamente trasparenti
all'estrazione di dati-valore delle macchine "intelligenti" [Ippolita 2019], mentre in
realtà contribuiscono al loro sviluppo, attraverso strategie come il nudging [Thaler
e Sunstein, 2014, Kosters e Van der Heijden, 2015] e la gamification [Koivisto e
Hamari. 2019].
Pretendere di compensare emotivamente e ormonalmente (come pretendono di
fare il nudging e la gamification attraverso rinforzi secondari positivi che stimolano
la secrezione di dopamina) o finanziariamente (con denaro, con una qualche
criptovaluta o con un reddito universale) le micro-azioni degli umani su Internet
equivale a promuovere ancor di più le tecnologie del dominio. Equivale ad
abbracciare l'automazione sotto forma di condizionamento e manipolazione
comportamentale come l'unico modo appropriato di interagire con le macchine e
a ridurre un po' di più le nostre prospettive di autonomia, compresa l'autonomia
tecnica e l'elogio di Simondon per una "macchina aperta".

Conclusione
È necessario esplorare ulteriormente le interfacce in cui interagiscono umani e
macchine, dal momento che è un rapporto di potere altamente distorto e
profondamente influenzato, tra l'altro, da credenze personali, valutazioni
soggettive spacciate per verità oggettive e malintesi teorici e pratici sull'agency
degli esseri umani e tecnici. Crediamo che un'attenzione particolare vada rivolta
ad approcci capaci di valorizzare le diverse sensibilità individuali che tengano
conto dei saperi situati degli attori coinvolti, quindi a forme di pedagogia
esperienziale inclusiva [Trocchi, 2019] nella tessitura delle relazioni con gli esseri
tecnici. Possono essere alleati se si accetta di confrontarsi con la complessità in
un quadro organico [Milani e Antoniadis, 2021].
La possibilità di "macchine aperte" simondoniane sarebbe concepibile solo in un
contesto di reciproco sostegno e riconoscimento, impossibile nell'attuale
paradigma dell'IA, offuscato da una nebbia di procedure di calcolo all'interno

                                                                                                       17
Mondo Digitale                                                                       Febbraio 2023
Puoi anche leggere