L'evoluzione dell'Intelligenza Artificiale: dall'automazione del lavoro al condizionamento reciproco
←
→
Trascrizione del contenuto della pagina
Se il tuo browser non visualizza correttamente la pagina, ti preghiamo di leggere il contenuto della pagina quaggiù
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco Carlo Milani e Vivien García Sommario L’IA affascina e spaventa. Uno spauracchio si aggira per il mondo: il timore che esseri tecnologici intelligenti sostituiranno gli esseri umani in (quasi) tutte le loro attività, a partire dal lavoro. L'IA se ne occuperebbe automaticamente, agendo come un aiutante magico, capace di svolgere qualsiasi compito assegnato. Attingendo alla prospettiva di Gilbert Simondon sull'alienazione tecnica, sosterremo che l'automazione è in realtà il livello più basso possibile di interazione uomo-macchina. L'analisi di Simondon offre un metodo per prendere le distanze sia dalla tecnofobia che dalla tecnofilia, promuovendo una cultura tecnica capace di sviluppare "macchine aperte", caratterizzate da un certo livello di variabilità nel loro funzionamento reciproco con gli umani. Ricordando alcune tappe fondamentali nella storia dell'IA, sosterremo che le cosiddette macchine digitali "intelligenti", basate su algoritmi di riduzione dei dati, sono caratterizzate da una modellazione statistica che talvolta tende, a prescindere dall’intenzione degli esseri umani coinvolti, a incorporarne alcuni presupposti ideologici, credenze e valori. Usando la nostra analisi dell'interazione umana con i motori di ricerca potenziati dall'IA, mostreremo come i sistemi automatizzati stiano diffondendo il condizionamento reciproco tra umani e macchine. Più gli esseri umani si rivolgono a queste macchine in modo meccanicamente semplice e non ambiguo, più esse agiscono "automaticamente" e sembrano "intelligenti". Infine analizzeremo lo sfruttamento di questi sistemi di condizionamento reciproco in una miriade di micro-attività digitali a scopo di lucro. L'IA in questo contesto si manifesta come un essere tecnico di formazione antropologica e manipolazione comportamentale, molto lontano dall'ideale di "macchina aperta" proposto da Simondon. 1 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco Abstract A bogeyman lurks around the world: the fear that intelligent technological beings will substitute human beings in (almost) all their activities, starting from work. In this sense, AI is often perceived as a magical helper, a high technology (maybe the highest one) potentially capable of performing any task. Guided by Gilbert Simondon's takes on technical alienation, this paper argues that automation is actually the lowest form of human-machine interaction. Recalling some milestones in the history of AI, it makes some suggestions on why, regardless of their human design, the so-called 'intelligent' digital machines based on data reduction algorithms, tends to incorporate ideological assumptions, beliefs and values. And by analysing human interactions with search engines, it shows that automated systems implies human-machine mutual conditioning: the more humans address these machines in a mechanically, simple and unambiguous way, the more the latter act 'automatically' and appear 'intelligent'. Drawing on this analysis this paper finally discusses the exploitation of that mutual conditioning mechanics by a myriad of for-profit digital micro-activities. "Trained" machines, in this context, are far away from the ideal of the Simondonian "open machine". Keywords: human-machine interaction, automatism, technical alienation, digital labor, convivial technologies, open machine, hacker pedagogy, organic internet 1. Introduzione. IA, automazione e disoccupazione Gli effetti sui salari sono fra le maggiori preoccupazioni riguardo all'IA (Intelligenza Artificiale). Agitano lo spauracchio della disoccupazione di massa di origine tecnologica. L'argomento non è nuovo: lo difendeva anche il padre nobile della cibernetica, Norbert Wiener [Wiener, 1949]. Consiste principalmente nell'affermare che i cambiamenti tecnologici porteranno alla disoccupazione strutturale, poiché l'automazione sostituirà un numero sempre maggiore di compiti umani. Automazione è qui intesa in particolare come aspetto tecnico e applicativo della cibernetica e della teoria dei sistemi. L’automazione è quindi l’impiego di macchine, articolate in procedure complesse, capaci di regolare il proprio funzionamento e di controllare mediante organi sensibili la qualità del lavoro prodotto. Il timore è che, con l'informatica moderna, non solo i lavori manuali (come nelle prime ondate di automazione industriale) ma anche i lavori intellettuali che implicano progettazione, creatività e capacità decisionali potrebbero essere effettuati da macchine “intelligenti”. Da cui verrebbe inferito che un aumento dell’IA coincide con un aumento dell’automazione e quindi con un aumento della disoccupazione. 2 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco Nell'ultimo decennio diversi leader dell'industria tecnologica hanno rinnovato la previsione; Bill Gates ha dichiarato che la diffusione della “software automation” avrebbe causato una drastica riduzione dei posti di lavoro nei successivi vent’anni [Stiegler, 2017]. L'IA, nei suoi termini stessi, gioca su opposizioni classiche (esseri umani vs. cose, naturale vs. artificiale, creatore vs. creazione) che possono facilmente evocare l'idea di una competizione tra esseri umani e macchine. L'automazione e i suoi effetti sull'occupazione non sono però necessariamente negativi. Nel “Frammento sulle macchine” [Marx, 1973], Marx considera la possibilità che il surplus lavorativo si trasformi in tempo libero. A suo parere la condizione necessaria di una tale trasformazione è un cambiamento radicale nel modo di produzione derivante da una rivoluzione proletaria. Il nostro obiettivo qui non è sottolineare la rilevanza o meno di questi opposti approcci alla questione, né di valutare se l'automazione avrà ripercussioni benefiche o pregiudizievoli sull'occupazione, ma di mettere in discussione i presupposti impliciti dell'automazione in sé. Adottando un punto di vista prevalentemente economico, si stabilisce spesso un'equivalenza fra progresso tecnologico e aumento del livello di automazione. Il filosofo della tecnologia Gilbert Simondon offre una prospettiva diversa rispetto all'automazione, in opposizione all’idea marxista dell'alienazione tecnica: L'alienazione dell'uomo in relazione alla macchina non ha solo un senso socio- economico; ha anche un senso psico-fisiologico; la macchina non prolunga più lo schema corporale, né per gli operai, né per coloro che possiedono le macchine. [Simondon, 2020, 136] Per riconsiderare l'automazione dobbiamo comprendere meglio questo possibile accoppiamento tra essere umano ed essere tecnico. L'automazione è in realtà il livello più basso possibile di interazione uomo- macchina. Attingendo alla prospettiva di Simondon sull'alienazione tecnica, prenderemo le distanze sia dalla tecnofobia che dalla tecnofilia, promuovendo una cultura tecnica capace di sviluppare "macchine aperte”, caratterizzate da un certo livello di variabilità nel loro funzionamento reciproco con gli umani. Ricordando alcune tappe fondamentali nella storia dell'IA, sosterremo che le cosiddette macchine digitali "intelligenti", basate su algoritmi di riduzione dei dati, sono caratterizzate da una modellazione statistica che tende talvolta, a prescindere dall’intenzione degli esseri umani coinvolti, a incorporarne alcuni presupposti ideologici, credenze e valori. In questo articolo useremo la nostra analisi dell'interazione umana con le tecnologie potenziatie dall'IA per mostrare come i sistemi automatizzati stiano diffondendo il condizionamento reciproco tra umani e macchine. Analizzeremo infine lo sfruttamento di questi sistemi di condizionamento reciproco in una miriade di micro-attività digitali a scopo di lucro. L'IA in questo contesto si manifesta come un essere tecnico di formazione antropologica e manipolazione 3 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco comportamentale, molto lontano dall'ideale di "macchina aperta" proposto da Simondon 2 L’alienazione tecnica come automazione 2.1 Automagico L'automazione porta con sé una sorta di elemento magico perché le macchine operano in un modo nascosto o non compreso dall'utente umano e per questo apparentemente "magico". Simondon esamina il mistero che circonda l'oggetto tecnico in situazioni di alienazione tecnica, connettendolo all'automazione. Le macchine altamente automatizzate sono solitamente sovradeterminate da un punto di vista psico- sociale e tendono a produrre un'immagine dai connotati magici. L’introduzione del termine "automagico" nel linguaggio colloquiale sembra corroborare questa analisi. In Psychosociologie de la technicité, Simondon fa un esempio per spiegarne le origini: L'oggetto domestico è spesso accusato di meccanizzare la vita: ma in realtà è la donna in una situazione domestica che chiede a una lavatrice o ad altre macchine di sostituirla in un compito difficile che ha paura di far male. Le fiabe ritraggono noi ex casalinghe, cariche di lavoro, che ci addormentiamo mentre lavoriamo, prese dallo sconforto; ma le fate le sorvegliano, e le formiche o gli gnomi vengono a lavorare durante la notte. Quando si svegliano, tutto è chiaro, tutto è pronto. La lavatrice moderna è magica in quanto è automatica, e non in quanto è una macchina. È questo automatismo che si desidera, perché la casalinga desidera vicino a sé, per darle coraggio, un'altra casalinga, oscura e misteriosa, che sia lo spirito benevolo della lavanderia, così come il frigorifero è quello della cucina moderna. "Moderno" significa "magico", per il subconscio individuale dell'utente. [Simondon, 2014, 76-77] Viene considerata “la donna in una situazione domestica” e, come tale, in una certa posizione nel quadro dei rapporti di potere dell’epoca. Si insiste anche sul fatto che gran parte del lavoro di produttori e venditori sta nel “catturare [la] fame di magia” [Simondon 2014, 76] dei loro potenziali clienti. Così, anche se la dimensione tecnica dell'automazione non ha nulla di magico, a livello psicosociale genera questa sensazione. La macchina automatizzata sembra far nascere un doppio dell'operatore. La sua funzionalità ripetitiva sembra assicurare il successo del completamento del compito e quindi libera l'operatore dall'ansia da prestazione. Per questo Simondon considera un mito l'idea di una completa sostituzione umana da parte delle macchine automatizzate, una versione rinnovata del racconto del Golem. La tecnicità non porta necessariamente automazione, ma gli umani si aspettano spesso che l'oggetto tecnico fornisca un'automazione magica. Esso però può soddisfare questa esigenza solo in modo imperfetto e del tutto illusorio. Infatti, sostiene Simondon, l'automazione corrisponde a un grado di perfezione tecnica piuttosto basso. Al contrario, le "macchine aperte" si caratterizzano per la 4 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco loro apertura: integrano il loro "milieu associato" nel loro funzionamento, e possono quindi tollerare maggiori interazioni con gli esseri umani. Ad esempio, Le macchine da calcolo moderne non sono dei puri automi, sono esseri tecnici che, oltre ai loro automatismi aggiuntivi (o di decisione di funzionamento di commutatori elementari), possiedono ampie possibilità di commutazione dei circuiti, che permettono di codificare il funzionamento della macchina restringendone il margine di indeterminazione. […]. È ancora tramite il margine d’indeterminatezza e non per gli automatismi che le macchine possono essere raggruppate in insiemi coerenti, scambiare informazione le une con le altre tramite il coordinatore che è l’interprete umano. Anche quando lo scambio d’informazione è diretto tra due macchine (come tra un oscillatore pilota e un altro oscillatore sincronizzato a impulsi), l’uomo interviene come essere che regola il margine d’indeterminazione affinché sia adatto al miglior scambio possibile d’informazione. [Simondon, 2021, 14] Simondon parla dall’ambiente tecnico degli anni Cinquanta e Sessanta del XX secolo. Purtroppo, da allora le macchine elettroniche sono state sviluppate nella direzione del reciproco condizionamento fra esseri umani ed esseri tecnici. Il condizionamento può essere visto come una particolare forma di automazione, cioè l'automazione di un comportamento attraverso l'iterazione ripetuta di modelli semplici, ma in evoluzione, prendendo in considerazione alcuni feedback (retroazioni) e inserendoli in uno schema esistente. Questo condizionamento è possibile e anzi necessario perché corrisponde al condizionamento parallelo su larga scala degli esseri umani coinvolti nelle interazioni con le cosiddette macchine intelligenti. 2.2 Macchine aperte, esseri umani e IA Secondo Simondon, gli schemi deterministici delle macchine automatizzate implicano un ambito ridotto di operazioni possibili. Invece le macchine aperte sono soggette a una certa gamma di variabilità. Il vero perfezionamento delle macchine, quello di cui si può dire che eleva il grado di tecnicità, corrisponde non a un accrescimento dell'automatismo, ma al contrario al fatto che il funzionamento di una macchina contenga un certo margine di indeterminazione. [Simondon, 2021, 13] Le risposte di un automa perfetto alle variazioni del milieu sono predeterminate. Le macchine aperte, al contrario, hanno un margine di indeterminazione; possono riadattare i loro schemi in base a queste variazioni. Come tali, hanno una vasta gamma di possibilità di interazione con gli esseri umani. La macchina che è dotata di un alto grado di tecnicità è una macchina aperta e l’insieme delle macchine aperte presuppone l'uomo come organizzatore permanente, come interprete vivente delle macchine le une in rapporto alle altre. Lungi dall’essere il sorvegliante di una squadra di schiavi, l’uomo è l’organizzatore permanente di una società degli oggetti tecnici […]. In tal modo l'uomo ha la funzione di essere il coordinatore e l'inventore permanente delle macchine che 5 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco sono intorno a lui. È tra le macchine che operano insieme a lui. La presenza dell'uomo accanto alle macchine è un'invenzione continua. [Simondon, 2020, 13- 14] In questa visione, le relazioni umane con gli oggetti tecnici non sono strumentali. La rappresentazione delle macchine come schiavi meccanici è alla base dell'idea di esseri umani che utilizzano oggetti tecnici come mezzi per addomesticare le forze naturali. Ma una tale ispirazione dominatrice non può che produrre servitù umana e tecnica, in opposizione a qualsiasi forma di emancipazione, perché “è difficile liberarsi trasferendo la schiavitù ad altri esseri, uomini, animali o macchine; regnare su un popolo di macchine che soggiogano il mondo intero, vuol dire ancora regnare e ogni regno implica l'accettazione di schemi di asservimento” [Simondon, 2017, 144]. Per evitare questo tipo di situazione, e per ridurre l'alienazione, è necessario sviluppare un legame più stretto con gli oggetti tecnici favorendo una cultura tecnica. Le analisi di Simondon sono seducenti. Risuonano ancora con i nostri tempi e permettono di uscire dalla sterile opposizione fra tecnofilia e tecnofobia. Tuttavia, alcuni aspetti sembrano superati rispetto alla tecnologia digitale. Il modello simondoniano di esseri umani con macchine individuali nel loro milieu associato appare limitato rispetto a reti globali di dispositivi vari e reticolari, integrati in processi di regolazione e governance algoritmica. L'approccio di Simondon è più rilevante della sua analisi. Il saggio Del modo di esistenza degli oggetti tecnici è quasi contemporaneo alla nascita dell'IA nel 1956 e alle pretese di imitare le funzioni cognitive umane. Si impone una rassegna storica e “tecnica” per continuare la nostra riflessione, ponendola in una prospettiva storica. Gli oggetti tecnici sono infatti soggetti all’evoluzione sia dei materiali che delle teorie; nuovi materiali, nuove implementazioni e nuove idee influenzano la comparsa di nuovi artefatti e ne orientano le interazioni con gli esseri umani e l’ambiente circostante. 3. Rinascimento dell'IA 3.1 La cibernetica, il fondamento dell'IA La storia dell'IA è passata attraverso diverse fasi alternando grandi speranze e cocenti delusioni: le "primavere" di grandi e costosissimi progetti e gli "inverni" di abbandono e dismissione della maggior parte delle attività di ricerca e sviluppo, crollo degli investimenti, e fallimento di molti programmi. L'evento seminale dell'IA fu la conferenza estiva dell'IA del Dartmouth College, organizzata da John McCarthy, Marvin Minsky, Nathan Rochester di IBM e Claude Shannon nel 1956. Nel 1955, McCarthy aveva coniato il termine "Intelligenza Artificiale" per ottenere il finanziamento dell'evento [McCarthy et al., 1955]. Voleva distinguersi dalla "vecchia" cibernetica, termine coniato dal greco antico kubernetes (gubernator in latino), da cui derivano i termini attinenti al “governo”. Norbert Wiener aveva contribuito notevolmente alla diffusione del termine “cibernetica” [Wiener 1950, 1961], definita come “controllo e comunicazione nell’animale e nella macchina”. Allo stesso tempo, aveva sviluppato un profondo pessimismo sull'evoluzione dei sistemi di controllo e comunicazione: razzi, robot, 6 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco catene di montaggio automatizzate, reti di computer sono tutti derivati da applicazioni di ingegneria cibernetica. In piena guerra fredda, metteva in guardia contro il rischio per le democrazie di combattere il totalitarismo con le armi del totalitarismo stesso, costruendo servomeccanismi: sistemi di retroazione in grado di scatenare un'apocalisse nucleare semplicemente premendo un pulsante. McCarthy e Minsky cercavano di migliorare i sistemi di comunicazione tra esseri umani e macchine, in un'epoca in cui i computer occupavano intere stanze, erano meno potenti di una calcolatrice tascabile e la comunicazione avveniva con pile di schede perforate. Ma questi giovani ricercatori non condividevano il pessimismo del vecchio Wiener. Il termine da loro preferito, "intelligenza artificiale", introduceva anche un riferimento diretto all'intelligenza anche se, di fatto, si trattava pur sempre di automatizzare sistemi di controllo e comunicazione. Per circa trent'anni, la potenza di calcolo rimase insufficiente per raggiungere ciò che pionieri come Allen Newell e Herbert A. Simon avevano immaginato, come un computer campione del mondo di scacchi o addirittura un General Problem Solver (GPS) capace non solo di simulare il pensiero umano, ma di risolvere ogni possibile problema [Newell, Shaw, e Alexander, 1958]. Poi, a partire dalla seconda metà degli anni Ottanta, la diffusione dei Personal Computer (PC) e l'evoluzione del progetto di difesa militare DARPA in quello che oggi conosciamo come Internet, portarono gradualmente la cibernetica e l’IA ovunque Oggi rimangono intatte le questioni fondamentali: “chi saranno i kubernetes?”, “chi governerà l'IA e come?”. Enormi sforzi vengono fatti nella propaganda di forme di IA “buona e gentile”, per scongiurare gli avvertimenti di Wiener, che però sembrano più che mai attuali e riguardano l'intero pianeta [Brockman, 2019]. Ogni "primavera" dell'IA porta un'infinità di articoli, saggi e titoloni che annunciano la nascita di una nuova generazione di esseri intelligenti. Porta anche film, serie TV, videogiochi, una massa di conversazioni e attenzione spasmodica. Negli ultimi settant'anni vari approcci hanno occupato le luci della ribalta, hanno guadagnato slancio e hanno attirato notevoli finanziamenti privati e pubblici. Eppure, secondo l'esperto di algoritmi evolutivi e ricercatori di IA da un trentennio, Robert Elliot Smith, La realtà dell'attuale IA è che non ci sono stati spettacolari cambiamenti di paradigma; ciò che è cambiato è la disponibilità, l'ubiquità, la velocità e l'interconnessione dei computer e, cosa più importante, l'enorme interesse commerciale dietro l'impresa IA. Questa empia convergenza di scientismo, computazione e mercificazione è diventata essa stessa un sistema complesso, che si esibisce in modi difficili da comprendere e controllare, manifestando al tempo stesso tutti i difetti e i pregiudizi già evidenziati (traduzione nostra). [Smith, 2019, 300]. Esploriamo questa congiuntura senza precedenti tra bias umani e macchinici, cioè fra le inclinazioni cognitive e operative degli umani (sia di chi ha ideato i 7 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco modelli in base ai quali vengono addestrate le macchine, sia dei “semplici” utenti) e il rinforzo comportamentale che le macchine stesse inducono negli utenti umani. 3.2 Condizionamento reciproco uomo-macchina dietro l'apprendimento profondo A prescindere dalla stagione, alcune applicazioni concrete filtrano dai laboratori di ricerca per approdare sul mercato; spesso le merci spuntano in settori lontani da quelli inizialmente immaginati. Oggi possiamo interagire con assistenti vocali alla ricerca della nostra musica preferita, con bot che imperversano sui social network, con sistemi di riconoscimento facciale che fanno capolino quasi ovunque e così via. Queste e molte altre comodità derivano dalla ricerca nel vasto campo dell'IA, ma siamo lontani dall'aver capito come funziona l'intelligenza degli esseri viventi e ancor più dall'averla riprodotta artificialmente. Come Smith discute approfonditamente nel suo saggio, nella seconda decade del XXI secolo stiamo assistendo a un ennesimo revival dell'IA grazie a un rinnovato interesse per una nuova versione del paradigma connessionista. Nel connessionismo l'analogia funzionale si sposta dalla mente (tipica del paradigma simbolico-cognitivista) al cervello umano e alle reti neurali biologiche. L'attività della mente risulta distribuita tra le connessioni delle unità di calcolo (i “neuroni”); non è quindi analizzabile nei singoli processi cognitivi. La macchina connessionista "impara" iterando modelli di calcolo sotto forma di algoritmi, principalmente costrutti condizionali di tipo IF-THEN-ELSE [Skarda, 1992]. Uno dei principi connessionisti più importanti è che le reti di unità semplici, indipendentemente dai simboli utilizzati, possono descrivere ciò che si suppone stia dietro il comportamento intelligente, cioè i fenomeni mentali. Queste unità sono per lo più uniformi e interconnesse, ma ci sono diversi tipi di connessioni e unità possibili a seconda del modello adottato. Il modello connessionista di gran lunga più comune e conosciuto è ispirato al cervello. Si parla quindi di reti neurali, in cui i singoli nodi (le unità di calcolo) delle reti sono le unità che rappresentano i neuroni, mentre le connessioni tra loro potrebbero rappresentare le sinapsi. Il modello connessionista usato nell'apprendimento delle macchine deriva dal primo comportamentismo, il quale postula che l'apprendimento è il risultato della formazione di associazioni tra Situazioni (e gli stimoli che ne derivano) e Risposte (S-R). Negli animali tali associazioni, che possono essere misurate e quantificate, costituiscono abitudini caratteristiche, suscettibili di rafforzarsi o indebolirsi a seconda del tipo e della frequenza degli accoppiamenti S-R. Sono, come affermava Edward L. Thorndike nel suo libro del 1898, "la connessione di un certo atto con una certa situazione e il conseguente piacere" [Thorndike, 1898, 29]. Grazie alle ricompense, certe risposte arrivano a surclassare le altre perché gli animali le associano a sensazioni piacevoli nel corso dei processi di apprendimento per tentativi ed errori. I connessionisti, come i comportamentisti, credono che l'apprendimento possa essere adeguatamente spiegato senza fare riferimento a stati interni non osservabili. 8 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco Probabilmente non è un caso che l'attuale diffusione delle tecniche di deep learning (apprendimento profondo) per l'addestramento dell'“intelligenza” nelle macchine si sviluppi in parallelo con l'ampia diffusione degli approcci comportamentali nella psicologia umana e in molti altri campi, per quanto mescolati a quelli cognitivi. Allontaniamoci un po' dalla singola macchina di calcolo, dal clamore per questo o quel risultato di "macchine che battono le prestazioni degli umani", dalla matematica e dagli algoritmi intelligenti, dall'enorme potenza di calcolo. Consideriamo in maniera più generale il funzionamento concreto dei processi di deep learning. Sottoinsieme del machine learning (in italiano, correttamente tradotto con apprendimento automatico), indica un insieme di tecniche basate su reti neurali artificiali organizzate in diversi strati, dove ogni strato/livello (layer) calcola i valori per quello successivo. Si basa su classi di algoritmi di apprendimento automatico che utilizzano livelli multipli (iterazioni, cioè ripetizioni procedurali) per estrarre progressivamente caratteristiche di livello superiore dall'input grezzo. La nostra ipotesi è che si tratta di una tipologia di apprendimento automatico che può essere descritta come un modo di condizionare le macchine. Il condizionamento può essere visto come una particolare forma di automazione, cioè l'automazione di un comportamento attraverso l'iterazione ripetuta di modelli semplici, ma in evoluzione, prendendo in considerazione alcuni feedback (retroazioni) e inserendoli in uno schema esistente. Questo condizionamento è possibile e anzi necessario perché corrisponde al condizionamento parallelo su larga scala degli esseri umani coinvolti nelle interazioni con le cosiddette macchine intelligenti. Più gli esseri umani si rivolgono a queste macchine in modo meccanicamente semplice e non ambiguo, andando incontro alla tendenza degli algoritmi a semplificare e quantificare seguendo schemi di automazione, più le macchine agiscono "automaticamente" e sembrano "intelligenti". L'esperienza acquisita dagli esseri umani con i motori di ricerca sul World Wide Web è forse il modo più semplice per esemplificare questa tesi. Innanzitutto la maggior parte delle persone non ha idea di come funzionino gli algoritmi di ricerca. In questo senso patiscono decisamente l'alienazione tecnica segnalata da Simondon. In ogni caso, il macchinario al lavoro non è aperto allo scrutinio umano, ma nascosto, configurando una black box, una scatola nera e chiusa. Gli input entrano nella scatola attraverso l'angusto spazio vuoto deputato all'interrogazione umana; gli output escono sotto forma di liste di risultati ordinati secondo criteri non espliciti, ma certamente personalizzati e su misura in base alla domanda stessa e, se non alla persona stessa, almeno al profilo disponibile della persona. Questa crescente personalizzazione contribuisce alla sensazione di trovarsi di fronte a comportamenti intelligenti. In secondo luogo l'essere umano tende a rapportarsi al sistema di ricerca come a un oracolo: non solo non comprende i dettagli del suo funzionamento e non è quindi in grado di intervenire, riparare e modificare l'essere tecnico, ma addirittura 9 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco vi si avvicina come a una fonte automatica di verità, o almeno di risposte generate in modo automatico, cioè automagicamente. Certo, il lavoro di ricerca in un enorme bacino di dati è svolto da algoritmi, che operano a velocità straordinarie navigando nei meandri della rete. Eppure, se guardiamo più da vicino, scopriamo l'esistenza di un lavoro altrettanto fondamentale svolto dagli esseri umani in modo spesso del tutto inconsapevole, eppure talvolta veicolato sotto forma di "uso corretto" dell'interfaccia del sistema. Consideriamo un'esperienza comune. Quando gli umani iniziano a riempire il campo vuoto del motore di ricerca di Google, dove il cursore lampeggia, di solito hanno cura di inserire qualche parola chiave che sembra adatta a descrivere ciò che stanno cercando. Tendono a evitare di complicare troppo le cose e non di rado optano per le ricerche suggerite dal sistema, cioè quelle più ricercate. Il comportamento umano nei confronti della macchina è quindi semplificato e adattato a parametri statisticamente quantificabili. SE la maggior parte degli utenti con caratteristiche analoghe a me (ad esempio, il browser configurato in lingua italiana) ha cliccato un certo risultato, ALLORA automaticamente il sistema proporrà quel risultato per primo, perché statisticamente più cliccato dal gruppo di utenti a cui il sistema mi ha assegnato. ALTRIMENTI cercherà un risultato più vicino a quelle che ha identificato come caratteristiche che mi determinano, assimilandomi statisticamente ad altri utenti. Il costrutto condizionale IF-THEN- ELSE è all’opera Semplificazione e quantificazione non sono concetti comuni per definire "l'intelligenza", eppure questi sono i due principali attributi degli attuali sistemi di IA. Questo comportamento non è il risultato del caso, una caratteristica "emersa" dalle macchine grazie a un implacabile processo evolutivo, ma il risultato di un lungo processo di selezione, aggiustamento e perfezionamento di algoritmi e tecniche basato su presupposti teorici e ideologici. 3.3 I fondamenti tecnologici dell'IA La prima base tecnologica dell'IA è la semplificazione. Gli umani semplificano le loro domande perché questa è una condizione per rendere le loro domande comprensibili alle macchine. Per comodità, continuiamo con l'esempio del motore di ricerca. Come fanno le macchine a “capire” e distinguere il significato di una domanda umana su argomenti lontani relativi a contesti differenti, come un concetto legato alla teologia, alla storia dell'arte, al risultato di una partita di calcio giocata decenni fa o alla prossima programmazione dei cinema della zona? Dopo il fallimento dell'approccio dei sistemi esperti (in cui i problemi vengono rappresentati mediante simboli comprensibili dall’essere umano), i ricercatori hanno cominciato a supporre che non fosse rilevante per le macchine capire la semantica e si sono liberati del problema del contesto semplicemente ignorandolo. I sistemi hanno solo bisogno di semplificare la domanda e di essere in grado di calcolarne la rilevanza “indovinando” a cosa si riferisce la domanda. 10 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco Questo approccio connessionista si è dimostrato straordinariamente efficace perché è un modo di "trovare un risultato" estremamente economico dal punto di vista computazionale. Invece di essere effettivamente "esperto" di qualsiasi argomento, il sistema deve “solo” aver classificato le informazioni in base a parole chiave appropriate. Quando queste parole chiave vengono trovate nella richiesta, il sistema evita di vagliare altre possibili risposte che non contengono quelle parole chiave. Le parole chiave sono modelli estremamente semplificati che rappresentano la conoscenza reale descrivendo alcuni dei suoi aspetti, non la conoscenza stessa. Non stiamo negando l'incredibile utilità di questo tipo di tecnica, ma sottolineando la necessità di essere consapevoli dei limiti strutturali di queste procedure di modellazione. Una citazione molto nota dello statistico inglese George Box spiega chiaramente questo problema: “Tutti i modelli sono sbagliati, ma alcuni sono utili” [Box, 1979]. Naturalmente stiamo semplificando, ma il punto essenziale da tenere a mente è che queste procedure euristiche abilitate algoritmicamente (riduzione dei dati, ecc.) sono necessarie per far fronte alle sottigliezze dei linguaggi umani naturali. Cosa succede però se una data parola chiave appare sia in una serie di risultati di teologia che in una serie di risultati di partite di calcio? In realtà è un'ipotesi meno ridicola di quanto possa sembrare a prima vista. Ad esempio: dal portatile con cui stiamo scrivendo questo articolo, apriamo un browser web, andiamo alla pagina di un motore di ricerca e inseriamo la query “Mano di Dio”. Si può fare lo stesso con la voce, chiedendo a un assistente vocale “Cos'è la mano di Dio?” I possibili risultati riguardano la teologia, se si cercava l'antico motivo dell'arte ebraica e cristiana per rappresentare Dio senza raffigurare una figura umana completa. Ma anche a una famosa partita di calcio durante la Coppa del Mondo FIFA del 1986, quando il calciatore argentino Diego Maradona segnò con la mano, riferendosi poi a quell'episodio come "Mano di Dio". Può riferirsi anche a una scultura di Auguste Rodin (1898 circa), o a un film di Paolo Sorrentino. La seconda base tecnologica degli attuali sistemi di IA aiuta a superare queste difficoltà facendo ampio uso di metodi probabilistici. Gli esseri umani tendono ad accettare un risultato della macchina in base alla sua probabile correttezza, perché questa verità statistica è una condizione per effettuare la ricerca in un tempo ragionevole. Nel linguaggio corrente si usa spesso il termine probabilità, ma è una forzatura semantica. Le probabilità di lancio di una moneta sono calcolate su un evento molto semplice, con due soli risultati possibili (testa o croce) e che tra l'altro è stato ripetuto molte volte. Al contrario, è la prima volta che io eseguo la ricerca “La mano di Dio”, portando la mia storia personale (anche di profilazione web) con l'aiuto/mediazione di uno specifico portatile, in una situazione complessa con uno specifico browser web impostato in una lingua determinata, e così via. Come può il sistema prevedere cosa sto effettivamente cercando, se questa è la prima volta nella storia del mondo che questo evento si verifica, insieme a un numero non minimo di variabili? In breve, i metodi statistici usati in data science assegnano un numero a ogni risultato nel database disponibile e, tramite algoritmi di riduzione dei dati, 11 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco calcolano la possibilità che questo numero (risultato) sia quello che sto cercando, se si tratta di arte, calcio, film, teologia, ecc. restituendo un elenco ordinato di risultati desiderabili [Gleich, 2015]. A prescindere dalle varie teorie della probabilità, si può sottolineare che le operazioni di ordinamento dei risultati sono effettuate sulla base di parametri scelti dall'umano secondo le sue convinzioni personali e soggettive. Gli algoritmi vengono utilizzati per evitare la soggettività umana, ma in realtà le loro "probabilità" sono solo valutazioni soggettive dei possibili risultati, derivate dalle procedure statisticamente discutibili della cosiddetta data science, portando a rafforzare preesistenti pregiudizi molto umani come il razzismo [Noble, 2018] o la disuguaglianza nel processo decisionale di predictive policing [Babuta, 2018]. I sistemi di riconoscimento facciale sono infatti relativamente precisi nell’identificare individui classificati come “caucasici” negli Stati Uniti, ma molto meno abili nell’identificazione di individui “di colore”, perché sono stati “nutriti” con fotografie di persone perlopiù “caucasiche”. Allo stesso modo, individui classificati come “di colore” sono statisticamente considerati più inclini a commettere reati, banalmente perché le “intelligenze artificiali” sono state “nutrite” con i dati pregressi del casellario giudiziario statunitense, secondo cui le persone “di colore” delinquono più di altri gruppi. Oltre alla semplificazione della modellazione, il secondo elemento da considerare è che la probabilità basata sulla statistica è molto diversa dalla verità. Il quadro di condizionamento reciproco dell'interazione uomo-IA comincia a chiarirsi. Queste due basi tecnologiche dell'IA si fondano su due presupposti principali: la credenza nell’ottimizzazione e nell'organizzazione spontanea per ottenere un "buon" risultato, anzi l'"unico veramente vero". Il principio dell'ottimizzazione presuppone che sia non solo possibile, ma anzi adatto a ottenere un risultato "ottimale" che è quello perfetto, la corrispondenza esatta che risponde alla domanda [Goldberg, 1989]. Il principio di organizzazione spontanea nell'IA connessionista assume che questa risposta perfetta con un punteggio ideale del 100% verrà spontaneamente dal sistema a causa della sua evoluzione "naturale" in una rete organizzata. Comunque sia, la chiave è la disponibilità di dati per addestrare algoritmi per prevedere il futuro. I dati sono diventati la materia prima per realizzare il sogno di sviluppare l'IA, così come la disponibilità a basso costo e "illimitata" di altre materie prime (petrolio, gas, minerali, ecc.) è necessaria per lo sviluppo industriale. 3.4 Il valore dei dati È impossibile sopravvalutare l'importanza dei dati nelle attuali applicazioni del mondo reale legate all'IA. I dati sembrano essere ovunque, spesso sotto la vaga espressione di "Big Data", e tuttavia è molto difficile raggiungere un consenso scientifico su cosa siano esattamente i dati, e dove e come esattamente il valore economico possa essere estratto dai dati [Boyd e Crawford, 2011]. 12 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco Non sorprende che l'economia sia interessata allo sviluppo dell'IA, perché lo sviluppo tecnologico è sempre stato una fonte di potere e ricchezza. Le reti vengono considerate una fonte di valore perché producono dati. Ricordiamo che l'economista libertariano (non libertario, che è una categoria politica afferente alla famiglia socialista; libertariano, anti-socialista, sostenitore dell’espansione illimitata del capitalismo de-regolamentato, in inglese right libertarian) Frederich Hayek ha ispirato l'informatico Herbert Alexander Simon, uno dei padri dei sistemi esperti di IA euristici. Il cuore del connessionismo è una cieca fede nelle reti [Smith e Reisman, 1997]: crede infatti che situazioni con alti livelli di incertezza e complessità si "evolveranno" spontaneamente in una rete ordinata di agenti, proprio come in ambito organico l'intelligenza umana è considerata un fenomeno emergente dall'organizzazione spontanea dei neuroni nel cervello, seguendo modelli evolutivi. Questo “ordine spontaneo” ricorda precedenti metafore economiche, fra cui la celebre “mano invisibile” del mercato di Adam Smith. Il parallelo tra il cervello degli organismi e le reti neurali è cruciale. Ben prima dell'avvento dell'apprendimento automatico, in un documento del 1948 che rimase inedito fino al 1968, Alan Turing definì i computer simili al cervello “macchine non organizzate”, ipotizzando che i cervelli dei neonati fossero in gran parte non organizzati in modo simile fino a quando i loro algoritmi biologici impliciti li avrebbero plasmati verso un ordine spontaneo più strutturato (educato), proponendo una sorta di “ricerca genetica” per organizzare le reti. La sua visione presenta alcune sorprendenti somiglianze con le idee successive di Hayek, che sottolineava la confusione cerebrale dei cavi di connessione nell'ENIAC e in altri fra i primi computer [Turing n.d.]. Oltre mezzo secolo dopo, la narrazione di mercati auto-organizzati, “frictionless” (senza attrito), emergenti dalla concorrenza commerciale indisciplinata per la sopravvivenza va di pari passo con l'IA che emerge dai Big Data: condividono come terreno comune la fede cieca nell'Ordine Spontaneo che verrà, un giorno. Potremmo allora aspettarci che non sarà più necessario sforzo né lavoro per far prosperare l'IA. Sembra che basterà lasciare che sia il tempo a gestire tutto, grazie ai corretti algoritmi che lavorano senza sosta e instancabilmente. 4. Digital labour? No, grazie. 4.1 Una storia del concetto Invece di essere sull'orlo dell'estinzione grazie alla crescente automazione, il lavoro e lo sforzo a esso collegato sono molto presenti nel mondo in cui l'IA si sta sviluppando, il nostro comune mondo digitale di massa. Merci di ampio consumo equipaggiate con IA (ad esempio gli assistenti vocali attualmente alla moda come Alexa, Siri e simili) nascondono dietro la semplicità di interazione un’enorme complessità produttiva, logistica e industriale, nonché elevati livelli di sfruttamento in termini di manodopera umana, risorse energetiche e materie prime [Crawford, 2021]. 13 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco Le prime analisi che utilizzano l'espressione digital labour appaiono in articoli accademici nel 2009, senza arrivare a una definizione univoca. Una distinzione è però comunemente accettata: il digital labour non deve essere confuso con il lavoro digitale (digital work), che si riferisce alle persone che lavorano nel settore IT. Non si riferisce nemmeno ai lavoratori delle fabbriche dove vengono prodotti i dispositivi su cui si basa questo settore. Come scrive Antonio Casilli, “dobbiamo collocarci al di fuori dei classici luoghi di produzione per vedere apparire questo lavoro” [Casilli, 2015, 12]. In generale, lo sforzo teorico profuso cerca di mostrare cos’hanno comune pratiche online eterogenee di interazione con le macchine come la moderazione (blog, forum, commenti sui social network), la scrittura collaborativa di articoli online, il rating dei contenuti, la gig-economy (Uber, AirBnB). Si propone di leggere, prevalentemente e originariamente in una prospettiva di ispirazione marxista, queste pratiche alla luce delle relazioni sociali che caratterizzano l’ambito lavorativo. Portare alla luce il lavoro nascosto permette di denunciare forme di sfruttamento più o meno evidenti. Questo spiega in parte perché non esiste una definizione unanimemente condivisa di digital labour. Nel caso del lavoro "uberizzato", i profitti accumulati dalla piattaforma non possono corrispondere al surplus di lavoro risultante dalla differenza tra il capitale investito e il profitto ottenuto non remunerando il lavoro in eccesso, tranne quando si considera il lavoro degli sviluppatori e dei loro team che producono e sviluppano la piattaforma: ma questo è un caso di digital work e non di digital labour. Si tratta invece di una disruption libertariana (sconvolgimento libertario di destra) di interi settori economici. 4.2 Non si tratta solo di (social) media Per quanto riguarda i social media, il problema del contributo umano può apparire ancora più complesso. A prima vista, consultare i social sembrerebbe un puro "svago", condotto dagli esseri umani secondo i dettami del loro libero arbitrio; molti utenti si connettono con discrezione nel loro orario di lavoro retribuito, per sfuggire un po' alla routine. Tuttavia, poiché i media (sociali) di massa sono guidati dai dati di algoritmi che sfruttano i principi della cosiddetta IA, il loro utilizzo rientra nel condizionamento reciproco sopra delineato. Il modello di business che la maggior parte dei social media ha adottato è ormai noto: si basa sulla profilazione degli utenti, utilizzando dati e metadati che da loro disseminati durante la navigazione in rete, e sfruttando questi profili a fini commerciali, pubblicità compresa. La profilazione corrisponde alla semplificazione e quantificazione della massa umana per soddisfare l'analisi degli algoritmi. Il termine crowdsourcing appare per la prima volta nel 2006 nella rivista Wired, un mensile americano particolarmente influente nell'ambiente delle nuove tecnologie. Questo neologismo è una parola macedonia costruita da crowd e outsourcing. L'idea è semplice: Internet aumenta le possibilità di outsourcing (“abolendo” le distanze geografiche e permettendo di contattare un gran numero 14 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco di persone) e permette anche di aumentare la produttività mobilitando vere masse di “lavoratori”. In pratica, il crowdsourcing può assumere varie forme: • Grandi progetti "collaborativi", commerciali o meno. L'enciclopedia online Wikipedia è l'esempio più noto. Bot software automatizzati per monitorare, segnalare, correggere e vietare (discorsi di odio, ecc.) sono una parte cruciale di questo tipo di ecosistema. • Micro-lavoro. Il migliore esempio è la piattaforma Amazon Mechanical Turk. I turkers si iscrivono per eseguire HITs (Human Intelligence Tasks, come li definisce Amazon) che le macchine non sono (ancora) in grado di eseguire da sole o costano troppo (ricerca di un titolo per descrivere una foto o un video, trascrizione di file audio, moderazione dei commenti, standardizzazione dei nomi dei file, ecc), in cambio di un micro-lavoro. Amazon non è l'unico "datore di lavoro", chiunque può registrarsi per approfittare del grande mercato di micro- lavoratori (Amazon prende una commissione tra il 20% e il 40% della remunerazione). Gli algoritmi di Machine-Learning sono addestrati con le risposte dei turkers, e l'IA risulta essere sia il sistema che ottimizza l'assegnazione dei compiti, il modo per estrarre "comportamenti intelligenti" dagli umani e, senza alcuna ironia, il paravento dietro cui si nascondono i lavoratori umani sottopagati. • Micro-lavoro non retribuito. È il caso di reCaptcha, il sistema CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) di Google. Si trova spesso alla fine dei formulari, quando agli esseri umani viene chiesto, per dimostrare di essere effettivamente umani, di copiare una sequenza di caratteri o di selezionare, tra un insieme di immagini, quelle che corrispondono a un determinato criterio. Questo tipo di sistemi, che Google offre gratuitamente agli amministratori di siti web, permettono loro di impedire ai bot di utilizzare i loro servizi o di rendere più difficili gli attacchi brute-force, un attacco che consiste nel trovare una password testando una per una tutte le combinazioni possibili. La funzione esplicita di reCaptcha abilitata dall'IA è quella di impedire alle macchine meno intelligenti di interagire con il sistema. Infatti, i bot sono software in grado di interagire automaticamente con un server, simulando il comportamento umano. Ma d'altra parte rende anche possibile, grazie alle risposte date dagli utenti, migliorare il sistema di riconoscimento dei caratteri che Google utilizza sui libri che scansiona (e ha scansionato) per alimentare Google Books o, nel caso in cui gli venga chiesto di classificare le foto, migliorare le prestazioni di Google Street View e delle auto a guida autonoma, tutti servizi che fanno largo uso di tecniche di IA. • Lavoro speculativo. In crescita in settori come la grafica, il design, l'architettura o la fotografia, consiste nella creazione di piattaforme che offrono bandi di gara sotto forma di concorso. I concorrenti devono solo presentare il loro lavoro. Il vincitore otterrà di essere pagato. I sistemi di punteggio, valutazione, asta, offerta e vincita si basano su algoritmi di IA. Una nuova svolta è stata segnata dall'adozione di massa degli smartphone, che permettono un aumento del tempo di connessione e della reattività degli utenti. Inoltre forniscono il supporto a certe forme di consumo "collaborativo" senza 15 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco scopo di lucro (almeno per gli utenti, e in teoria) come il carpooling o le reti di scambio di ospitalità, ma anche la partecipazione dei cittadini a compiti di monitoraggio e controllo (COVID19 tracking, segnalazione di attività sospette) o le piattaforme di scambio C2C (Customer to Customer) che permettono di mettere in contatto domanda e offerta senza altri intermediari oltre alla piattaforma (Airbnb, Booking, Ebay, Subito.it e così via). Gli smartphone aggiungono la geolocalizzazione costante alla connettività permanente, combinandola con quella fornita da tutti gli altri terminali mobili indossabili, "intelligenti" e domotici, che si prevede aumenteranno nei prossimi anni con l'IoT (Internet of Things). Con gli utenti che hanno costantemente il loro dispositivo in tasca, con le piattaforme che diventano gli unici intermediari, è sufficiente implementare alcuni algoritmi di abbinamento per rendere la catena di approvvigionamento un po' più flessibile. L'applicazione concreta più evidente di un simile meccanismo è proprio il mercato della mobilità. Il servizio "auto con autista" di Uber è l’esempio più noto. Analoghe le piattaforme per consegne di pasti e qualsiasi altra merce da auto- imprenditori in bicicletta o simili, permanentemente geolocalizzati: i cosiddetti rider. I cloni di questo tipo di ecosistema, chiaramente di destra libertariana ispirato al mito dei mercati senza attrito e spontaneamente ordinati, sono infiniti. 4.3 IA o Automazione Industriale dell'umano Le piattaforme potenziate dall'IA sono sistemi per l'automazione industriale delle attività umane, che possono consistere nella ricerca, segnalazione, etichettatura, descrizione, trascrizione, annotazione, guida, condivisione, cura, distribuzione. Alcuni aspetti dell'approccio del digital labour sono interessanti, in particolare, nella misura in cui rendono esplicite le basi della crescente fortuna della maggior parte dei giganti di Internet; nel complesso però non è soddisfacente. Il suo principale punto debole sta nella definizione di lavoro. Se si vuole includere nella stessa categoria l'attività degli utenti sui social network, il micro-lavoro, l'uberizzazione, ecc. per denunciare forme di sfruttamento da una prospettiva che si dichiara critica nei confronti dell'economia politica vigente, bisogna restringere la definizione di lavoro al minimo comune denominatore tra queste attività: la produzione di "valore". Poiché è molto complesso definire esattamente dove e quando le micro-attività iterate come il tagging, il re-twitting, ecc. producono valore, questa strada non sembra molto promettente. Cosa chiedono i critici del digital labour una volta che hanno denunciato lo sfruttamento che questo tipo di lavoro rappresenta? Alcuni si indignano per l'indecente ottimizzazione fiscale di GAFAM e consorti che, va ricordato, stabiliscono le loro sedi europee in paesi dove beneficiano di un'aliquota fiscale molto bassa prima di inviare i loro profitti nei paradisi fiscali [Rougé, 2017; Kutera, 2017]. Ma spesso reclamano “l'ipotesi di un reddito di base come leva di emancipazione e misura compensativa” [Casilli, 2015, 39], che talvolta va a braccetto con l’idea di una tassazione più efficiente dei giganti di Internet. Si differenziano così dai più liberali, come Jaron Lanier, che ritengono che la nostra partecipazione ai mondi digitali dovrebbe essere ricompensata con 16 Mondo Digitale Febbraio 2023
L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco micropagamenti: non appena viene pubblicata una nuova informazione, il suo autore verrebbe automaticamente pagato, riceverebbe un compenso per il materiale originale che diffonde [Lanier, 2013]. Queste proposte suscitano almeno due critiche. In primis, manifestano un ristretto orizzonte in termini di critica al capitalismo e alla strategia politica, ben oltre il problema secondario della fattibilità del progetto del reddito universale. Si limitano all’aspetto economico. Ci vorrebbe un altro articolo per discuterne, ma altri ricercatori hanno chiarito la questione. Qui diremo qualcosa di più su una seconda critica. Il prisma redistributivo, mobilitato dalle proposizioni precedenti, porta a elidere alcuni aspetti decisivi: il condizionamento reciproco spinto dalla semplificazione e dall'ottimizzazione nel quadro della credenza dei "mercati spontaneamente ordinati senza attrito", le interazioni degli umani con le AI menzionate (che non sono macchine qualsiasi, ma macchine industriali), il crescente impatto di queste ultime sulla formazione della soggettività umana e il modo in cui ci fanno sottomettere sempre di più, per diventare completamente trasparenti all'estrazione di dati-valore delle macchine "intelligenti" [Ippolita 2019], mentre in realtà contribuiscono al loro sviluppo, attraverso strategie come il nudging [Thaler e Sunstein, 2014, Kosters e Van der Heijden, 2015] e la gamification [Koivisto e Hamari. 2019]. Pretendere di compensare emotivamente e ormonalmente (come pretendono di fare il nudging e la gamification attraverso rinforzi secondari positivi che stimolano la secrezione di dopamina) o finanziariamente (con denaro, con una qualche criptovaluta o con un reddito universale) le micro-azioni degli umani su Internet equivale a promuovere ancor di più le tecnologie del dominio. Equivale ad abbracciare l'automazione sotto forma di condizionamento e manipolazione comportamentale come l'unico modo appropriato di interagire con le macchine e a ridurre un po' di più le nostre prospettive di autonomia, compresa l'autonomia tecnica e l'elogio di Simondon per una "macchina aperta". Conclusione È necessario esplorare ulteriormente le interfacce in cui interagiscono umani e macchine, dal momento che è un rapporto di potere altamente distorto e profondamente influenzato, tra l'altro, da credenze personali, valutazioni soggettive spacciate per verità oggettive e malintesi teorici e pratici sull'agency degli esseri umani e tecnici. Crediamo che un'attenzione particolare vada rivolta ad approcci capaci di valorizzare le diverse sensibilità individuali che tengano conto dei saperi situati degli attori coinvolti, quindi a forme di pedagogia esperienziale inclusiva [Trocchi, 2019] nella tessitura delle relazioni con gli esseri tecnici. Possono essere alleati se si accetta di confrontarsi con la complessità in un quadro organico [Milani e Antoniadis, 2021]. La possibilità di "macchine aperte" simondoniane sarebbe concepibile solo in un contesto di reciproco sostegno e riconoscimento, impossibile nell'attuale paradigma dell'IA, offuscato da una nebbia di procedure di calcolo all'interno 17 Mondo Digitale Febbraio 2023
Puoi anche leggere