S&F_scienzaefilosofia.it

AI e archivio: un’analisi foucaultiana

Autore


Pierluigi Ametrano

Università Federico II di Napoli

PIERLUIGI AMETRANO ha conseguito la Laurea Magistrale presso l’Università Federico II di Napoli e svolge attività di Docenza nelle Scuole secondarie di secondo grado

Indice


  1. Introduzione
  2. AI e formazione discorsive
  3. Un approccio genealogico all’AI
  4. Conclusione

↓ download pdf

S&F_n. 27_2022

Abstract


AI and archive: a foucaltian approach

The aim of the essay is to investigate AI with an archaeological approach: so, we consider data as speech events and algorithms as discourses, which have own rules of formation of the objects. Then, with a genealogical approach, we consider the power effects of the sentences of AI on Selves and their bodies.

  1. Introduzione

 

Ask Delphi è la coscienza morale dell’AI o, meglio, lo è nelle intenzioni dei suoi progettisti. L’Università di Washington e l’Allen Institute for AI hanno elaborato un programma che è possibile interrogare per sciogliere i propri dubbi per precisi e spinosi dilemmi quotidiani;

Lo scopo dichiarato dei ricercatori […] è testare la capacità di un sistema, ancora in versione beta, di apprendere norme morali e assumere comportamenti eticamente fondati, in un momento in cui l’intelligenza artificiale si diffonde progressivamente nella società e connota sempre più le attività umane in diversi settori[1].

 

Come l’oracolo di Delfi, da cui prende il nome, gli utenti della rete si rivolgono al software per le questioni più diverse, solo che per addestrare l’applicazione è stato utilizzato come training set il Commonsense Norm Bank, il quale ha fatto ricorso alla piattaforma Amazon Mechanical Turk e al sito Reddit. Da ciò sono scaturite delle risposte paradossali, talvolta assurde, ma che rispecchiano pienamente l’ordine del discorso in cui è immerso il cittadino medio americano.

Il nome di intelligenza artificiale è dovuto a John Mc Carthy, che nel 1956 lo coniò per rendere la disciplina più accattivante e affascinante per i giornalisti, ma nella realtà per i ricercatori era conosciuta come simulazione computazionale, ciò a suggerire come il compito di questa tecnologia fosse quello di proporre delle simulazioni sulla base dei dati che aveva a disposizione. L’AI nasce quindi come disciplina delle macchine virtuali, che altro non sono che «schemi di attività (elaborazione di informazioni) che esistono a vari livelli»[2], e propone delle previsioni. Ciò comporta che il modo in cui l’informazione è elaborata dipende dal tipo di macchina virtuale coinvolta. Per essere più chiari i dati sono necessari e fondamentali, ma sono le regole di formazione, che correlano i dati, a fornirci una determinata e, talvolta, parziale visione della realtà.

Qualora volessimo usare una terminologia foucaultiana si potrebbe dire che i dati non sono altro che eventi dispersi, i Big Data sono immense raccolte di discontinuità discorsive e l’algoritmo è «il meccanismo delle regole che rendono possibile per un dato periodo la comparsa di oggetti»[3].

L’intento dell’articolo è duplice:

- da un lato, indagare il campo dell’AI con un approccio archeologico, per andare oltre l’unità del discorso dell’AI;

- dall’altro lato, tentare un’indagine genealogica per mostrare le implicazioni di potere degli enunciati proposti dall’intelligenza artificiale.

 

 

  1.  AI e formazione discorsive

Il termine AI è abbastanza fuorviante, giacché non esiste un’unica forma di intelligenza artificiale, infatti la strategia classica o simbolica (Good Old-Fascioned Artificial Intelligence), che applica una logica proposizionale, è differente dalle moderne reti neuronali (Artificial Neural Networks) a elaborazione parallela e probabilità logica. Le pratiche dell’AI sembrano essere un campo ottimale per un’analisi discorsiva di stampo archeologico, perché sono due le caratteristiche che tengono insieme la ricerca sull’AI:

- le informazioni o dati;

- il meccanismo di interpretazione dei dati.

Se nel passato la continua ricerca di informazioni era uno dei maggiori problemi dei ricercatori, con la nascita di Internet, e, soprattutto, del web 2.0 e dei network sociali, tale difficoltà è stata facilmente superata, tanto da creare una sovrabbondanza di informazioni a disposizione. Una delle caratteristiche dell’ipermodernità è di avere tradotto tutto in dati quantificabili, che paradossalmente non servono all’uomo ma alla tecnologia, «il mondo sta diventando un’infosfera sempre più adatta alle capacità limitate dell’intelligenza artificiale»[4]. Per datum non si intende solo le tracce che ogni utente lascia dietro di sé durante la navigazione, ma la produzione di contenuti verbali o visivi che sono pubblicate in rete, oppure le informazioni che cediamo quando creiamo un account su una piattaforma online.

Una quantità eccessiva ma dispersa di dati a disposizione, ma pur sempre un insieme limitato: in termini archeologici è possibile definire i dati come degli eventi discorsivi, e come tali sono un cumulo sterminato ma finito, «il campo degli eventi discorsivi rappresenta […] l’insieme sempre finito e attualmente limitato delle sole sequenze linguistiche che siano state formulate […] tuttavia costituiscono un insieme finito»[5].

Dopo aver raccolto e collezionato tale mole di informazioni, il compito dell’AI non è cercare un senso ma solo delle relazioni, o, più precisamente, delle correlazioni. Tali legami tra i dati sono densi e numerosi, e gli enunciati non si generano necessariamente in base a regole di pura sintassi, ma a probabilità logica o statistica, a «tecniche di concatenamento in avanti (forward-chaining) o di concatenamento all’indietro (backward-chaining) che spiegano in che modo il programma ha trovato la sua soluzione»[6]. In termini foucaultiani, «il sistema […] regola la loro ripartizione, l’appoggio che si danno reciprocamente con cui si implicano o si escludono, la trasformazione che subiscono, il meccanismo con cui si avvicendano, si distinguono o si restituiscono»[7].

L’AI ha il compito di dare una regolarità ai dati raccolti, in altre parole è la condizione di esistenza, di coesistenza, di mantenimento e di modificazione di un oggetto in una precisa ripartizione discorsiva. È il principio base applicato dall’algoritmo PageRank: «i creatori di Google non hanno creato un algoritmo che capisse […], navigando in rete e creando connessioni. I contenuti entrano in gioco in seguito, come risultato della classificazione e non come premessa»[8]. La pratica attuata da Google è l’esemplificazione archeologica del livello preconcettuale, ovvero

il livello preconcettuale […] costituisce, al livello più superficiale (al livello del discorso), l’insieme delle regole che vi si trovano effettivamente applicate, […], nell’analisi che si propone qui, le regole di formazione si collocano non nella mentalità o nella coscienza degli individui, ma nel discorso stesso; conseguentemente […] si impongono a tutti gli individui che cominciano a parlare in quel campo discorsivo[9].

 

Il campo preconcettuale non lascia solo trasparire le regole di formazione degli oggetti e dei concetti, ma anche le costrizioni e le restrizioni che sono in atto in quel determinato livello discorsivo.

È qui, a livello del preconcettuale, dove affiorano le strategie che invadono e danno forma al campo in cui le singolarità sono collocate, che l’archeologia cede il passo alla genealogia, perché ora il discorso dell’AI inizia a formare oggetti, a proferire parole e a mostrare immagini che prima non c’erano e non si vedevano. Proprio come nell’analisi discorsiva, l’AI non ha di fronte a sé degli oggetti, ma «leggi di possibilità, […] regole di esistenza per gli oggetti che vi si trovano nominati, designati o descritti, per le relazioni che vi si trovano affermate o negate»[10]. La computazione algoritmica è il nuovo campo di emergenza di oggetti e soggetti, è un campo affollato, ma ai cui margini c’è sempre una miriade di altre formulazioni che restano escluse.

Con semplicità e leggerezza, l’AI applica il principio di specificità: «occorre concepire il discorso come una violenza che noi facciamo alla cose, in ogni caso come una pratica che imponiamo loro; e proprio in questa pratica gli eventi del discorso trovano il principio della loro regolarità»[11].

L’AI elabora quindi dei dati ma si esprime per enunciati, che hanno la forza di una performance nel senso che producono precisi e ponderati effetti. L’AI si esprime per enunciati performativi, «esso indica che il proferimento dell’enunciato costituisce l’esecuzione di una azione – non viene normalmente concepito come semplicemente dire qualcosa»[12]. Una macchina virtuale può diagnosticare una patologia o semplicemente prospettarci un itinerario automobilistico da seguire, ma in entrambi i casi induce a eseguire [to perform] dei precisi e vincolanti ordini.

Ovviamente non è necessario che tali enunciati siano veri o falsi, ma che esercitino i loro effetti di potere sulla molteplicità dei soggetti che sono immersi nel discorso.

 

  1.  Un approccio genealogico all’AI

Fin dall’inizio dello sviluppo dell’AI, gli archivi su cui addestrare i software sono stati sempre un problema, dal database lessicale WordNet fino alle immagini segnaletiche dei detenuti per allenare al riconoscimento facciale, i dati utilizzati per apprendere sono da sempre il fondamento su cui si regge l’AI. Il data mining ha rappresentato sempre un’incessante ricerca di informazioni da computare, che è divenuta più semplice quando Internet è divenuta interattiva, ma non si è per nulla arrestata, anzi è divenuta più compulsiva e pervasiva. Ogni soggetto cede una parte dei propri dati personali, come prezzo per usufruire dei servizi come l’utilizzo della posta elettronica, fino al paradosso del febbraio 2020 quando una sterminata, se non totale, quantità di informazioni è stata ceduta gratuitamente dal sistema scolastico a Google, per utilizzare i servizi della piattaforma durante la pandemia. Quasi un esempio della prassi genealogica di come si produce sapere e si esercita il potere:

è così che gli individui su cui si esercita il potere sono o ciò da cui si va a estrarre il sapere che essi stessi hanno creato e che sarà ritrascritto e accumulato secondo nuove norme, o gli oggetti di un sapere che in realtà permette nuove forme di controllo[13].

 

Nel passaggio dall’analisi archeologica dell’AI a un’indagine genealogica sugli effetti di potere è necessario chiarire come le regole di formazione del discorso siano da sempre oggetto di una lotta politica, «nella nostra società […] la proprietà del discorso […] è praticamente riservata […] a un determinato gruppo di individui»[14]. Infatti, Alphabet custodisce gelosamente il codice di PageRank, così come Facebook o molte altre grandi aziende che non mostrano chiaramente il meccanismo degli algoritmi che sottende il loro funzionamento. Non è infatti inappropriato riferirsi alle stringhe di codice come a delle black-boxes, non solo perché non è chiara la strategia con cui operano, ma perché gli effetti di potere della loro computazione hanno dei precisi riflessi sul corpo dei soggetti e all’interno del corpo sociale.

Profilare una singolarità sulla base dei dati che ha disseminato nella rete, significa non solo elaborare una soggettività altra e digitale, ma, soprattutto, significa «legare sempre di più l’individuo alla sua verità […] a far funzionare questo dir vero nei suoi rapporti con gli altri, e a obbligarsi attraverso questa verità detta»[15]. I dati elaborati danno vita a un soggetto ontologico digitalmente fondato, che è staccato dall’attualità del reale, e anzi ha una vita propria e delle abitudini rigidamente connotate, che hanno delle ripercussioni nelle pratiche sociali, infatti dalla ricerca lavorativa alla sottoscrizione di un mutuo, è sempre più l’avatar a essere interrogato e analizzato.

Una dinamica adottata anche dal potere democratico, ormai incapace di limitare l’impropria profilazione da parte delle aziende, anzi sembra avvalersi di tale meccanica per il proprio funzionamento; infatti, il pericolo è che «una democrazia […] rischia di trasformarsi in qualcosa di simile a una algocrazia, una democrazia digitalmente modificata»[16]. Nell’epoca ipermoderna, il correlato del potere democratico non è la moltitudine dei soggetti, ma la molteplicità dei propri account online, di cui si ricercano le tracce disseminate nella rete e di cui si tenta di prevedere le mosse, fino alla conseguenza che «il cittadino datificato è governato da […] lo ius algoritmi, la legge degli algoritmi, simile ad altri tipi di legge che controllano la cittadinanza»[17].

La virtualità cristallizza i singoli nelle loro cyber-abitudini, e li inchioda a un’alterità informatica che è difficilmente poi modificabile, e non è detto che le due dimensioni della singolarità coincidano, fino al paradosso dell’«epidermizzazione digitale, l’imposizione della razza al corpo. Così funziona il potere quando lo sguardo disincarnato delle tecnologie di sorveglianza “provvede ad alienare il soggetto producendo una verità sul suo corpo e sulla sua identità a dispetto delle convinzioni del soggetto stesso”»[18]. Quel che può sembrare un errore nella progettazione del software o un inciampo nell’esecuzione del programma, è una precisa strategia nell’esercizio del potere, perché anche l’AI è una disciplina e come tale «gli schemi di classificazione mettono in atto e supportano le strutture di potere che li hanno creati»[19]. Come ogni produzione discorsiva anche l’AI istituisce un proprio regime di verità, che si avvale di una metodologia scientifica, che codifica il vero e stigmatizza il falso, in quanto la computazione delle informazioni mostra genealogicamente quanto «la verità è inseparabile dalla procedura che la stabilisce»[20].

Quel che appare non è solo la distorsione dei dati o l’inappropriata scrittura del codice algoritmico, quel che preoccupa è come una tecnologia informatica si è imposta come un ordine discorsivo estremamente seducente, che obbedisce a un preciso principio di controllo della produzione degli enunciati e in cui i soggetti sono immersi.

L’AI è quindi una formazione discorsiva che obbedisce a delle regole matematiche, ma al tempo stesso è una pratica strategica, un discorso che elabora delle verità e come tale è divenuta tema d’appropriazione e di rivalità, ovvero motivo di un inevitabile scontro.

Dati, algoritmi, correlazioni e predizioni è la sequenza classica che sembra rappresentare l’elaborazione computazionale delle informazioni da parte dell’AI. Eppure, la linearità di tale processo si inceppa laddove ci si soffermi a indagare come anche l’intelligenza artificiale, come ogni sapere, «è controllata, selezionata, organizzata e distribuita tramite un certo numero di procedure che hanno la funzione di scongiurarne i poteri e i pericoli»[21].

L’analisi archeologica condotta in un primo momento ha voluto mettere in luce il regime di materialità degli enunciati dell’AI, come obbediscano a precise regole di formazione, apparizione e dispersione, mentre in un secondo momento, ci si è soffermati su come proprio la limitatezza di tale enunciati sia poi la causa di un desiderio di appropriazione, ovvero di «un bene che conseguentemente […] pone il problema del potere; un potere che costituisce, per natura, l’oggetto di una lotta, e di una lotta politica»[22].

 

  1. Conclusione

Dice Foucault: «la finitudine dell’uomo si annuncia – e in modo imperioso – nella positività del sapere»[23]. È proprio la finitudine del soggetto la premessa scientifica alla logica dell’AI. È proprio perché la realtà e la singolarità sono finite e possono essere scomposte in una straordinaria collezione di dati, che le migliaia di stringhe di un codice possono ricostruire una serie di relazioni di senso tra le informazioni ricevute. È proprio perché la produzione di informazioni è sovrabbondante ma limitata, che un algoritmo può computare le correlazioni tra tracce digitali disperse. Come nell’analisi archeologica, è solo l’eccessiva ma circoscrivibile diffusione degli enunciati che permette l’applicazione delle regole di formazione discorsiva.

Solo che l’AI non cerca solo delle relazioni significanti, ma elabora una propria prospettiva della realtà, «le gouvernement algorithmique “crée” une réalité au moins autant qu’il l’enregistre. Il suscite des “besoins” ou désirs de consommation»[24], così come del soggetto: «dans la gouvernementalité algorithmique, chaque sujet est lui-meme une multitude, mais il est multiple sans alterité, fragmenté en quantité de profils qui tous, se rapportent à “lui-meme”, à ses propensions, ses désirs présumés, ses opportunités et ses risques»[25].

L’AI ha una propria governamentalità che ha come obiettivo non quello che accade, ma quel che può accadere, così che l’evento perda il proprio lato imponderabile: «Le champ d’action de ce “pouvoir” n’est pas situé dans le présent, mais dans l’avenir. Cette forme de gouvernement porte essentiellement sur ce qui pourrait advenir, sur les propensions plutôt que sur les actions commises»[26]. Allo stesso modo, la singolarità assume nella prospettiva dell’AI una nuova forma che non è più quella della soggettività classica, ma frammentata in decine di profili; il soggetto scompare ma ritorna nella forma di progetto, «oggi, non ci riteniamo soggetti sottomessi, ma progetti liberi, che delineano e reinventano se stessi in modo sempre nuovo»[27].

Il singolo disperso nel calcolo computazione si sperimenta come una progettualità libera, tanto che non compie più delle azioni ma delle performance, e come tali sono valutate tramite un metro oggettivo e perciò devono anche obbedire a dei criteri di efficienza. I progetti singolari divengono delle prestazioni valutabili da parametri oggettivi, le cui componenti matematiche sono analizzate nella maniera più rigorosa e le possibilità divengono previsioni, erodendo però i limiti del presente e attualizzando il futuro.


[1] C. Lavalle, Ask Delphi, l’intelligenza artificiale che fornisce risposte a dilemmi morali, in «La Repubblica», XLVI, 306, 2021.

[2] M. A. Boden, L’intelligenza artificiale (2016), Il Mulino, Bologna 2019, p. 10.

[3] M. Foucault, L’archeologia del sapere. Una metodologia per la storia della cultura (1969), tr. it Rizzoli, Milano 1971, p. 45.

[4] L. Floridi, Intelligenza artificiale: il divorzio tra azione e intelligenza, in «aut aut», LXXI, 392, 2021, pp. 35-50.

[5] M. Foucault, op. cit., p. 37.

[6] M. A. Boden, L’intelligenza…, cit., p. 30.

[7] M. Foucault, L’archeologia…, cit., p. 77.

[8] E. Esposito, Dall’intelligenza artificiale alla comunicazione artificiale, in «aut aut», LXXI, 392, 2021, pp. 20-34.

[9] M. Foucault, L’archeologia…, cit., p. 83.

[10] Ibid, p. 122.

[11] M. Foucault, L’ordine discorso (1971), tr. it. Einaudi, Torino 1972, p. 41.

[12] J. L. Austin, Come fare cose con le parole (1962), tr. it. Marietti, Genova 1987, p.11.

[13] M. Foucault, La verità e le forme giuridiche, in Archivio Foucault. Interventi, colloqui, interviste 1971-1977: poteri, saperi, strategie (1994), tr. it. Feltrinelli, Milano 1997, p. 161.

[14] M. Foucault, L’archeologia…, cit., p. 90.

[15] M. Foucault. Mal fare, dir vero. Funzione della confessione nella giustizia. Corso di Lovanio – 1981 (2012), tr. it. Einaudi, Torino 2013, p. 11.

[16] E. Greblo, Democrazia o algocrazia, in «aut aut», LXXI, 392, 2021, pp. 115-124.

[17] V. Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita, Luiss University Press, Roma 2021, p. 76.

[18] K. Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA (2021), tr. It. Il Mulino, Bologna 2021, p. 150.

[19] Ibid, p. 166.

[20] G. Deleuze, Foucault (1987), tr. it. Feltrinelli, Milano 1987, p. 69.

[21] M. Foucault, L’ordine…, cit., p. 5.

[22] Id., L’archeologia…, cit. p. 161.

[23] Id., Le parole e le cose. Un’archeologia delle scienze umane (1966), tr. it. Rizzoli Editore, Milano 1967, p. 338.

[24] A. Rouvroy, T. Berns, Gouvernementalité algorithmique et perspectives d’émancipation, in «Réseaux», Issue 1, 177, 2013, pp. 163-196.

[25] Ibid.

[26] Ibid.

[27] H. Byung-Chul, Psicopolitca. Il neoliberalismo e le nuove tecniche del potere (2016), tr. it. nottetempo, Milano 2016, p. 9.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *