Autore
Indice
- Introduzione
- I Big data e la AI
- Il carattere strumentale della AI
- Conclusioni
S&F_n. 20_2018
Abstract
FROM CYBERNETICS TO DATAISM. SOME NOTES ON THE OBSOLESCENCE OF THEORY AND ARTIFICIAL INTELLIGENCE IN THE ERA OF BIG DATA
The dataism is the new frontier of technological era, where the being is converted in quantity. The so called Big Data are, in this scenario, the new oil, the principal source for the extraction of value and information. The possibility to process a huge amount of information in order to describe, analyse and predict a phenomenon, has made even the theory obsolete. In addiction Big data are also closely tied to the development of the Arificial intelligence, of which they are the “blood”. The present paper aims at focusing the nexus between Big Data and Artificial intelligence and between the digital turn and the cybernetics from a critical perspective on technology, rooted in the philosophical anthropology.
- Introduzione
In un articolo apparso su Wired Magazine il 23 giugno 2008 dal titolo The end of theory: the data deluges makes the scientific method obsolete, il direttore Chris Anderson affermava che nell’epoca del petabyte il metodo scientifico, basato sulla verifica empirica e sulla teoria, sia stato superato dalla possibilità di processare dati migliori e più completi con strumenti algoritmici più precisi[1]. Nell’epoca della rivoluzione digitale il momento teorico nella scienza, e con esso l’epistemologia, risulterebbero in questo modo del tutto obsoleti, soppiantati dalla evidenza del dato. I Big data[2], razionalizzati dagli algoritmi attraverso procedure di Big Data Analytics e Data mining, hanno una precisione tale nell’inquadrare i fenomeni che persino la stocastica risulta a confronto superata. Ma a che tipo di conoscenza danno accesso i Big data? Russel L. Ackoff, uno dei padri del system thinking, nel suo famoso modello DIKW (Data, Information, Knowledge, Wisdom), settava lo standard della attività dell’analista di dati, secondo un processo di sempre maggiore razionalizzazione dalla loro raccolta fino all’elaborazione di una conoscenza previsionale (Wisdom), volta a incrementare la capacità previsionale a partire dai set di dati sempre più accurati[3]. Maggiori sono i set di data, maggiore sarà la capacità previsionale; sotto questo aspetto, la rivoluzione Big data dischiude nuovi inesplorati territori. Nell’epoca del cosiddetto dataismo le attività previsionali sono ormai quasi completamente delegate alla Data Science, che si avvale della cosiddetta AI (Artificial intelligence) e del Machine Learning rispetto a cui persino il data scientist rischia di divenire istanza superflua. Questo tipo di conoscenza/intelligenza, che elide la pretesa aristotelica di dire il fenomeno a partire dalle sue “cause e principi” in favore della mera, presunta, evidenza operativa del dato, è latore di un’istanza recondita assimilabile a quella che Heidegger identificava come pensiero calcolante, fase destinale della metafisica occidentale, che come tale segnava la fine del pensiero nella forma della filosofia[4].
Come è noto, di fatti, Heidegger interpretava la relazione tra tecnica e linguaggio come “cattura” del linguaggio da parte della tecnica nella sua declinazione cibernetica, esito definitivo dell’ontologia del metodo cartesiana, come delineato nel Nietzsche. Cos’è infatti il dato se non un tipo di informazione espresso in un determinato linguaggio? Il dataismo nel considerare riduzionisticamente l’esistente come “dato”, quantità numerica e materia prima è, da questa prospettiva, la logica conseguenza, il dispiegamento e la manifestazione ultima della presa del Logos sull’esistente, fenomeno originario che agisce da sempre dietro la storia del sapere occidentale.
In questo senso, sulla falsariga delle analisi heideggeriane, integrate da una prospettiva più marcatamente antropologica, e senza tralasciare la lezione di Lyotard sul post modernismo come società del controllo e gestione della informazione dove «il sapere diventa la principale forza produttiva»[5], intendiamo tematizzare i presupposti del dataismo e analizzarne le relazioni con la cosiddetta Artificial Intelligence nelle sue più moderne declinazioni. I Big data, infatti, da un lato sono il sangue e l’alimento della AI e del Machine learning, il processo mediante cui le macchine imparano in modo iterativo attraverso algoritmi, dall’altro, un nuovo tipo di intelligenza e razionalità propriamente macchiniche vengono affiancate al logos “umano troppo umano” rischiando di decretarne la definitiva antiquatezza, data la maggiore potenza di queste nella elaborazione del dato e di estrazione di informazione. Nell’assunto che vede la scienza e il suo metodo obsoleti, e con essi la stessa ragione occidentale, è necessariamente sottinteso che un nuovo tipo di razionalità calcolante abbia preso il suo posto; tale ruolo ci sembra sia, nelle parole di Anderson, ricoperto dalla AI, o meglio da una sua possibile declinazione. Discuteremo in corso d’opera la puntualità di tale argomento.
Quel che è certo, tenuto conto di questi aspetti, è che il dataismo si configura come l’ultima declinazione dell’epoca della tecnica, epoca della finis historiae, che vede l’uomo in una posizione di co-storicità e subalternità rispetto ai suoi prodotti. Tuttavia, mettendo per un attimo da parte ogni implicazione unilateralmente “apocalittica” del fenomeno Big Data che, come ogni rivoluzione tecnologica, si presenta sotto una veste ambigua come un Giano bifronte[6], bisogna sottolineare anche i progressi che l’aumento esponenziale di disponibilità dei dati ha apportato in campi come la cosmologia, la medicina, le scienze sociali. Allo stesso modo, evidenti sono i rischi per la convivenza democratica, come dimostra il caso Cambridge Analytica, dal momento che l’intero flusso di dati è regolato, gestito e posseduto da un ristretto numero di Big Data Provider, quali le cosiddette GAFA[7], ovvero istanze sovranazionali e private che si sottraggono a ogni forma di controllo statale[8].
La rivoluzione Big data rappresenta una nuova sfida per il pensiero filosofico sotto molteplici aspetti, ontologico, epistemologico, etico, gnoseologico, non schiacciabile unicamente al problema della privacy; se infatti il filosofo è, secondo la metafora nietzschiana poi affibbiata da Heidegger a Ernst Jünger, il sismografo che capta l’attualità ed è capace di prevederne gli sviluppi in anticipo sui tempi, il tentativo di decifrare le implicazioni della Quarta Rivoluzione è necessariamente un compito per filosofia contemporanea.
Per evidenti limiti spaziali, temporali e di opportunità, in questo contributo tenterò di circoscrivere la questione Big data limitatamente alla problematica della AI, per tentare di decifrarne le istanze più recondite, pertanto, esso sarà diviso in tre sezioni fondamentali: la prima sarà preposta all’inquadramento generale della questione, ovvero insisterà sui nessi intercorrenti tra big data e AI; la seconda segnatamente teorica inquadrerà il fenomeno del dataismo e della AI all’interno della più generale questione antropologica della tecnica intesa a un tempo come esito della metafisica occidentale e di un processo di graduale “esteriorizzazione” psico-fisica del gesto e dell’attività cognitiva; la terza e ultima, a netto delle analisi compiute, intende delineare possibili “vie d’uscita” al problema della riduzione dell’umano all’istanza macchinico-dataista, richiamando la specificità della razionalità umana rispetto alle forme di AI.
- I Big data e la AI
La questione della obsolescenza dell’uomo nell’epoca della tecnica è una tematica che la filosofia novecentesca ha ampiamente discusso anche attraverso il ricorso a suggestive distopie, metafore elementari, visioni apocalittiche e apologetiche. L’immagine di un’umanità spogliata dalla sua aura prometeica e ridotta a mero ingranaggio e ancilla machinae è stata un topos della scuola fenomenologica e post fenomenologica di ascendenza heideggeriana al pari di una certa tradizione francese facente capo a Simondon, Ellul, Mumford. Se tuttavia il “rischio” tecnologico in tali scuole è stato affrontato soprattutto per quel che concerne la possibilità materiale di un annichilimento globale, il problema ecologico e il controllo cibernetico e biopolitico della nuda vita, l’idea dell’imminente comparsa di una singolarità tecnologica[9] che esautori del tutto l’essere umano, lo zoon logon echon, finanche nella suo peculiare esercizio della facoltà razionale e simbolica, non è stato propriamente tematizzato, a differenza dell’ambito letterario della cosiddetta science fiction[10]. La possibilità di arrivare a una Human-Level-Machine Intelligence (HLMI) ossia «un’intelligenza che può svolgere la maggior parte delle professioni umane come una persona normale o meglio»[11], è un traguardo raggiungibile secondo alcuni studi nel 2022 con una probabilità del 10 per cento, nel 2040 con una probabilità del 50 per cento e nel 2075 con una probabilità del 90 per cento[12]. Quel che è certo, è l’attuale lontananza del traguardo; il fatto che le macchine siano di gran lunga inferiori agli esseri umani per quel che riguarda l’intelligenza generale, nonostante raggiungano livelli di eccezionalità per quanto riguarda ristretti ambiti specifici[13], prevalentemente grazie al progresso delle tecniche computazionali, riconfina l’avvento di una HLMI in un tempo ulteriore. Eppure, nonostante tale inferiorità o meglio tale differenza qualitativa, tra intelligenza umana e macchinica, tanto è già bastato alle macchine per conquistare il mondo. Qui, pertanto, non ci occuperemo della AI dal punto di vista di un oggetto tecnologico autocosciente capace di emulare l’intelligenza umana al punto da poter ricreare altre intelligenze artificiali, tale campo, seppur degno di attenzione, ci porterebbe troppo lontano, ma di un tipo di AI già largamente sviluppato che vede nel suo binomio con i Big data il suo principio genetico e la sua modalità di implementazione.
Ciò non vuol dire che il processo di automazione e di deroga a intelligenze artificiali compiti precedentemente svolti da intelligenze “organiche” sia in qualche modo interrotto. Il progresso tecnologico su due fronti principali – il fondamento statistico e informatico-teorico dell’apprendimento automatico e il successo pratico e commerciale di varie applicazioni della IA – ha fatto ritornare in auge la questione della Superintelligenza artificiale. Se l’intelligenza umana, infatti, rimane a oggi semantico-simbolica, la IA agisce prevalentemente sintatticamente[14], essa ha principalmente un uso “tattico”. Eric Schmidt, l’amministratore delegato di Google, in una recente intervista con Philip Larrey[15] sottolinea come la AI non sia ancora in grado di pensare autonomamente, ma che sia una tecnologia strettamente dipendente dall’apprendimento automatico[16], ovvero da dati e algoritmi, al punto da sovrapporsi a esso. Allo stato attuale, il Machine learning è una procedura più simile a un processo di addestramento piuttosto che di apprendimento, che al contrario comporterebbe un’effettiva elaborazione simbolica di determinati input.
Ma andiamo a vedere più da vicino cosa sia effettivamente la AI e quali siano le sue declinazioni contemporanee. Esistono due macrocategorie di AI secondo la celebre suddivisione di John Searle: la AI debole di primo e secondo livello, forma abbastanza semplice e non provvista di autocoscienza, funzionante attraverso le cosiddette “reti neurali” e il Machine Learning; la AI forte che presuppone un livello ulteriore di autonomia della macchina e una relativa autocoscienza[17].
Qui ci occuperemo di AI debole perché quella a oggi più diffusa, mentre l’analisi della forte ci porterebbe troppo lontano, visto anche il coinvolgimento di discipline quali la robotica cognitiva.
La AI debole è generalmente riferita allo studio di specifici problemi, non è volta, pertanto, alla realizzazione di macchine che possano avere un’intelligenza umana, ma a sistemi che possono essere altamente performativi nell’adempimento di alcune funzioni umane complesse, di verificare ipotesi in maniera estremamente precisa. La macchina non pensa in maniera autonoma, ma simulata e ha bisogno, in alcuni casi, della componente umana. A questa si è aggiunta in tempi moderni, la AI debole di secondo livello basata su processi di Deep learning e algoritmi, capaci di gestire enormi moli di dati. Tali tecnologie sono utilizzate dalle auto a guida automatica come quelle in fase di sviluppo di Google, nell’aeronautica, in medicina, per citare alcuni ambiti. Il Deep learning alla base di tale tecnologia è fondamentalmente incentrato su algoritmi capaci di trovare regolarità in enormi complessi di dati, soprattutto immagini, grazie all’implemento di reti neurali artificiali.
Inoltre, la AI debole è generalmente riferita allo studio di specifici problemi, ha come fine primario il problem solving, ossia è la capacità che prevede l’acquisizione di nuove conoscenze/informazioni, che permettono di elaborare complessi di dati in funzione di compiti precisi. A essa sono delegate mansioni assai specifiche, è pertanto una forma di intelligenza “simulata”. Una di AI debole è ad esempio il calcolatore IBM Deep Blue primo campione mondiale non umano di scacchi. Big data e AI debole trovano una saldatura proprio perché essi alimentano le reti neurali capaci di assolvere alla loro classificazione e interpretazione[18] attraverso il Machine learning. Questo complesso di tecniche costituisce la cosiddetta Big data Analytics.
Il Deep learning è una sottocategoria del Machine learning le cui modalità di apprendimento differiscono a seconda del tipo di algoritmo utilizzato. Distinguiamo tra apprendimento supervisionato, non supervisionato e per rinforzo. Il supervisionato consiste nel fornire al sistema informatico una serie di nozioni specifiche e codificate ossia modelli ed esempi che permettano la costituzione di un vero e proprio database di esperienze, la matrice a partire da cui la macchina apprende; la macchina è altresì capace di formulare ipotesi induttive scansionando una serie di problemi specifici, per ottenere una soluzione a un problema generale.
L’apprendimento non supervisionato non prevede la codifica preliminare delle informazioni senza alcun esempio di utilizzo. La catalogazione delle informazioni e i risultati sono demandati alla macchina stessa, che deve, di conseguenza, autonomamente impartire loro significato e produrre un risultato. A questo livello è ipotizzabile una certa autonomia della macchina, che può avvalersi di una certa “libertà” di scelta nell’evidenziare risultati migliori data una situazione.
Infine, abbiamo l’apprendimento per rinforzo che è, grosso modo, la traduzione in campo tecnologico di determinate teorie comportamentiste riguardo l’apprendimento per rinforzo, primario e secondario, positivo e negativo. Questo metodo interessa macchine più complesse, strumenti in grado di implementare autonomamente il loro grado di apprendimento e di comprendere l’ambiente circostante. Questo tipo di tecnologia a cui ascriviamo le auto senza pilota si attesta sicuramente al confine tra intelligenza artificiale forte e debole, visto che è chiamata a compiere in alcuni casi anche “scelte” che potrebbero avere implicazioni etiche[19].
Una delle principali caratteristiche di queste tecniche di Machine learning, in particolare di quelle ad apprendimento non supervisionato, è appunto la stretta correlazione con branche dell’informatica e della statistica come ad esempio nel Data mining. Tali procedure mirano all’estrazione di informazioni. È qui che c’è la giuntura tra AI e Big data.
I Big data generati dall’immensa mole di relazioni e interazioni degli utenti sul Web, vengono acquisiti e strutturati[20], e proprio sulla capacità di gestire, strutturare e estrapolare informazione da tali dati si gioca il futuro dei Big Data Provider e delle società che si occupano Data analysis.
L’acquisizione avviene tramite API (interfaccia di programmazione di un’applicazione) preposte proprio alla registrazione dei dati quando si accede a un sito, mediante software appositi, interpretando ed estrapolando dati dal flusso della rete, tramite i cookies della navigazione web, o tramite la vendita diretta a terzi da parte degli sviluppatori dei social network come Facebook o Istagram. I dati così raccolti vengono stoccati in data set di grandi dimensioni. A ciò segue la procedura di strutturazione tramite algoritmi mirati. Il ciclo può essere riassunto dai seguenti passaggi interconnessi: capture, organize, integrate, analyze, act[21].
Un esempio di correlazione tra AI e Big data ci è offerto dalla già menzionata Waymo la self-driving car di Google, progetto attualmente guidato dall’ingegnere Sebastian Thrun, direttore del Laboratorio di Intelligenza Artificiale Stanford e co-inventore di Google Street View.
Sull’argomento citiamo le parole dello AD di Google Schmidt:
Per cominciare, l’intelligenza artificiale si può definire come un qualcosa in cui i computer fanno cose che l’uomo sembra in grado di fare. All’interno di Google usiamo l’intelligenza artificiale in molti modi: per fornire migliori risultati di ricerca, per migliorare la qualità della pubblicità, per la traduzione automatica […]. Per il momento siamo ancora fermi a un uso tattico. Lo veda come un’automobile, un mezzo di trasporto per le persone, null’altro. […] In genere, almeno per il momento, apprendimento automatico e intelligenza artificiale sono perlopiù la stessa cosa. Con l’apprendimento automatico non si programma un risultato, si cerca di ottenerlo. Le faccio un esempio molto semplice: voglio poter riconoscere una zebra. Potrei scrivere delle linee in codice che dicano: “Cerca un animale che abbia delle strisce così e cosà”. Oppure potrei prendere una serie di immagini di zebre e altri animali e dire. “Questa è una zebra, e questa no; quest’altra è una zebra e questa anche, ma questa no e quest’altra nemmeno” e così via. Nel primo caso si tratta di programmare, nel secondo di addestrare. I sistemi in uso a oggi sono sistemi di addestramento[22].
Tale “addestramento” è guidato dall’algoritmo; nel caso dei big data, algoritmo è la forma che aristotelicamente dispone la materia, i dati, per strutturarli. Il processo di mining può essere, come abbiamo detto, supervisionato quando l’algoritmo impara in base a una risposta già aprioristicamente data, e non supervisionata in cui l’algoritmo agisce autonomamente in base a considerazioni statistiche. Nel secondo caso le operazioni di Machine learning prendono il nome di Clustering, analisi multivariata del dato volta alla costituzione di un omogeneo sistema di dati.
L’algoritmo, che non è altro che una procedura che tenta di risolvere un determinato problema applicando una sequenza precisa e finita di istruzioni, permette lo studio del flusso dei dati in tempi brevissimi, infinitamente superiore a qualsiasi capacita di gestione umana. A oggi questi procedimenti sono entrati di prepotenza in tutte le scelte aziendali per quanto riguarda la produzione, il marketing, le politiche sul personale.
Il rischio maggiore di tali processi sta in almeno due caratteristiche delle procedure di estrazione dell’informazione: l’incompletezza e la ristrettezza dei risultati e la conseguente impossibilità di estensione del risultato.
Per quanto riguarda l’incompletezza, è possibile che un eccesso di dati incompleti possano vanificare l’operazione algoritmica e fornire risultati poco attendibili. L’incompletezza aumenta proporzionalmente alla complessità e al volume dei data set, pertanto, paradossalmente si può incorrere nell’aporia che a un esponenziale aumento della quantità di informazione disponibile, possa corrispondere un’incompletezza nella estrazione di significati.
In secondo luogo, l’addestramento della macchina avviene secondo processi di Machine learning i cui confini sono sempre ben definiti, ciò rende l’AI incapace di estrapolare risultati e mettere in campo operazioni che eccedano i limiti aprioristicamente decisi; da questo punto di vista, il confine tra necessità macchinica e libertà decisionale è ben netto e di fatto rende impossibile parlare di libertà dell’intelligenza artificiale. Da questa angolazione possiamo affermare che la AI appartiene, per usare classiche categorie filosofiche, in quanto mezzo, al regno della necessità. I confini tra macchinico e umano rimangono, pertanto, ancora ben definiti. Stanti incompletezza e incapacità di estrapolazione, è evidente come si è ben lontani dal traguardo diagnosticato da Anderson con cui abbiamo aperto il nostro contributo. Schiacciare il momento teorico sulla mera raccolta ed elaborazione di dati in nome di un presunto determinismo, in realtà non significa altro che affermare uno strutturale indeterminismo, basato proprio sulla incompletezza strutturale del dato che, come tale, non è mai la cosa stessa ma la sua cristallizzazione in un determinato linguaggio. La teoria è finita solo a patto di una riduzione della complessità.
Come può questo assunto corrispondere all’eliminazione di ogni ambito di problematicità?
Ebbene la problematicità permane proprio dal momento che la AI che struttura i dati è ancora effettivamente un mezzo, che si frappone tra noi e il nostro mondo naturale, sociale, culturale, creando così una mediazione di secondo grado; sempre più oggetti di uso quotidiano utilizzano, infatti, la AI, quali auto, televisori, frigoriferi costituendo la cosiddetta ambient intelligence. Allo stesso modo, nell’intera città, la smart city, la comunicazione delle informazioni che strutturano le prestazioni umane e regolano la convivenza, avviene sempre di più attraverso le TIC, vere e propri mezzi di disciplinamento del “parco umano”. All’istanza di una maggiore efficienza è implicito un fattore di sempre maggiore controllo cibernetico dal momento che «tra non molto Google inizierà a fare l’intermediario tra noi e il nostro frigorifero»[23]. In questa smartification il nostro quotidiano è, in nome di una maggiore efficienza e comodità di facciata, svenduto e ridotto a mero flusso di informazione, così come la gestione della nostra vita delegata sempre più alla intelligenza artificiale.
In altre parole, l’essere la AI ancora un mezzo, come sostenuto da Schmidt, non ci rassicura circa la sua soggezione a finalità umane, tutt’altro, è proprio in questa sua natura ancora strumentale che si annida il rischio.
- Il carattere strumentale della AI
Il carattere ancora essenzialmente strumentale della AI, come evidenziato nel passo precedentemente citato, ne circoscrive per certi versi la quidditas, il suo modo d’essere nella nostra specifica epoca storica. Conformemente a quanto delineato in antropologia da Leroi-Gourhan e Paul Alsberg, ogni mezzo per sua natura, assolve a una funzione di potenziamento inorganico dell’organico. Tale potenziamento prende la forma secondo Alsberg, di una disattivazione corporea (Korperausschaltungsprinzip) dell’organo interessato[24]. La tecnicità non è infatti, conformemente all’impostazione dell’antropologo tedesco, frutto di una carenza[25], ma è da ascrivere a un generale processo di evoluzione naturale, non c’è alcun fattore spirituale che segni una discontinuità dell’umano. Mentre l’animale persegue un processo di adattamento essenzialmente corporeo, l’uomo intraprende un’evoluzione mediata ed extracorporea attraverso media di carattere artificiale, ossia tecnico. Da questo punto di vista, l’uomo è l’animale naturalmente tecnico, la cui filogenesi naturale è già da sempre tecnogenesi: egli demanda, pertanto, il compito di adattamento all’ambiente al complesso di tecnologie sin qui sviluppate. Se è vero che è l’uomo a fabbricare strumenti, è anche vero che gli strumenti hanno già da sempre informato l’evoluzione psico-fisica e storica dell’uomo. Il fine di ogni mezzo tecnico è, quindi, primariamente il perseguimento di fini biologici con mezzi tecnologici; il mezzo è predisposto a svolgere la funzione dell’organo amplificandone il raggio di azione e la performatività, superando l’organico in vista di un fine prestabilito. È evidente come la AI non si discosti da tale paradigma, laddove l’organo da implementare è appunto la mente, o se si vuole il cervello, nella sua capacità di computativa, previsionale, sintattica, e talvolta simbolica. Conseguentemente, secondo Alsberg lo sviluppo degli strumenti è sempre legato a un determinato regresso dell’organo che vanno a sostituire, un’atrofizzazione dell’organico in direzione dell’artificio. La AI andrebbe quindi, secondo questa impostazione, a sostituirsi e a far regredire proprio quelle funzioni cerebrali di gestione e previsione, di memorizzazione ed elaborazione dell’informazione e simbolizzazione tipiche dell’intelligenza umana; in questo senso, il metodo scientifico può definirsi obsoleto, proprio perché la capacità computazionale, predittiva e rappresentativa della macchina è infinitamente più potente di qualsiasi modello teorico.
La macchina e l’uomo, sebbene rimangano ontologicamente e qualitativamente differenti, vedono a oggi i domini della loro azione sovrapporsi[26]. È proprio per questo carattere ancora prettamente strumentale della AI che l’obsolescenza dell’uomo risulta ancora più accentuata rispetto alla possibilità di interfacciarsi con una forma di intelligenza in qualche modo simile. La possibilità di competere infatti con una HLMI, con un essere del tutto pari, se non ontologicamente superiore all’uomo stesso, ne annullerebbe proprio il carattere prettamente strumentale, la macchina si emanciperebbe dalla sua natura tecnica perché sarebbe in un certo senso libera causa di se stessa, essa stessa un technites. Una tale intelligenza cesserebbe di essere un potenziamento organico dell’inorganico, smetterebbe altresì di esercitare una funzione esautorante in quanto strumento sulla funzione organica, per instaurare un regime di competizione tra due forme di intelligenza differente, organica e artificiale. Al contrario, le insidie di una AI che assolva ancora pienamente alla sua funzione strumentale riguardano proprio una progressiva atrofizzazione delle funzioni umane, dovuta a una sempre maggiore autogestione macchinale delle macchine, all’avvento di una neoabientalità interamente tecnologizzata rappresentata dallo “Internet of things” e di una società completamente funzionalmente gestita da dispositivi tecnologici. In sintesi, il rischio non è in una futura conflittualità a là Blade Runner tra due intelligenze, ma nella delega della gestione del Bios, dello spazio politico, e della nuda Zoe, della nuda vita, a dispositivi ottimizzatori e funzionali che, in quanto tali, sono ciechi o, nel migliore dei casi, volti a una regolazione della vita in funzione della massimalizzazione dell’efficienza.
Stando così le cose, l’asservimento è dovuto a un’istanza tecnologica impersonale, che, come tale, è totalizzante e destinale, non come credeva Heidegger in relazione alla storia della metafisica, ma proprio per la sua riconduzione nell’alveo dell’evoluzione bio-antropologica. Se è vero che la tecnologia tende alla conversione e inglobamento totale dell’esistente, come sosteneva il filosofo di Meßkirch, essa lo fa come potenziamento di una pulsione di dominio del tutto umana, o meglio vitale. La tecnica, che come sosteneva Leroi-Gourhan è il principio stesso dell’ominazione, risponde alla volontà di potenza di una specifica forma di vita secondo due linee fondamentali che potremmo sommariamente identificare nelle categorie nietzschiane di conservazione e accrescimento.
La conservazione è assolta dalla funzione dispensativa esonerante della tecnica, il Korperausschaltungsprinzip, che è a un tempo anche accrescimento/potenziamento della sua funzione, potenziamento che si attua come tendenza allo enhancement. Ogni tecnologia pertanto ha questa duplice funzione esonerante implementante, anche se non sempre le due funzioni risultano in un rapporto di equivalenza.
Secondo questo criterio, è possibile inquadrare il dataismo come la il risultato della delega del controllo e del potenziamento sociale a una forma di gestione e ottimizzazione cibernetica, che ha saputo unire, sin dalla sua nascita sia il capitalismo che le forme di economia pianificata[27], e oggi il globo intero.
Il dato assurge a criterio ermeneutico e valoriale della vita, mentre la macchina che è in grado di interpretarlo, è l’organo che, sulla base di meccanismi computazionali, assolve alla funzione decisionale secondo quelli che sono i suoi criteri: economicità, ottimizzazione, funzionalità, produttività, implementazione. In questo modo, la macchina che ha appreso è l’istanza interpretatrice della vita e il suo ideale regolativo, come testimoniato dal fenomeno del data fetishism e del quantified self come epifenomeni della pulsione all’inorganicità del dato. Da questo punto di vista, la categoria andersiana della vergogna prometeica[28] ci sembra pertinente: se da un lato la datificazione risponde a un’esigenza di dominio sull’esistente che è il portato specifico della forma di vita umana, della sua volontà di potenza in quanto presa del logos, è vero altresì che proprio poiché non interamente datificabile nella sua componente vitale ed esistenziale, tale vita nella sua irredimibile insondabilità aspiri, proprio per potersi mantenere nell’esistenza, a essere ridotta a sua volta in quantità prevedibile e quantificabile. Oggi ambiamo al controllo totale e quantitativo della nostra esistenza, alla velocità procedurale, e per farlo abbiamo bisogno di Big Data, AI e Data Analysis, istanze apollinee cui è affidata l’esorcizzazione e dominio dell’elemento dionisiaco e caotico proprio della vita. Quel che resta da decifrare è fin dove un’esistenza e un mondo completamente datificati e normativizzati da istanze eteronome possano mantenersi nell’essere. Il che corrisponderebbe a porre la questione se in qualche modo il carattere fondamentale dell’evoluzione umana non sia nel suo essere già da sempre fuori di sé e oltre sé, dal momento che lo sviluppo tecnologico, che è epifenomeno di una determinata filogenesi naturale, sembra condurre a un sempre maggiore esautoramento della matrice organica nell’uomo. In una parola, a preoccuparci non è il fatto che la macchina un domani possa arrivare ad avere caratteristiche umane, quanto il processo già in atto di modificazione dell’umano sub specie machinae, la nostra pulsione all’inorganicità, che è sempre come tale un tentativo di riduzione della complessità in funzione dell’operatività.
- Conclusioni
Questo ci porta a una serie di considerazioni conclusive:
1) AI e Big data sono a oggi indissolubilmente connessi al punto che questi ultimi sono il sangue che porta l’ossigeno a questa nuova forma di intelligenza.
2) Nonostante la AI non si sovrapponga in toto all’intelligenza umana, la “esonera” da compiti in un passato prossimo di sua esclusiva competenza.
3) La AI è un chiaro esempio di come la tecnica nasca non tanto da una carenza umana, ma da una pienezza creativa che porta alla graduale disattivazione ed esautorazione di prestazioni biologiche, psicologiche, fisiologiche e cognitive, conformemente alle intuizioni di Paul Alsberg
4) I big data e in generale il dataismo sono l’ultima frontiera di un processo di gestione del “parco umano” e dell’ente nella totalità che senza soluzione di continuità è iniziato con la cibernetica.
5) Questo processo, dal momento che è governato e “guidato” dai pochi soggetti che detengono il controllo su tali flussi di dati, può configurarsi come un nuovo rischio totalitario.
6) Se è vero che la tecnica nasce da una pienezza creativa che porta a una graduale esautorazione dell’organico, essa non ha ancora portato a un’esautorazione di quella pienezza creativa da cui essa nasce. L’arte come modo originario della poiesis non è pertanto esautorabile tecnicamente. Almeno allo stato attuale.
Vorrei soffermarmi in conclusione su quest’ultimo punto. Secondo tale prospettiva, se è vero che le tecnologie qui discusse non esautorino l’essere umano nelle sue prestazioni simboliche, esse potrebbero ben presto renderle inutili. Alcuni studi, come quelli di Manfred Spitzer, hanno evidenziato come il progresso tecnologico e una sempre maggiore tecnologizzazione delle nostre vite e dei processi di apprendimento, non implichino necessariamente un aumento della creatività e della produttività. Allo stesso modo gli studi di Nicolas Carr[29] ci hanno mostrato come l’utilizzo sempre più diffuso di internet e il carattere onlife della nostra esperienza, sempre a metà tra esperienza reale e virtuale, portino a un regresso della nostra capacità di concentrazione e critico-deduttiva, che si accompagna all’incapacità di dare un senso alla gigantesca mole di informazione e dati cui siamo quotidianamente sottoposti. AI, software e algoritmi nascondono sempre una determinata visione del mondo, essi risolvono problemi, ma non ci aiutano certo a dare un senso all’esistenza, nella costante delega di questa alle applicazioni. La capacità simbolica e immaginativa dell’uomo stesso, che costituiscono la componente prima di ogni forma di poiesis, potrebbero nel prossimo futuro rivelarsi un corredo antropologico antiquato e atrofizzato, segnando un regresso, de facto, della stessa capacità tecnica che, come tale, è un modo di questa poiesis.
Come sosteneva infatti André Leroi-Gourhan, «l’immaginazione è la capacità fondamentale dell’intelligenza e una società in cui si indebolisce la capacità di forgiare simboli perderebbe allo stesso tempo la sua capacità di agire. Ne risulta nel mondo attuale, un certo squilibrio individuale o, più esattamente, la tendenza verso lo stesso fenomeno che distingue l’artigianato: la perdita dell’esercizio dell’immaginazione nelle concatenazioni operazionali vitali»[30].
[1] https://www.wired.com/2008/06/pb-theory/
[2] Secondo Luciano Floridi il termine rimane tuttavia ambiguo (Cfr. L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina, Milano 2017), la National Science Foundation (NSF) ha caratterizzato l’espressione come «ampi, diversi, longitudinali, e/o distribuiti set di dati generati da strumenti, sensori, transazioni Internet, email, video, numero di click e/o altre fonti digitali disponibili oggi e nel futuro (NSF 12-499 p. 2 reperibile al sito: https://www.nsf.gov/pubs/2012/nsf12499/nsf12499.pdf)
[3] R.L. Ackoff, Best. John Wiley & Sons, New York 1999, pp. 170–172.
[4] Cfr. M. Heidegger, Filosofia e cibernetica, a cura di A. Fabris, ETS, Pisa 1989, il titolo della conferenza originale era significativamente Das Ende des Denkens in der Gestalt der Philosophie, tenuta ad Amriswil nell’ottobre del 1965.
[5] J.-F. Lyotard, La condizione postmoderna, tr. it. Feltrinelli, Milano 2014, pp. 9-16.
[6] La metafora è utilizzata da L. Floridi, La quarta rivoluzione, cit., p. 37.
[7] Acronimo per le maggiori Big Data Provider Google, Amazon, Facebook, Apple.
[8] Per questo motivo la commissione europea ha recentemente approvato il GDPR, reperibile al link http://ec.europa.eu/justice/data-protection/reform/files/regulation_oj_en.pdf. Il General Data Protection Regulation (GDPR) è un insieme di regolamenti Emanati dal Parlamento e dalla Commissione Europea con l’intento di rafforzare la protezione dei dati degli individui all’interno della EU. Contiene anche indicazioni sulla cessione di dati a enti extraeuropei. Il GDPR mira primariamente a ridare il controllo dei dati personali ai cittadini e a semplificare le procedure per il business internazionale attraverso l’unificazione all’interno dell’Unione. Essa estende tali diritti anche alle compagnie straniere che processano dati provenienti da cittadini europei.
[9] Il termine è mutuato dal saggio di Vernor Vinge, The Coming of Technological subjectivity: How to survive in the Post-Human era, in “Vision-21; Interdisciplinary Science and Engineering in the Era of Cyberspace, 11-22, NASA Conference Pubblication 10129, NASA Lewis Research Center”.
[10] Su tale argomento è tuttavia opportuno citare l’opera del post-fenomenologo di scuola heideggeriana Hubert Dreyfus, titoli quali What Computers Can’t Do (MIT Press, New York 1972); Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer, Oxford 1986; On the Internet, Routledge, New York 2001. Sul versante ben più integrato il lavoro di R. Kurzweil, La singolarità è vicina, tr. it. Apogeo Education, Adria (Ro) 2008. Una buona ricognizione storica sulla tematica della Superintelligenza artificiale e dei suoi ultimi sviluppi è rappresentata dal lavoro di N. Bostrom, Superintelligenza, Bollati Boringhieri, Torino 2018.
[11] V.C. Müller, N. Bostrom, Future progress in Artificial intelligence: A survey of Expert Opinion, in V.C. Müller (a cura di), Fundamental issues of Artificial intelligence, Synthese Library, Springer, Berlin 2016.
[12] Per una prospettiva dettagliata su tali studi rinvio a N. Bostrom, Superintelligenza, Tendenze, pericoli, strategie, tr. it. Bollati Boringhieri, Torino 2018, p. 45 sgg.
[13] Cfr. N. Bostrom, Superintelligenza, cit., p. 36.
[14] Cfr. L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, cit.
[15] P. Larrey, Dove inizia il futuro, tr. it. Mondadori, Milano 2018.
[16] Su tale argomento vedi anche F. Iafrate, Artificial intelligence and Big data, The birth of a new intelligence, ISTE, Wiley, New York 2018.
[17] «Secondo l’intelligenza artificiale forte, il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente», J. Searle, Minds, Brains and Programs, in «Behavioral and Brain Sciences», 3, 3, 1980. pp. 417-457.
[18] La misura dei big data è certificata dalle cosiddette quattro varianti (quattro V) secondo la tassonomia di Dough Laney. Questi parametri interessano: V1 volume; V2 velocità, V3 Varietà, V4 Veridicità. Su questo argomento vedi anche A. Fumagalli, Per una teoria del valore rete, in Datacrazia, Politica, cultura algoritmica e conflitti al tempo dei big data, D Editore, Roma 2018, pp.52-56.
[19] Nel caso di Waymo, la self driving car progettata da Google, l’algoritmo deve poter scegliere in condizioni estreme di sinistri stradali quali persone salvare e quali eventualmente no. Esistono alcune app come http://moralmachine.mit.edu/ che raccolgono e processano dati degli utenti inerenti tale tipo di situazioni, come ad esempio chi è preferibile investire in situazioni limite tra un anziano e un bambino, un bambino e un cane e li inviano agli sviluppatori di tali tecnologie. I criteri generalmente usati sono l’età e la utilità sociale di una persona, secondo un punto di vista principalmente utilitaristico ed economico (ad esempio alla macchina appare più etico investire una persona sovrappeso, in luogo di una giovane e atletica), con tutta le criticità che tale scelta su criterio praticamente eugenetico possa comportare.
[20] I Big data sono dati non strutturati, che per poter essere utilizzati devono processati dai Big Data Provider. I sistemi di Business Intelligence, che gestiscono il patrimonio di dati generato da una azienda, devono infatti raccogliere i dati, pulirli e validarli, imbastire procedure di elaborazione, aggregazione e analisi, utilizzare questi dati nei processi di valorizzazione. Per una tassonomia delle varie tipologie di dati si rimanda a Andrea Fumagalli, Per una teoria del valore-rete. Big data e processi di sussunzione in D. Gambetta (a cura di), Datacrazia, cit. pp. 46-69.
[21] Ibid., p. 59.
[22] P. Larrey, Dove inizia il futuro, cit., p. 48.
[23] E. Morozov, Silicon valley. I signori del silicio, tr. it. Codice edizioni, Torino 2016, p. 113.
[24] Cfr. P. Alsberg, Das Menschheitsrätsel. Versuch einer prinzipiellen Lösung, Sybillen, Dresden 1922. A tal proposito riportiamo un passaggio a nostro parere significativo: «Lo strumento è un mezzo per la disattivazione corporea; questa è la sua determinazione propria. Esso assolve allo scopo della disattivazione corporea, in quanto situato al di fuori del corpo. Per questo motivo, poiché è esteriore al corpo, e agisce “al posto” del corpo, si connota il mezzo anche come mezzo artificiale (künstliches). A prima vista può suonare paradossale, che qui si parli di disattivazione corporea, dove proprio manifestamente il corpo entra in funzione attraverso l’utilizzo degli strumenti. Tuttavia da una considerazione più approfondita diviene manifesto, che la vera condizione di fatto della disattivazione corporea, non si basa affatto sulla coimplicazione del corpo. […]. Del resto vi è un significato profondo se l’ideale dei moderni ingegneri è una macchina che lavori in maniera completamente autonoma, rispetto a cui l’uomo in relazione ai suoi compiti si disattivi completamente» (p. 29; cito dall’edizione online reperibile su www.vordenker.de, J. Paul ed., 2010).
[25] Nota è infatti la diatriba tra Alsberg e Gehlen che ne L’uomo, la sua natura e il suo posto nel mondo (a cura di V. Rasini, tr. it. Mimesis, Milano-Udine 2010) aveva teorizzato l’origine del gesto tecnico a partire da una carenza specifica del uomo in quanto animale non definito, separato da uno iato con il mondo e da una carenza istintuale (Entlastungsprinzip). Da questa prospettiva Körperausschaltungsprinzip e Entlastungsprinzip funzionano da concetti opposti, ma speculari.
[26] Questa tendenza generale non interessa solamente le scienze, o le attività cognitive, ma l’intero spettro del lavoro umano come già Marx, e in epoca recente le ricerche di Jeremy Rifkin hanno denotato. Sul tema si rimanda a J. Rifkin, La fine del lavoro, tr. it. Mondadori, Milano 2005.
[27] Günther Anders nel secondo volume de L’uomo è antiquato, aveva puntualmente denotato come l’irriflessa adesione al paradigma tecnico accomunava comunismo sovietico e capitalismo americano «Ciò che unisce Washington a Mosca – scrive Anders in un contesto in cui America e Unione Sovietica costituivano ancora i due orizzonti di riferimento nel sistema mondiale – è […] il fatto che entrambe stanno sotto il dettato della tecnica, ovvero dei tecnologi» (G. Anders, L’uomo è antiquato, Volume 2, tr. it. Bollati Boringhieri, Torino 2017, p. 97).
[28] Con il termine Anders intendeva «la vergogna che si prova di fronte all’umiliante altezza di qualità degli oggetti fatti da noi stessi», L’uomo è antiquato, Volume I, tr. it. Bollati Boringhieri, Torino 2007, p. 57.
[29] Cfr. N. Carr, Internet ci rende stupidi? Come la rete sta cambiando il nostro cervello, tr. it. Raffaello Cortina, Milano 2010.
[30] A. Leroi-Gourhan, Il gesto e la parola, tr. it. Mimesis, Milano 2018, p. 250.