Abstract
Tecnique and Power
This report presents the proceedings of the international conference Technology and Power, held from 9th to 11th October at the University of Naples Federico II. The conference, organised by the Philosophy of Technology Mechanè Lab, aimed to investigate the historical genesis and current anthropological and social implications of the combination of technique and power. Through an interdisciplinary approach, the discussion focused particularly on the transformation of the social order, the technological contribution to environmental issues and the world of ICT, with special reference to the platform society.
La tecnica, che fin dalla sua origine greca (technè) indica complessivamente un ‘saper operare’, si configura come quella prestazione fondamentale dell’umano tramite cui esso ha potuto appropriarsi della natura. Ciò che nella sua storia evolutiva ha garantito all’uomo l’affrancarsi dai vincoli ambientali attraverso la manipolazione del mondo naturale è diventato oggi il vettore principale di mutamenti che, nell’epoca della transizione digitale, biologica ed ecologica, sta assumendo i caratteri di veri e propri rivolgimenti storico-antropologici. È proprio a partire dall’urgenza di comprendere queste modificazioni che dal 9 all’11 ottobre si è svolto il Convegno Internazionale Tecnica e potere presso il Dipartimento di Studi Umanistici dell’Università degli studi di Napoli Federico II. Organizzato dal Laboratorio di Filosofia della tecnica Mechanè Lab, l’incontro si è svolto nel segno dell’insegnamento di Nicola Russo, ideatore e coordinatore del Laboratorio e direttore della rivista a esso associata fino alla sua prematura scomparsa lo scorso maggio. Questo convegno, il primo in sua assenza, nelle intenzioni degli organizzatori Felice Masi, Lorenzo De Stefano, Joaquin Mutchinick e Luca Matano ha voluto essere una forma di ‘ricordo militante’, un’occasione di dialogo e di confronto sui temi cari al magistero del prof. Russo che, tra i primi, ha riconosciuto la necessità filosofica di confrontarsi con la questione della tecnica.
Per dirla con Anders, quello in cui oggi viviamo è un mondo tecnico o, per meglio dire, tecnocratico che, dopo la scoperta dell’energia nucleare e con lo sviluppo delle moderne tecnologie dell’informazione, sta velocemente riconfigurando le modalità con cui l’uomo abita il mondo. Come suggerisce il titolo del convegno e in accordo agli interessi del Laboratorio, questo evento nasce, dunque, dall’esigenza di indagare le attuali forme di organizzazione della realtà con una particolare attenzione all’infosfera e alla platform society, ai nuovi meccanismi di sorveglianza parastatale basati sull’uso diffuso delle strutture algoritmiche e, infine, alle prospettive derivanti dall’automazione. Da una parte, infatti, la datificazione di ogni ambito del reale ad opera delle macchine algoritmiche sta progressivamente modificando l’esperienza percettiva e, dunque, la ritenzione cognitiva dell’essere umano. Dall’altro, l’utilizzo di tecnologie basate sulla raccolta sistematica di dati e sulla loro elaborazione sta ridefinendo i meccanismi di governo delle popolazioni, delineando un nuovo tipo di società del controllo, in cui le modalità di esercizio del potere trascendono gli Stati per risultare sempre più opache ed evanescenti. Compito della filosofia è, dunque, riconoscere le ibridazioni delle pratiche governamentali che, all’interiorizzazione della logica produttivo-consumistica affiancano nuovi meccanismi di condizionamento basati sulla diffusività delle tecniche algoritmiche e sulla digitalizzazione del reale.
Nel confrontarsi con il carattere pervasivo degli apparati tecnici e sulla scia dell’interdisciplinarietà promossa dall’operato della Task Force di Ateneo Human&Future che, insieme alla Società Internazionale di Filosofia Teoretica ha partecipato all’organizzazione di questo evento, il convegno ha voluto analizzare il binomio tecnica-potere attraverso uno sguardo multiprospettico portando al dialogo numerose discipline, dalle scienze positive all’estetica e alla sociologia. I relatori che si sono succeduti hanno dimostrato come, solo nel costante confronto e nella sinergia tra saperi e prospettive, si possa indirizzare il pensiero filosofico alla comprensione delle intersezioni tra tecnologie e potere.
Nell’impossibilità di riferire in maniera esauriente la molteplicità di spunti emersi nel corso del dibattito, piuttosto che seguire un criterio di successione cronologica delle varie relazioni, adottare un criterio tematico-semantico mi è sembrato utile ad esplicitare i quesiti che oggi deve porsi il pensiero filosofico e che hanno costituito il filo conduttore di questo convegno.
In primo luogo, ogni riflessione sulla tecnica non può che esercitarsi a partire dal riconoscimento tanto del carattere storico del suo manifestarsi quanto del suo legame costitutivo con il rapporto sociale. È questo il cuore dell’intervento del professore Giuseppe Antonio Di Marco che, nel ripercorrere la genesi storica del nesso tecnica-potere ha evidenziato il decisivo momento di discontinuità che, tramite l’invenzione del macchinario, si verifica nella modernità: il passaggio da una strumentalità immediata, manuale-artigianale per inaugurare un’inedita dimensione macchinale-industriale. È il passaggio dalla macchina semplice che si interpone tra l’uomo e la natura, all’uomo che media il macchinario perché questo aumenti la produttività. Attraverso la propria autonomia operativa, il macchinario abolisce le basi tecniche della divisione del lavoro, relegando l’uomo a un ruolo regolativo e di sorveglianza. Questo impianto ricostruttivo vede il macchinario, ossia un insieme di macchine che cooperano, come un’oggettivazione del lavoro sociale. Questa forma di produzione, tuttavia, entra immediatamente in contrapposizione con la forma di appropriazione privata che ha attivato il macchinario: è attraverso quest’antitesi dialettica che si alimenterà storicamente il processo produttivo.
Facendo poi i conti con le contraddizioni odierne del sistema capitalistico, l’istituzionalizzazione della logica di accumulazione del capitale è alla base della posizione teorica di Hartmut Rosa che fa suo il compito filosofico di occuparsi di una diagnosi delle distorsioni sociali del presente. L’accelerazione sociale viene letta come il principale vettore della diffusa alienazione presente nell’attuale società neoliberista: il capitalista non può riposare. Il contributo del dott. Mario Cosenza mostra come, piuttosto che da stringenti norme etiche, il soggetto tardo-moderno sia condizionato da un severo regime temporale che, per quanto appaia inarticolato e depoliticizzato, costringe gli individui a rispettare perennemente gli imperativi produttivi e di crescita del sistema capitalistico. Solo accelerando, infatti, l’individuo può partecipare al sistema produttivo e appropriarsi, così, di una porzione di mondo che, data l’elevata competitività, è sempre meno contendibile. L’accelerazione tecnologica, invece di liberare spazi di libertà, comporta una contrazione temporale: l’interiorizzazione della logica prestazionale impedisce di fermarsi, sottoponendo il soggetto agli imperativi sistemici composti da norme, scadenze e disposizioni temporali da rispettare. In questo modo, si prospetta un esercizio del potere disciplinare dai tratti totalitari in quanto, seppur non in maniera spettacolare, opprime gli individui in uno stato di perenne angoscia causato dall’incombente minaccia di perdere il proprio mondo.
Al totalitarismo accelerazionale tratteggiato da Rosa fa da contraltare l’opera pervasiva dell’intelligenza artificiale. Essa sta condizionando ogni aspetto delle interazioni umane in una modalità che sembra autonoma e, dunque, indipendente dalla volontà umana. Contro questa mistificazione, l’intervento del dott. Lorenzo De Stefano, seguendo un’impostazione ontologico-genealogica, mira a rivendicare la costituzione concreta e storica dell’algoritmo, l’artefatto tecnico su cui si fonda il funzionamento di quel fenomeno vasto e dibattuto quale l’intelligenza artificiale. In contrasto all’idea di un ente autonomo, tracciare una storia degli algoritmi mette in evidenza il loro essere un modo fondamentale della nostra cultura materiale – una mechané, una scorciatoia – per organizzare e semplificare la realtà: l’algoritmo, in questo senso, ha indicato storicamente qualsiasi pratica individuale tesa a raggiungere un obiettivo preciso svolgendo una serie ben definita di passaggi. Assunta la sua natura operazionale, in quanto risultato delle innovazioni tecnologiche avvenute nel campo della cibernetica, l’algoritmo è divenuto oggi una strategia totalmente automatizzata che svolge una funzione economica di semplificazione di un compito.
A partire dallo sviluppo dell’ingegneria algoritmica, l’odierna intelligenza artificiale deriva dall’intuizione di automatizzare il pensiero in una costruzione artificiale. Tuttavia, l’elemento che risulta fondamentale per comprenderne l’operato è che le tecnologie basate sull’IA incorporano valori storicamente determinati, ossia l’ecosistema socioeconomico di pianificazione industriale del lavoro del sistema capitalistico. Con l’invenzione di Amabot, il sistema di personalizzazione creato da Amazon nel 1994, gli algoritmi, sviluppati in base alle reti neurali artificiali e fondati su modelli statistici, sono sempre più utilizzati col fine – commerciale e non solo – di predire le preferenze degli individui e orientarne le scelte, dunque, di produrne i bisogni. È, dunque, solo dalla constatazione che ogni oggetto tecnico è il preciso risultato di rapporti di poteri espliciti ed impliciti che si può scardinare l’idea di un condizionamento immanente sull’umano delle macchine cosiddette ‘intelligenti’.
Nell’impostazione del convegno, perciò, centrale è risultato il tentativo di tracciare una fisionomia quanto più accurata possibile di questi nuovi strumenti – o soggetti – di potere. Una volta che ne sono stati esplicitati i presupposti socio-economici, l’influenza normativa degli artefatti tecnici è stata analizzata nell’esercizio concreto del suo potere. La forma di controllo con cui siamo chiamati a confrontarci è quella di una governamentalità algoritmica, ossia un certo tipo di razionalità che si fonda sulla gestione algoritmica di dati per prevedere, mappare e orientare i comportamenti sociali. Queste politiche si basano sulla pervasività degli standards, al centro del contributo di Diego Lawler, ossia indicazioni valoriali veicolate dalle pratiche tecnologiche che derivano dalla negoziazione tra attori diversi (comunità scientifico-tecnologica, istituzioni statali, imprese private) comportando una parcellizzazione e fluidificazione dell’esercizio del potere: gli agenti del potere, dunque, nell’età digitale, si caratterizzano per essere agenti para-statali e de-territorializzati. Ne va sottolineata la non neutralità morale in quanto istruiti sulla base dell’apparato ideologico delle autorità dominanti (di cui si fa sempre più fatica a comprenderne l’identità). Una volta che essi vengono definiti attraverso le strutture algoritmiche, inoltre, gli apparati normativi si presentano invisibili alla consapevolezza umana riuscendo, però, a modellare le azioni individuali, le pratiche sociali e culturali. Per comprendere il carattere pervasivo dell’operato delle intelligenze artificiali, infine, sulla base di alcune intuizioni di Nicola Russo, è bene evidenziare che mentre l’algoritmo, data la sua linearità operazionale, nasce come una macchina apotelestica, ossia che agisce per il conseguimento di uno specifico obiettivo, l’intelligenza artificiale si presenta, invece, come un complesso esempio di macchina simpleromatica, ossia di una macchina la cui azione non si esaurisce in un’oggettivazione esterna, quindi nella produzione di un risultato, ma si identifica con la sua semplice prassi.
Guardando nello specifico alle tecnologie algoritmiche il convegno ha prestato particolare attenzione al nuovo ambiente antropologico che si sta delineando nell’età digitale, la platform society. Non a caso, riconosciuta la sua opera di reontologizzazione della realtà – per indicare, con Floridi, la creazione di nuovi ambienti da abitare e nuove forme di agire – e di ridefinizione delle nostre strutture epistemologiche, largo spazio è stato riservato proprio a questo settore della rivoluzione digitale. A partire dalla lettura in termini informazionali della realtà, è stato innanzitutto riconosciuto alle piattaforme il ruolo di principale produttore delle strutture economiche e sociali in cui viviamo e, di conseguenza, la loro capacità di sottomettere l’umano agli imperativi da loro imposti.
A tal proposito, il dott. Valerio Specchio ha messo in evidenza il rapporto inversamente proporzionale che si viene a creare tra la sovraesposizione degli utenti e l’evanescenza della governance esercitata dagli algoritmi. Da una parte, le strutture algoritmiche, che appartengono a attori privati poco trasparenti, si presentano, a loro volta, intenzionalmente opache: innanzitutto, avendo oltrepassato la materialità delle macchine risultano fisicamente inconsistenti, dunque invisibili; in secondo luogo, i meccanismi che ne governano il funzionamento risultano difficilmente decifrabili poiché intenzionalmente accessibili solo a chi possiede le competenze specialistiche per gestirne il codice o i brevetti col fine di sfruttare il vantaggio predittivo per fini commerciali e politici.
Il soggetto umano, al contrario, si trova in un’ambigua condizione di sovraesposizione e al contempo di invisibilità che rende la sua condizione esistenziale estremamente vulnerabile. In primo luogo, le piattaforme, attraverso gli algoritmi che ne sono alla base, svolgono un continuo processo di categorizzazione e controllo degli utenti che, nell’era digitale, sono intesi esclusivamente come fonte inesauribile di dati da elaborare. L’imperativo etico cui sono sottoposti i soggetti-utenti diviene un ‘dover essere informazionale’ che esercita una precisa pressione selettiva sull’umano.
Da un lato, dunque, il riconoscimento digitale obbliga il soggetto a esporsi a una condivisione inesauribile di informazioni facendo della trasparenza la sua peculiarità antropologica; dall’altro, bisogna tener conto del risvolto ontologico-epistemico di tale processo, ossia un depotenziamento dell’individualità del soggetto. Assunto come fonte di dati da inserire in correlazioni statistiche, le peculiarità del soggetto perdono la propria importanza semantica e esistenziale, facendo dell’individuo-utente un essere vulnerabile, indifferente, invisibile e immobile. Come ha sottolineato l’intervento del prof. James Garrison, il soggetto perde la sua forza narrativa e semantica, il suo potersi costituire come una storia, poiché di fronte alla datizzazione della vita ogni informazione diventa qualitativamente uguale alle altre.
Alla de-soggettivazione sembra corrispondere una deprivazione esperienziale. Nel ripercorrere alcune intuizioni di Baudrillard, infatti, l’esternalizzazione digitale dell’Io lo proietta al di fuori del contesto reale e dalla sua interfaccia organica astraendolo in un contesto quasi estatico: attraverso il controllo della dimensione informazionale, la governance algoritmica influenza le percezioni e le istanze cognitive dell’essere umano neutralizzando qualsiasi forma di resistenza.
Il contraccolpo per questa passivizzazione della facoltà critica si presenta, sempre più spesso, in una feroce frustrazione che si ripercuote nella dimensione affettivo-relazionale con il diffondersi di comportamenti violenti nei social networks. A fondamento di questi episodi di slatentizzazione della violenza si nasconde un celato senso di piacere che, nella ricostruzione del dott. Luca Mandara, sembra riproporre i meccanismi individuati da Adorno ed Horkheimer alla base degli atteggiamenti antisemiti. Come reazione al consenso e alla regressione critica operata nelle piattaforme, a cui gli utenti si adattano sfruttando l’interiorizzato istinto immobilizzante di autoconservazione, il non-identico – rappresentato tanto dagli altri quanto dall’esternalizzazione di propri sentimenti – deve venire soppresso: solo esercitando violenza si può ricreare l’immagine di un soggetto incontrollato.
Infine, grazie a contributi specifici derivanti dalle scienze pratiche quali il diritto o l’urbanistica, il convegno è servito come occasione per interrogarsi circa la prossima diffusione di macchine automatiche che prefigura una realtà composta da veicoli a guida autonoma e ‘città intelligenti’. Le cosiddette ‘città intelligenti’, ossia territori urbani basati sulla comunicazione diffusa tra popolazione e dispositivi ‘intelligenti’ mostrano l’ambiguo rapporto in termini di costi-benefici dell’automazione della realtà e della dipendenza dell’umano dall’interazione con le intelligenze artificiali. In prima istanza, i dispositivi ‘intelligenti’ possono risultare un valido supporto in chiave ecologica: come già accade in alcune città cinesi e coreane e anche in alcune realtà europee, essi sono programmati per ottimizzare lo smaltimento dei rifiuti, la circolazione di veicoli e, dunque, si presentano come un utile strumento in termini di efficienza energetica. E, tuttavia, se in chiave ambientalista il digitale si presenta come un’opportunità, esso non nasconde rischi dal punto di vista etico e non manca di riproporre contraddizioni e ingiustizie sociali. In primo luogo, creare un mondo interamente digitale implica che il divario tecnico (ossia l’impossibilità di interagire con le macchine intelligenti per mancanza di competenze specifiche o di disponibilità economica) escluda, volontariamente o no, le categorie più fragili e meno rappresentate della popolazione dall’accesso ai servizi primari. Inoltre, più è consentito alle strutture algoritmiche di profilare ogni aspetto della vita più saremo sottoposti al controllo di attori evanescenti che possono disporre delle informazioni raccolte come preferiscono. Ciò non solo evidenzia il rischio di rendere inconsistente qualsiasi diritto alla privacy ma evidenzia anche l’emergere di attori privati detentori dei brevetti tecnici che, in base alla logica del profitto o altre logiche arbitrarie, possono interferire con le politiche statali.
Proprio il rapporto antagonistico instauratosi tra enti pubblici e privati alla base dell’utilizzo delle moderne tecnologie è indagato come possibile mezzo per contrastare la crisi climatica. Di questi interventi (che dall’implementazione dell’energia solare o eolica possono riguardare lo stoccaggio del carbonio), il dott. Joaquin Mutchinick ha rilevato l’incapacità attuale di produrre modificazioni significative. Paradossalmente, tanto la consapevolezza della lesività dell’estrattivismo e della combustione fossile quanto il sapere tecnico volto ad azioni di contrasto si rivelano inefficaci nel modificare una realtà che, ideologicamente, viene data per ipostatizzata ed incontrovertibile. Nonostante negli ultimi anni molti Stati stiano investendo in programmi d’azione per stimolare la transizione energetica, questi non portano ai risultati sperati in quanto i privati, piuttosto che all’efficientamento energetico, sono interessati a sfruttare le agevolazioni ricevute dallo Stato per la propria accumulazione di ricchezza. Attraverso l’approccio costruttivista, dunque, Mutchnick ha tentato di ripensare una sinergia tra enti statali e investitori privati in modo che, attraverso nuovi regimi fiscali, nuove forme di diritti societario, nuove forme di ripartizione degli utili, i privati, al di fuori della logica di massimizzazione del profitto, accettino il compito di sviluppare tecnologie utili per la decarbonizzazione.
In conclusione, fine ultimo del convegno è stato rispondere all’urgenza storica di riportare entro un regime di visibilità gli opachi intrecci di esercizio del potere che caratterizzano la società contemporanea. Ciò, attraverso i vari contributi, ha lasciato intravedere diverse prospettive.
In primo luogo, lungi dal manifestare intonazioni tecnofobe, ciò è stato fatto per offrire eventuali utilizzi propositivi delle tecnologie. Mi basti qui ricordare l’esempio fornito da Forensic Architecture, un‘agenzia di ricercatori interdisciplinare che opera in contrapposizione alla manipolazione delle immagini e al monopolio dell’informazione dei gruppi dominanti nei conflitti bellici, soprattutto in regioni di frontiera. Nel concreto, come ha raccontato Christian Maria Garavello, essi propongono delle ‘contro-investigazioni’ delle realtà belliche con l’intenzione di rendere visibili le atrocità commesse e rimosse dagli Stati attraverso l’appropriazione di tecnologie appartenenti alle classi governanti.
Al contrario, guardando alle intelligenze artificiali come un pericolo per la sopravvivenza del Sapiens, si è voluto indirizzare verso una funzione esclusivamente protesica delle macchine intelligenti che sia non di sostituzione dell’umano ma d’ausilio ai suoi limiti biologici (si pensi, ad esempio, nell’ambito dello human enhancement all’utilizzo del predictive coding descritto dal prof. Stefano Pietropaoli).
O, ancora, riconoscere che i meccanismi di dominio sono sempre più nelle mani di un’oligarchia trasnazionale e parastatale può comportare un esercizio di autorità delle classi politiche. In tal modo, esso potrebbe muoversi nella direzione di ‘un’algorpolitica’, un termine utilizzato dal prof. Mirko Daniel Garasic per indicare una presa di coscienza del controllo pervasivo delle strutture tecnologiche che sappia poi rilanciare un ruolo direzionale della politica.
Oppure, sulla scorta della ‘vita buona’ di Hartmut Rosa, la diagnosi delle distorsioni del presente è tesa a cercare una ‘risonanza’ tra soggetto e mondo che sfugga al totalitarismo accelerazionale attraverso la costruzione di ‘oasi di decelerazione’ o spazi di libertà.
Dalla varietà di orientamenti che sono andati delineandosi è emersa, dunque, la complessità di un intreccio, quello tra tecniche e poteri, che investe il soggetto umano in numerosi aspetti della sua esistenza e che, di conseguenza, non può in questa sede prevedere un’indicazione univoca. Piuttosto che parteggiare per visioni apocalittiche o apologetiche dell’umano che ne sanciscano o una definitiva marginalizzazione o, al contrario, un’irriducibilità ontologica, la riflessione filosofica che qui si è esercitata ha esibito la sua vocazione più propriamente diagnostica. Partendo dal presupposto che tecnicamente l’uomo abita il mondo e che, dunque, il contesto antropico è costitutivamente sottoposto ai mutamenti imposti dalle rivoluzioni tecniche e tecnologiche, compito della filosofia è attraversare il cambiamento, decifrandone la genesi, captandone le manifestazioni e schiudendo prospettive critiche di indagine.