Autore
Rosaria Conte
ISTC-CNR di Roma
Presidente dell’AISC (Associazione Italiana di Scienze Cognitive), Presidente dell’ESSA (the European Social Simulation Association), e dirige il LABSS (Laboratorio di Simulazione Sociale Basata su Agente) presso l’ISTC-CNR (Istituto di Scienze e Tecnologie della Cognizione) di Roma
Indice
1. Abstract
2. Introduzione
3. La scienza generativa
4. Witness Effect
5. Segregazione e violenza interetnica
6. Le direzioni della teoria generativa. Ancora sulla segregazione
7. NESS: Non equilibrium social science
8. Conclusioni
S&F_n. 04_2010
- Abstract
Il lavoro tratterà della rivoluzione scientifica operata, secondo alcuni[1], dal terzo metodo della scienza, dopo quello induttivo e deduttivo, ossia il metodo generativo, che consiste nel generare i fenomeni da spiegare. Dopo un’analisi del concetto di generazione e del metodo generativo, cercherò di mostrare il potenziale scientifico del metodo generativo nella spiegazione dei fenomeni sociali. In parziale dissenso da Epstein, discuterò infine alcune ragioni che rendono il metodo generativo insufficiente a fornire adeguate teorie dei fenomeni che produce.
2. Introduzione
Negli ultimi anni, la simulazione al calcolatore dei fenomeni sociali ha dato impulso ad un nuovo paradigma scientifico, la scienza generativa[2], ossia la scienza che genera i fatti che spiega basata sull’assunto che:
per tutti gli x(non-G x implica materialmente non-S x)
cioè, non si può spiegare qualcosa se non generandola. L’assunto in questione non implica il suo reciproco: generare non è sufficiente a spiegare. È però, secondo la scienza generativa, almeno necessario.
La simulazione su computer, strumento fondamentale per generare fatti osservabili in silico, è quindi un rivoluzionario strumento di sviluppo per le scienze sociali. Ma, come cercherò di mostrare, esso è uno strumento rivoluzionario di costruzione di teoria (theory-making) a condizione che sia guidato da teoria (theory-driven). Argomenterò questa tesi attraverso tre esempi tratti dalla letteratura socio-scientifica:
- l’effetto Testimone (cioè l’inerzia degli osservatori di emergenze sociali)[3];
- il modello della segregazione sociale di Schelling e l’omogeneità etnica della violenza[4];
- la teoria della perpetua novità di Brian Arthur[5].
3. La scienza generativa
Che cosa vuol dire generare un fenomeno? Per Epstein, generare significa
situate an initial population of autonomous heterogeneous agents (see also Arthur) in a relevant special environment; allow them to interact according to simple local rules, and thereby generate – or 'grow' – the macroscopic regularity from the bottom up[6].
Che la spiegazione causale sia generativa lo aveva già scoperto Hume[7], secondo il quale spiegare un evento significava colmare lo iato tra le cause producenti e gli effetti risultanti, srotolando l’intera “catena causale” che intercorre fra di essi, grazie a un processo di reverse engineering. Ma quanto indietro occorre spingersi nella ricerca delle cause? Inoltre, molte teorie forniscono spiegazioni causali anche se non generano i fenomeni in oggetto[8]. Un esempio è offerto dall’effetto Testimone.
4. Witness Effect
L’effetto Testimone, ad esempio, si verifica nelle emergenze sociali quando gli astanti superano le tre unità. La spiegazione data al fenomeno lo riconduce a una regola di maggioranza. Poiché tre è il numero minimo richiesto per ottenere una maggioranza, esso rappresenta la soglia critica per l’occorrenza dell’effetto Testimone. Semplice ed elegante, la teoria ha ricevuto un gran numero di conferme empiriche sperimentali e osservative[9].
Facciamo un esercizio istruttivo e proviamo a chiederci come trasformare questa teoria nella variante generativa. La risposta è piuttosto semplice: basta trasformare la regola di maggioranza in una regola locale, e osservare al computer gli effetti dell’interazione fra entità che agiscono in base a essa. Indubbiamente, alle conferme trovate fra gli umani, si aggiungerebbero anche le conferme trovate in società artificiali. Ma si tratterebbe di un uso interessante e informativo della simulazione? Non proprio. Vediamo perché.
Primo, la simulazione in questione sarebbe basata su una teoria preesistente, quella di Latané e Darley. Invece di fornire una spiegazione, la simulazione ne dimostrerebbe una, attraverso gli effetti prodotti. In questo caso, essa costituirebbe un proxy del modello analitico, una volta che la spiegazione causale fosse disponibile.
Secondo, mentre la teoria di Latané e Darley è euristica, la variante simulativa suddetta sarebbe completamente ad hoc. L’explanans infatti non sarebbe lo stesso, poiché la teoria psicosociale consiste non nel predire l’effetto della regola maggioritaria, ma nel supporre che gli agenti operino in base ad essa! Qui non si tratta di spaccare il capello: Latané e Darley non si sono certo accontentati di qualunque fattore producente ma di una spiegazione informativa, che incorporasse nuova conoscenza sul livello di realtà al quale il fenomeno appartiene. In questo caso, sulla mente. Che la regola maggioritaria produca inerzia sociale è un’asserzione analitica, per dirla con Kant. Che gli individui operino in base alla regola di maggioranza è un’asserzione innovativa, una cosa che non sapevamo, e che spiega l’inerzia sociale. Il modello generativo prenderebbe la teoria come antecedente e la verificherebbe fino in fondo. La teoria invece prende l’osservazione dei fatti come antecedente, e ne dà conto, sia pure in modo incompleto.
Torniamo al reverse engineering di Hume. Se spiegare un evento richiede la ricostruzione dell’intera catena causale che lo ha posto in essere, la spiegazione è possibile solo se una qualche teoria del fenomeno esiste già! Come stabilire altrimenti, infatti, dove fermare il processo di reverse engineering? Quale evento producente è sufficientemente informativo da fornire una spiegazione causale? Per dirla con Hartmann:
There is no understanding of a process without a detailed understanding of the individual contributions to the dynamic model. Curve fitting and adding more ad hoc terms simply doesn’t do the job[10].
Dalla precedente discussione possiamo trarre una prima provvisoria conclusione: il metodo generativo è un strumento di theory-testing, che mostra come si producono gli effetti da cause date. Ma come costruire la teoria da testare?
5. Segregazione e violenza interetnica
Il famoso modello di Schelling è una metafora visiva della segregazione sociale. Distribuendo a caso monete da 1 o 2 euro su una scacchiera – dove ogni casella rappresenta una casa o un lotto in una città, e le monete due diversi gruppi sociali – si può rappresentare l’interazione fra preferenze residenziali degli abitanti. Supponiamo di far muovere sulla scacchiera gli individui (le monete) in base a regole locali. Una regola piuttosto semplice è “resta dove sei, se sei contento della tua postazione, oppure muovi ad altra, o esci dal gioco, se sei scontento”.
Quanto più gli individui sono scontenti, tanto più clusterizzato o segregato è il pattern emergente. Si formano cioè isole piuttosto omogenee al loro interno e distinte dal resto. Ciò accade anche quando gli individui esprimono una preferenza debole per vicini appartenenti al proprio gruppo[11].
Il modello di Schelling dimostra quindi che non c’è bisogno di ipotizzare decisori molto razzisti per ottenere una società segregata, basta anche una lieve preferenza per i membri del proprio gruppo. Interessante notizia. Certamente, un modello generativo ci può dare informazioni nuove, può aumentare la nostra conoscenza dei fatti sociali. Come è nato il modello di Schelling? Dalla necessità di arginare la urban flight, la fuga dei ricchi bianchi dalle downtown povere e nere delle metropoli nordamericane. Si mirava a combattere il fenomeno sul piano ideologico, partendo dall’asserzione che la urban flight fosse una dimostrazione di intolleranza razzistica. Asserzione che crollò sotto i colpi inferti da Schelling. Il modello generativo testò la teoria preesistente, trovandola falsa.
Ma il modello di Schelling non ebbe solo questo risultato. Si consideri adesso l’importante fenomeno sociale strettamente connesso alla segregazione, il crimine violento. Nelle società multietniche, dice Kelly, il 95% dei reati contro la persona è etnicamente omogeneo: ne conseguirebbe quindi che «Violent crime is better explained by urban flight [segregazione] than inequality»[12]. Se i vicini sono omogenei, la gente finisce con l’ammazzare gli in-group più spesso degli out-group senza bisogno di ipotizzare altre regole oltre quella della felicità. Paghi uno e prendi due: con il prezzo della segregazione compriamo anche la spiegazione della violenza.
Ma come spiegare il reato contro la proprietà? Serve una teoria sulla differenza fra crimine contro la persona e crimine contro la proprietà, e le rispettive motivazioni sottostanti.
Banalmente, si potrebbe sostenere che, a differenza dei reati sulla proprietà, la violenza fisica non implica differenze sociali, che anzi la violenza spesso non è pianificata e non è neppure intenzionale, e scoppia ovunque, spesso proprio fra i vicini di casa.
Un’ipotesi meno banale suggerisce che la violenza derivi da competizione per risorse scarse, ed è quindi frequente proprio nei rioni poveri, culturalmente deprivati ma socialmente ed etnicamente omogenei, che probabilmente costituiscono la maggioranza.
Una risposta ancor meno banale poi è quella di considerare la violenza come una conseguenza della disgregazione sociale, della perdita di autostima e dell’attitudine all’autodenigrazione, e perciò spesso diretta contro i propri simili.
In ogni caso, per evitare modelli ad hoc, allo scopo di costruire una spiegazione generativa del fenomeno in esame occorre prima una teoria delle differenze fra le motivazioni del crimine contro la persona e contro la proprietà. La spiegazione generativa, di per sé, non fornisce questa teoria.
6. Le direzioni della teoria generativa. Ancora sulla segregazione
È stato teorizzato che le proprietà emergenti dei fenomeni sociali retroagiscano sulle entità producenti, determinando effetti emergenti di secondo ordine[13]. Questa teoria è stata anche testata per via generativa, supponendo che gli effetti macroscopici iniziali, una volta percepiti dalle entità producenti, ne modifichino le credenze rafforzando, di conseguenza, i comportamenti corrispondenti. Come ha mostrato Gilbert, si produce un pattern ancor più segregato non appena gli individui percepiscano gli effetti della segregazione[14]. Ma il pattern più segregato risultante dall’emergenza di secondo ordine non sarebbe effetto di una modifica delle preferenze, bensì della percezione diffusa dell’effetto iniziale: ritrovandosi in un ambiente più segregato e mantenendo le stesse preferenze, gli individui non possono che renderlo ancora più segregato. La spiegazione del fenomeno è il frutto di una proficua interazione fra l’uso esplorativo del metodo generativo e gli avanzamenti teorici prodotti dalle teorie dell’evoluzione e dalla scienza della complessità.
In questo caso, il modello generativo ha testato una teoria preesistente, elaborata in ambito filosofico, dei processi e dei livelli emergenti della realtà. Teoria che fra l’altro, mostra i limiti di una versione unidirezionale della scienza generativa. Qui viene la seconda conclusione che possiamo trarre dalla nostra discussione: la scienza generativa fa progredire le teorie utili, rendendole operazionali e testandole. Ma solo se è theory-driven, cioè se è orientata da teorie.
7. NESS: Non equilibrium social science
A volte, gli effetti macroscopici retroagiscono anche sulle preferenze dei decisori locali. Ma non sempre ciò favorisce l’equilibrio e la convergenza. A volte produce rottura degli equilibri e innovazione.
Si consideri il minority game, ossia le situazioni nelle quali si cerca di anticipare il comportamento altrui per deviare da esso: quando andare in vacanza, a quale offerta di lavoro rispondere, su quali titoli o azioni investire, ecc. Una famosa metafora di questo gioco è il problema del bar di El Farol, un locale di Santa Fe dove si ritrovano accademici e studenti. Per andarci, bisogna prima di tutto indovinare quando non è affollato. Gli individui si servono dell’intelligenza anticipatoria anche per rompere gli equilibri. La lezione che Arthur ne ricava è la novità perpetua dei sistemi complessi, che per definizione sono in fase di transizione fra un equilibrio e un altro.
Naturalmente, l’alternativa non è sempre fra apprendimento e caos: gli individui possono anche convergere su aspettative false. In borsa, improvvise crisi di fiducia, eventualmente manipolate ad arte, possono essere basate su informazioni volatili assolutamente irrazionali (come un pettegolezzo). Gli individui prendono l’uno dall’altro gli input più disparati, opzioni da preferire, convenzioni da seguire, comportamenti da tenere, ecc. La società è in perenne movimento anche perché gli agenti si influenzano a sbagliare, e quindi modificano il mondo per effetto di azioni guidate da aspettative magari false. Infine, le entità sociali non sono sullo stesso livello. Alcune, le autorità, le istituzioni hanno proprio la funzione di modificare le aspettative, l’ordine delle preferenze e gli scopi degli agenti, e più in generale quello che Epstein chiama le regole locali.
Per la NESS, per una scienza sociale di come si generano gli equilibri, occorre una teoria delle diverse forme di influenza sociale e della immergenza[15], cioè sui meccanismi che consentono agli individui di operare in base ai dettami, alle prescrizioni, al volere di altri, in particolare delle autorità e delle istituzioni sociali e legali.
La dinamica sociale include molteplici loop, dal micro al macro e da questo di nuovo al micro. Per comprendere questa dinamica, occorre generarla sul computer osservandone il percorso a spirale[16]. Ma a sua volta, generare sul computer tale dinamica richiede una teoria di come le regole locali sono modificate dagli effetti che producono.
8. Conclusioni
Col metodo generativo, la scienza ha compiuto una grande svolta, che permette di (ri)produrre i fatti, e darne spiegazioni sufficienti e complete. Si tratta sicuramente di un grande avanzamento, le cui applicazioni sono attualmente solo agli inizi, e non esprimono tutto il potenziale di cui la nuova scienza è capace. Tuttavia, è ragionevole supporre che massicce immissioni di nuovi dati nei modelli generativi e l’utilizzo di nuovi metodi di estrazione di conoscenza dalla vaste basi di dati esistenti ci permetteranno di riprodurre i fenomeni sociali e le società stesse su larghissima scala. Avremo una 2nd society in scala 1-a-1, o forse addirittura una Twin-Society. Ma potremo leggervi il futuro delle società reali? Non è detto.
In parte, la scienza generativa modella la catena completa fra explanandum ed explanans sufficienti, ma non necessari. Anche se fossimo in grado di produrre Twin-Society, non potremmo prevedere il futuro di nessuna delle due società gemelle, né quella reale, né quella artificiale. Twin Society, o meno ambiziosamente una 2nd society su scala sufficientemente ampia, ci permetterebbe tutt’al più di formulare una serie di scenari possibili con le relative probabilità di occorrenza, senza poter escludere alternative impreviste. Il che comunque costituirebbe un notevole progresso rispetto alle tenebre nelle quali navighiamo.
In parte, e soprattutto la spiegazione generativa non sostituisce né rende superfluo il lavoro teorico necessario per individuare explanans informativi interessanti.
I modelli generativi sono e restano utilissimi strumenti teorici, ma non costituiscono, di per sé, teorie. Neanche Twin-Society lo sarebbe, perché i fenomeni, come abbiamo visto, possono essere riprodotti in modo “illusorio” attraverso regole ad hoc, senza o con poca aggiunta di conoscenza scientifica, spacciando per teorie le metafore confezionate allo scopo di rendere leggibili gli algoritmi e i loro risultati, non per costruirli. Queste teorie a posteriori, rispetto ai modelli generativi non meno che ai modelli fisico-statistici, sono narrazioni dei modelli generativi, e non costituiscono una spiegazione, o quantomeno una spiegazione interessante e informativa di tali effetti.
Insomma, non c’è rivoluzione metodologica che possa risparmiare agli scienziati il compito di formulare buone teorie. Nemmeno la simulazione.
Come ebbe a dire il buon Simon, «What can we learn from simulating poorly understood systems?»[17].
[1] Cfr. J. M. Epstein, Generative Social Science. Studies in Agent-Based Computational Modeling, Princeton University Press 2007.
[2] Cfr. J. M. Epstein and R. A. Hammond, Non-explanatory equilibria in extremely simple game with (mostly) unattainable fixed points, in «Complexity», 7, 4, 2002; J. M. Epstein, Remarks on the Foundations of Agent-Based Generative Social Science, The Brookings Institute, Washington, DC, CSED Working, Paper No. 41, 2005; B. Arthur, Out-of-equilibrium Economics and Agent-Based Modelling, in K. Judd and L. Tesfatsion (eds.), Handbook of computational economics, Vol. 2: Agent Based Computational Economics, Elsevier 2006.
[3] Cfr. B. Latané and J. M. Darley, The unresponsive bystander: Why doesn’t he help?, Prentice Hall, Englewood Cliffs 1970.
[4] Cfr. T. C. Schelling, Dynamic Models of Segregation, in «Journal of Mathematical Sociology», 1, 1971, pp. 143-186.
[5] Cfr. B. Arthur, op. cit.
[6] J. M. Epstein, Agent-based computational models and generative social science, in «Complexity», 4, 5, 1999, p. 41 (corsivo mio).
[7] «I find in the first place, that whatever objects are consider’d as causes or effects are contiguous; and that nothing can operate in a time or place, which is ever so little remov’d from those of its existence. Tho’ distant objects may sometimes seem productive of each other, they are commonly found upon examination to be link’d by a chain of causes, which are contiguous among themselves, and to the distant objects», D. Hume, A Treatise of Human Nature, Book 1, Part III, Sect. II, 1739.
[8] T. Gruene-Yanoff, The Explanatory Potential of Artificial Societies, 2007, http://philsci-archive.pitt.edu/archive/00003669/
[9] Cfr. B. Latané and J. M. Darley, op. cit.
[10] S. Hartmann, The world as a process, in R. Hegselmann et al. (eds.), Modelling and Simulation in the Social Sciences from a Philosophy of Science Point of View, Kluwer Academic Publishers, Dordrecht 1996, p. 77 sgg. (corsivo mio).
[11] Si eseguano semplici simulazioni di prova al seguente sito:
http://www.econ.iastate.edu/tesfatsi/demos/schelling/schellhp.htm#intro
[12] M. Kelly, Inequality and Crime, in «The Review of Economics and Statistics», 82, 4, 2000, pp. 530-539.
[13] Cfr. ad es. D. Dennett, Darwin's Dangerous Idea, Simon & Schuster, New York 1995.
[14] Cfr. N. Gilbert, Varieties of emergence, Proceedings of Agent 2002 Conference: Social agents: ecology, exchange, and evolution, Chicago 2002, pp. 41-46.
[15] Cfr. G. Andrighetto, M. Campennì, R. Conte, and F. Cecconi, Conformity in Multiple Contexts: Imitation vs. Norm recognition, World Congress on Social Simulation (WCSS), Fairfax, July 2008; M. Campenni, G. Andrighetto, F. Cecconi, and R. Conte, Normal = Normative? The Role of Intelligent Agents in Norm Innovation, Fifth Conference of the European Social Simulation Association, Brescia 2008; R. Conte, G Andrighetto, M. Campennì (eds.), Minding Norms, Oxford University Press 2011 (in corso di stampa).
[16] R. Conte, M. Paolucci, Reputation in artificial societies: social beliefs for social order, Kluwer Academic Publishers, Dordrecht 2002.
[17] H. Simon, The Sciences of the Artificial, MIT Press, Cambridge 19933.