Il cerchio e l’ellisse: Paolo Fabbri sulla teoria della complessità


Intervista con Antonio Caronia, DUE, n. 1, 2000.


La teoria della complessità, dopo che Michael Crichton e Steven Spielberg l’hanno divulgata in Jurassic Park, gode ormai di una certa popolarità. Quando dici “il battito delle ali di una farfalla a Pechino può provocare un temporale a New York”, più o meno la gente ti capisce. Tuttavia nella percezione popolare del termine “complessità” c’è forse l’errata convinzione che esso significhi un abbandono della ricerca di una spiegazione dei fenomeni. È vero che le teorie della complessità ci inducono ad abbandonare un atteggiamento deterministico, la credenza in una concatenazione terrea e lineare tra cause ed effetti, la ricerca di una spiegazione ultima; ma siamo sicuri che questo significhi anche la fine di un’ipotesi riduzionista, cioè che i fenomeni complessi, di livello superiore, si basino su quelli più semplici, di livello interiore?

Vorrei farti osservare innanzitutto un fatto curioso: che la parola “complessità” è spesso commutabite, e senza grandi variazioni di significato, con la parola “dialettica”. Posso appoggiare questa mia ipotesi sulla testimonianza di Edgar Morin, che come sai è uno dei maggiori teorici della complessità. Una volta, durante una conferenza, gli ho sentito fare un lapsus; mentre diceva “… La dimensione dialettica di…” si è corretto, “scusate, la complessità di…”. Allora, questa è solo una battuta, ma il lapsus mi sembra significativo. In un certo periodo, e in modo non casuale, credo, chi, come Morin, aveva una formazione hegeliano-marxista, ha sostituito con la nozione di complessità quell’idea, divenuta ormai inutilizzabile, che era espressa dal termine “dialettica”. È una cosa che capita spesso: quando un concetto si usura, quando non significa più nulla, viene sostituito da un altro concetto che invece deve voler dire qualcosa: ma il rischio è che questo nuovo concetto faccia la stessa fine del vecchio, che subisca un processo di perdita di informazione. La problematica della complessità ha avuto una forte valenza informativa, ma oggi conosce forse una fase negativa, entropica…

La tua paura è che la filosofia della storia, il finalismo, usciti dalla porta, possano rientrare dalla finestra. Non sarà perché la teoria della complessità è nata nell’ambito delle scienze fisiche e naturali, o di quelle umane più “astratte” e matematizzate come l’economia, e oggi si applica invece a tutte le altre scienze umane?

Il ruolo delle scienze naturali è stato molto importante: la filosofia della storia si è indebolita anche perché il concetto di dialettica non è potuto passare in quello di “dialettica della natura”. Non che non ci abbiano provato…

… Engels…

Certo la problematica della complessità è nata nell’ambito delle scienze naturali, ma oggi passa, o ritorna, in quella delle scienze umane. Ora La mia tesi è che questo movimento porti la stessa teoria della complessità, e l’atteggiamento antiriduzionista che la caratterizza, verso direzioni che erano già state esplorate da chi un pensiero dialettico non l’aveva, o l’aveva già superato.
Faccio un esempio: quando Stephen Jay Gould analizza l’evoluzione, e si pronuncia contro la dimensione linearista e riduzionista, darwiniano-positivista, dell’evoluzione, dicendo che il modello dovrebbe essere piuttosto quello del cespuglio, in cui ogni elemento si innesta su un altro elemento, e che la sola forma è data dalla grande potatrice che è la morte, non ritroviamo forse, in forma meno vitalistica, la stessa forma a patata del rizoma di Deleuze? Deleuze aveva già abbandonato il terreno della dialettica, quando definiva il capitalismo non come una macchina che si scassa (finalismo), ma come una macchina che funziona scassandosi (complessità, antifinalismo, antiriduzionismo, ecc… ecc…). Quindi il superamento del modello dialettico ha due componenti: il salto in quella zona non dialettizabile che è la natura, e l’avvicinamento a modelli di pensiero non dialettici, non storicisti, non meccanicisti, come quello deleuziano.
Un secondo esempio: il problema del cervello. Eravamo partiti con delle idee che sembravano molto chiare: c’erano dei signori che ci spiegavano che il cervello era diviso in due, una parte sinistra e una parte destra – c’è cascato anche McLuhan – quello di destra dedito ad attività musical-spaziali-analogiche, quello di sinistra grammatico-logico-linguistiche. Poi ci si accorgeva che c’era qualcosa che non si sapeva dove collocare, per esempio La prosodia. Bene, che cosa succede oggi? Oggi si tende a vedere invece una perfetta plasticità del cervello, plasticità che è persino preoccupante, perché se la plasticità è così grande, non si sa bene dove collocare le varie funzioni. Ma lo stesso accade in discipline come quelle linguistiche. Se guardiamo l’evoluzione delle ricerche di uno studioso come George Lakoff, vediamo che era partito con una definizione di linguaggio molto precisa, in termini di automi a stati finiti, catene di Markov e così via, come nel primo Chomsky, poi aveva sviluppato un’idea di intelligenza artificiale, in cui i problemi erano puramente grammaticali (e la fonetica e la semantica, come sempre in questa impostazione, arrivavano dopo). Ma oggi Lakoff, come altri, vanno nella direzione – paradossale, per le Loro origini – di una ripresa del pensiero fenomenologico. E così abbiamo libri come Philosophy in the Flesh (più o meno, “Filosofia incarnata”), abbiamo concetti come quello di enactment, di messa in movimento del pensiero…
Insomma, per un lungo periodo il sogno è stato quello di stabilire le “leggi di bronzo”, quelle del salario, per esempio. Oggi il fatto di riconoscere che in meteorologia, per esempio, la complessità dei fattori è così elevata che puoi essere determinista se va bene nei primi 30 secondi, e già dopo 3 minuti devi riconoscere la più assoluta indeterminazione, ti consente di rivedere anche la pretesa di assoggettare i fenomeni sociali a leggi rigorosissime, deterministiche, e a riconoscere i momenti “meteorologici” della borsa. E allora non ci si stupisce che un uomo come Mandelbrot sia nello stesso tempo uno studioso della geometria e dei fenomeni di borsa, e che i suoi modelli frattali si applichino altrettanto bene alla forma delle coste, ai crateri della luna e alla distribuzione dei rumori sulle linee telefoniche. Il fatto è che, secondo me, l’introduzione delle problematiche della complessità provoca paradossalmente fenomeni di semplificazione notevole. Prendiamo sempre Mandelbrot. Tu dirai, finalmente un metodo rigoroso ma complesso di rendere conto di realtà ad alto grado di differenziazione. Ma se prendi una di quelle “linee mandelbrotiane” come il fiocco di neve di Von Koch…

O le polveri di Cantor. Sì, prendi un semplicissimo segmento, lo dividi in tre parti, togli la parte centrale e ci costruisci sopra un triangolo equilatero, poi su ognuno dei tre lati ripeti l’operazione che hai fatto prima… e hai la forma di un fiocco di neve.

Bene, quando hai sviluppato queste operazioni noti che il dettaglio e il tutto sono omologhi, ritrovi la stessa forma nel generale e nel particolare. Ora questo introduce una problematica molto curiosa: questa è una regola minima e semplice che provoca fenomeni molto complicati. Ecco perché dicevo che la complessità introduce elementi di semplificazione…

È la cosiddetta proprietà di autosomiglianza dei frattali, che si trova anche in figure più complicate come il famoso “insieme di Mandelbrot”. Faccio un’obiezione, però: questa autosomiglianza non sempre si trova nei fenomeni studiati dalle scienze umane e sociali. L’individuo e la società, per esempio, non sono proprio sempre analoghi, non hanno comportamenti omologhi.
Certo non si tratta di stabilire analogie artificiose, ma non possiamo dimenticare che il mondo naturale è servito molto spesso come parametro di riferimento per le scienze sociali (in qualche modo, usare il mondo per capire gli uomini…). Ora la cosa molto interessante è da una parte il fatto che dobbiamo accettare, per così dire, la “meteorologia” dei fenomeni sociali, dall’altra parte invece che, introducendo parametri di alta complessità, si può arrivare al riconoscimento di regolarità abbastanza forti. Quindi quello che vorrei sottolineare è che la teoria della complessità crea in qualche modo la necessità di quella che Michel Serres ha chiamato, in maniera a mio avviso molto intelligente, una “enellittopedia”.

Andiamo sul difficile…

Meno complicato di quel che sembra. Serres contrappone all’en-ciclo-pedia, la en-ellitto-pedia. L’enciclopedia è circolare, ha un solo centro, mentre l’ellisse ha due fuochi, diciamo le scienze dell’uomo e le scienze della natura. E la nuova enciclopedia che propone oggi la teoria della complessità è proprio di questo tipo, è un sistema non monocentrico, ma almeno binario, bifocale. E a me sembra che il fatto che la complessità comporti, dico anche all’interno di una prospettiva futura dell’educazione, uno sguardo bifocale, sia un salto straordinario, una via su cui sia necessario insistere. Questa enellittopedia è, in qualche modo, la nuova regola con cui verranno a muoversi i pianeti culturali… senza più un centro, insomma, con una moltiplicazione dei fenomeni, diciamo così, “ad arcipelago”. Non è un punto di vista scontato, o accettato da tutti, perché Umberto Eco per esempio, che è un enciclopedista sfrenato, è convinto in qualche modo che la complessità sia la complessità dell’enciclopedia, che è pur sempre un sistema centrato…

Questo mi sembra legato al fatto che Eco, come altri, tende a conservare il più possibile strumenti e punti di vista tradizionali. Questo si vede anche nella sua posizione sulle nuove tecnologie, che per lui servono più che altro a fare in modo nuovo le cose che si facevano prima, e non tanto a farne di nuove.

Sì, tanto è vero che la sua enciclopedia multimediale è poi sostanzialmente un libro fatto in un altro modo… Mentre quando si introduce davvero l’interattività viene sconvolto tutto il quadro concettuale, non è solo il fatto che il Cd-Rom occupi meno spazio o pesi meno di un libro. Ma voglio chiarire una cosa: il fatto che io sostenga un sistema dei saperi ellittico e policentrico non significa affatto che io sia dalla parte del frammento, o che respinga la ricerca di uno sguardo unitario. Qui c’è un equivoco. Molti sono preoccupati che con il concetto di complessità si reintroduca un concetto di totalità, e privilegiano un frammentarismo relativistico. Io rovescerei l’ipotesi: il frammento, se ci pensi bene, è la cosa più dura che si possa immaginare, altrimenti si sarebbe già rotto. Il frammento è solido e inattaccabile. Non c’è niente di peggio della conoscenza frammentaria, che poi è quella spesso praticata dai filosofi: sanno solo quella cosa lì, e non ne escono mai. Invece la totalizzazione a cui ci porta la complessità (dico totalizzazione, attenzione, e non totalità), è fragile: le totalizzazioni sono tutte fragili, stanno su per caso, sempre pronte a disfarsi, sono castelli di carta. La mia impressione è che siano due tipi di “tutto”, come in latino, che distingue fra totus, la totalità, il totalitarismo se vuoi, e omnis, l’onnicomprensivo. Omnis introduce un’idea di movimento, come quando Orazio dice “Non omnis moriar”, “non morirò del tutto”.

A te non pare anche che la teoria della complessità sia in qualche modo un pensiero della “forma” (non del formalismo), che rivaluti la morfologia – penso anche alla teoria delle catastrofi di René Thom – e che quindi in qualche modo riavvicini la scienza al senso comune?
In questo senso i linguisti erano già pronti: loro lavorano su un oggetto che è altamente socializzato, ma di cui allo stesso tempo si è potuto dire, con Chomsky, che era come il sistema immunitario. Quindi, certo la teoria delle catastrofi è stata importante perché ha reintrodotto una riflessione sulla dimensione “macro” dell’esperienza; d’altra parte anche la teoria linguistica, una volta uscita dalle secche della metafora immunitaria, come del relativismo storicistico, rappresenta un caso interessante. Penso alle ricerche di Bikerton, che oggi studia le origini del linguaggio con un criterio un po’ bizzarro: va nei posti dove oggi si creano le nuove lingue creole, i nuovi pidgin, e tenta di guardare il modo in cui le lingue si impoveriscono in questo processo di “pidginizzazione”. La sua ipotesi è che dove ci sono fenomeni di impoverimento, di semplificazione grammaticale o lessicale, in un altro senso ci siano fenomeni di arricchimento. Da qui l’idea di un’origine del linguaggio studiata non solo sul funzionamento dei circuiti cerebrali, ma su modi di impoverimento e di arricchimento socialmente verificabili. Ecco un bel modo di studiare riduzioni di complessità e aumenti di complessità. Sempre nell’ambito di una enellittopedia, naturalmente.

Print Friendly, PDF & Email

Lascia un commento