Da: Lorenzo Capulli (a cura di), La città telematica. Su nuovi linguaggi e comunicazione sociale, Il Lavoro Editoriale, Ancona, 1983.
Abbiamo chiesto a Paolo Fabbri, esperto di sociologia delle «comunicazioni di massa», docente al Dams di Bologna, un parere sull’esperienza anconitana analizzata in questo volume.
Nel fare questo intervento vorrei essere considerato come una specie di spettatore postumo, come qualcuno che avrebbe potuto essere stato lì ma che sfortunatamente non c’è stato, non sono in grado quindi di operare una metalettura della vostra lettura. Il mio intervento è nonostante tutto quello di uno spettatore con opinioni e associazioni che naturalmente hanno a che fare con un’esperienza privata che in questo caso è il mio lavoro. Prima osservazione: dal mio punto di vista è necessario distinguere in maniera molto precisa tra i problemi della comunicazione e quelli dell’informazione. Chiamo problemi della comunicazione quelli che riguardano semplicemente l’uso dei canali, nonostante l’estrema complessità di questo nodo. Chiamo problemi dell’informazione, con tutto quello che comportano per gli aspetti manipolatori, persuasivi, provocatori, seduttivi, ecc. tutti quegli aspetti che riguardano la competenza di chi emette e di chi riceve, e le variazioni sostanziali che avvengono in questo tipo di competenza sapendo che in un’informazione chi parla o chi riceve, a meno che non siano due organismi completamente automatizzati, varia in funzione della variazione della comunicazione. Cioè la comunicazione non ha soltanto la capacità di trasmettere dei messaggi, ma anche quella di modificare le condizioni successive della propria trasmissione. È chiaro che da questo punto di vista la mia prospettiva è quella dì rendere conto da una parte dei fenomeni detti di canale in maniera molto semplice, ivi compreso il canale elettronico in supporto a quello elettrico, e dall’altra di quei fenomeni più complessi che sono il modo in cui i soggetti percepiscono, valutano, leggono, reagiscono, interpretano.
Non c’è nessuno stimolo – risposta ma sempre un’interpretazione di uno stimolo prima che la risposta arrivi. Questo però non vuol dire che si releghi la comunicazione ad un puro fatto di canale senza effetto sulla competenza dell’emittente e del ricevente, per la semplicissima ragione che il modo stesso del funzionamento del medium è in realtà un modo trasformatore rispetto alla competenza. Da Mc Luhan in poi è opinione diffusa che esiste in qualche modo una specie di pregnanza della sostanza espressiva – il colore della grana, l’immagine ecc. – determinante per gli effetti. In ogni caso, questa distinzione tra comunicazione e informazione mi pare assolutamente determinante altrimenti l’immagine che abbiamo della comunicazione, fondata esclusivamente sui fenomeni di canale, finisce per essere quella un po’ riduttiva delle due cabine telefoniche che comunicano tra loro. La cosa interessante della vostra esperienza è quella di non aver posto la questione in termini di puro e semplice valore del canale, ma di aver condotto un certo numero di persone davanti ad un nuovo tipo di canale e ad un nuovo tipo di sostanza dell’espressione. Preciso: quando parlo di sostanza dell’espressione mi riferisco al fatto, in termini semiotici, che la cosa determinante per gli effetti di comprensione e di senso sia la forma piuttosto che la sostanza. Quindi forme diverse possono trasmettersi attraverso sostanze uguali o viceversa, forme uguali possono trasmettersi attraverso sostanze diverse. Nel vostro caso quello che è interessante è che la sostanza del mezzo in realtà è già formata. Non si è trattato dunque di porre la gente dinnanzi a questa nuova sostanza soltanto per informarla della sua esistenza – cosa che avrebbe reso l’operazione meramente divulgativa – ma in una certa misura di una sfida, di una sollecitudine degli utenti. Io non sono contro la volgarizzazione, e anzi trovo che quando è ben fatta è assolutamente decisiva. Ma uno dei rischi della volgarizzazione è quello di essere più reazionaria rispetto al discorso scientifico, più dogmatica. Il discorso scientifico è molto più probabilista mentre nella volgarizzazione, pensate alle trasmissioni di Piero Angela, quasi tutti gli enunciati sono nella forma x = y e non invece «riteniamo che», «è possibile che», ecc. Di conseguenza si perdono una grande quantità di sfumature.
Inoltre, in questo modo, voi avete messo in crisi uno dei postulati più banali della morte della città. Una delle cose che viene detta oggi più frequentemente è che le città realizzavano una volta una certa forma della dislocazione del potere; attraverso una distribuzione delle forze e delle classi chiaramente espresse dalle forme architettoniche. È evidente, si dice, che se i futuri canali di passaggio delle informazioni saranno invisibili, in una società senza fili, non ci sarà più possibilità di una lettura ideologica della città. Se è vero che una lettura ideologica della città non è soltanto definita dalla forma degli edifici ma dalla distribuzione molto più importante della gente, è evidente che l’operazione che avete fatto, di strappare il pubblico dal contatto con il medium individuale, ha dimostrato che ci sono delle forze di aggregazione urbana intorno a tipi di messaggi diversi, ad esempio in una piazza, dove il dibattito, la discussione, l’intervento sono ancora possibili. Naturalmente resta da definire l’ipotesi di fondo della terzializzazione della città, della sua trasformazione in una struttura del divertimento. Credo che voi abbiate effettivamente utilizzato questa dimensione terziaria del divertimento che stimola, non a caso, proprio la vita della città.
A causa della presenza dei media, con il contatto diretto con le banche dati, attraverso gli home computer, si ha una scomparsa massiccia della territorializzazione. Voglio dare un esempio molto divertente: le zulu tribes. Verso la fine degli anni settanta nelle città americane sono scomparse le «bande»: è come se la gente avesse smesso di riferirsi al suolo. Quei trenta-trentacinquemila negri che ancora abitano nel Bronx che chiamano zulu tribes, manipolano quasi esclusivamente radio e televisione. In un certo senso non hanno più bisogno della territorializzazione ed hanno organizzato lo spazio in funzione dei collegamenti eterei che sono prevalentemente d’informazione.
Tendenze metropolitane dove, in maniera paradossale, i beni stabili sono fatti con lo scopo fondamentale di deludere. La prova è che gli unici beni di cui non restiamo delusi sono quelli che possiamo migliorare continuamente e su cui possiamo intervenire. I beni che per così dire danno più soddisfazione sono quelli che vengono consumati d’un colpo, per esempio il cibo, e caso vuole, anche l’informazione. Il televisore è un oggetto che non stanca per la semplice ragione che continua a trasmettere sempre nuove informazioni. Un frigorifero invece crea disappunto perché non procura soddisfazione. Ma questi sono dettagli.
Veniamo ora a due osservazioni che mi interessano particolarmente e che riguardano direttamente la questione del computer. Uno dei grandi problemi del computer, e voi lo avete, credo, dimostrato molto bene nell’introduzione e nei testi seguenti, è l’acquisizione di memorie sempre più allargate. Da questo punto di vista il computer supplisce a quella che si potrebbe chiamare una debolezza biologica della struttura del cervello umano, che ha una alta capacità di strutturazione sintagmatica – nessun computer è riuscito a simulare la straordinaria struttura sintagmatica delle grammatiche di frase e di quelle più complesse del testo. Invece dall’altra parte ha una debole capacità paradigmatica, un’insicura memorizzazione. In qualche misura la brevità della memoria è collegata ad un’altra funzione tipicamente umana, quella della simbolizzazione. È probabile che la simbolizzazione sia in funzione di una memoria insufficiente e che quindi l’uomo ha bisogno di andare a richiamare attraverso le analogie dati memorizzati per settori di esperienza. Un lavoro che non è possibile fare potenzialmente con il computer.
Sarebbe interessante vedere come la messa in correlazione di diversi tipi di memorie può provocare effetti di metafora, di simbolizzazione, ma questo è un problema troppo complesso.
Neanche la linguistica e la semiotica definiscono cosa sia e cosa non sia una metafora. Per esempio «la donna è una rosa» è una metafora. Ma «io sono i giorni che ho perduto» è una metafora? Cioè l’io che è un pronome e sta al posto di un nome, è metaforico? Non è chiaro. Diciamo in ogni caso che l’aumento di stock paradigmatici e la loro messa in correlazione può consentire ad esempio la formazione di vasti campo metaforici, a scopo non semplicemente riproduttivo dell’informazione, ma innovativo, anche se mancano, insisto, tutti gli aspetti sintagmatici e grammaticali che rendono altamente complesso e ricco di effetti il linguaggio naturale.
Dunque si ha come enorme vantaggio un arricchimento paradigmatico ma quali sono i limiti di questi elementi? Prima di tutto i limiti grammaticali di cui ho già detto, poi altri due su cui vorrei insistere molto. Gran parte dei dati che vengono schedati nella memoria di un computer sono tecnici o brevi proposizioni. Nella maggior parte di questi casi mancano quelli che chiamiamo «i modi», cioè quelle capacità di rendere conto degli atti linguistici. Per esempio, «è una dichiarativa o una imperativa»? In altre parole quali sono i tipi di atti di linguaggio che vengono compiuti quando voi trasmettete una frase così banale come «la finestra è aperta». Si tratta di una constatazione (la finestra è aperta) o si invita qualcuno ad andare a chiuderla? In poche parole i linguaggi del calcolatore forniscono oggi uno stock di proposizioni logiche le quali per essere versate all’interno di un discorso hanno bisogno di essere «modate», rese modali. Come si passa dalla constatazione, all’obbligazione, alla prescrizione? È uno dei grandi problemi. Come si passa dallo stoccaggio delle informazioni, alla decisione, al «bisogna far così»? È impossibile, salvo di avere deciso ancora una volta i criteri probabilistici di valutazione.
Nel passaggio dalla informazione alla dimensione prescrittiva c’è un gap che nessun tipo di informazione può totalmente colmare. La seconda questione riguarda l’atteggiamento di un soggetto verso la verità di una proposizione. Possiamo schedare una quantità di proposizioni, anche se non vengono credute; e se si accettano solo a titolo personale e non se ne ammette la validità generale. La cosa interessante in linguistica è che una frase come «un ponte è caduto in Istria» può essere sia un’informazione incerta del tipo «mi pare che un ponte sia caduto in Istria», sia un’affermazione obiettiva «quel ponte è sicuramente caduto in Istria», oppure «per quanto ne sa il ponte caduto in Istria…». In questo tipo di problematica decisiva per le valutazioni successive, manca naturalmente nelle capacità elaborative dei calcolatori dati forniti da un’informazione, da una banca dati, entrano a far parte del discorso, perché il soggetto deve assumerli e prendendo, rispetto al dato stesso, una serie di distanze. Può assumerli come fatto personale, può assumerli come una verità rivelata, può assumerli come una probabilità consentita. Può dire «io», può dire «si dice», può dire «è così». Attualmente uno dei grandi problemi e dei limiti della telematica è di fornire una serie di dati di cui però non conosciamo né le forze né gli atteggiamenti. Per trasformarli in discorso, e quindi in azione, è necessario, tanto per fare due esempi, dare forze ed introdurre un parametro che io chiamo veridizione. A che titolo lo si dice? Ho insistito su questo aspetto per definire, da una parte, i limiti radicali dell’approccio ai dati, e dall’altra le loro prospettive, poiché è chiaro che nella direzione di queste limitazioni ci si muoverà se si vuol rendere efficace l’insieme delle informazioni. E il problema dell’efficacia è uno dei problemi più drammatici. Perché altrimenti accumulare informazione? – che richiede criteri di selezione, di probabilizzazione ecc. – inoltre perché i dati entrino nel discorso, vi sono problemi della veridizione, dell’assunzione di forza, della modalizzazione. Insisto su questo fatto per definire i limiti esterni. Ma esistono dubbi di maggiore peso che si pongono nell’attuale stato delle cose.
Una volta ricevuta una certa informazione implicitamente, che se ne tenga conto o no, che si abbiano i mezzi per selezionarla o meno, esiste una pressione dell’informazione stessa ad essere utilizzata. L’informazione una volta che sia stata consumata, dà innanzitutto il piacere del suo consumo; e non è una banalità. Il problema non è tanto che cosa dice la televisione, ma il piacere di consumarla; e non soltanto un puro bisogno. C’è una specie di piacere radicale del consumo, anche quello del dentifricio. Il problema fondamentale adesso è: dato che per il semplice fatto che esiste una pressione e quindi anche una felicità nel consumo dei beni, quali sono i rischi? Vorrei introdurre un paio di riflessioni intorno al problema della sorveglianza. La prima è una questione di politica internazionale. Si dice oggi che la sorveglianza contribuisce a mantenere la pace: se non ci fossero i satelliti di cui avete dimostrato le capacità di definizione e che sono in grado di coprire interamente la terra, e, ad altezze di migliaia di chilometri fotografare oggetti della larghezza di un metro, probabilmente il rischio di una guerra nucleare sarebbe molto alto. In una certa misura oggi, in questa follia incredibile di una probabile guerra nucleare, la sorveglianza funziona da garanzia. Un paradosso. È sufficiente riferirci alla politica interna per chiedersi in che misura la possibilità di schedatura generalizzata – pensate a tutte le questioni dei controlli, la carta d’identità, l’accesso all’informazione – possa contribuire all’effettiva pacificazione della società. Innovazioni, che voi avete mostrato, e che in qualche modo sconvolgono l’equilibrio tradizionale di una società tra il segreto e il detto, quello che non si deve dire e quello che si deve dire.
L’enorme capacità di condensazione delle informazioni fa sì che, al limite, tutto dovrebbe essere segnalato; in maniera paradossale ventiquattr’ore di vita sarebbero schedabili in ventiquattr’ore di informazioni.
Da questo punto di vista la posizione può essere reazionaria; rompiamo le macchine; una specie di neo-luddismo in nome del segreto, qualche cosa in fondo che avrebbe a che fare con la questione della vecchia idea della censura. Dall’altra parte, c’è la possibilità di una affermazione diversa a partire dalla considerazione che in questa società esiste un imperativo di produzione dell’informazione. Tutto deve essere saputo: tutto deve essere visto, nulla deve essere taciuto, in una certa misura, come dice Baudrillard, la nostra è una società oscena. Da questo punto di vista le banche dati funzionerebbero come la psiconalisi di Freud che impone di raccontare tutto. Gli psicoanalisti si sono accorti, caso vuole, che in realtà questa vecchia domanda è straordinariamente repressiva e che esistono delle resistenze specifiche che sono create proprio da essa. L’imperativo di voler sapere tutto crea segreti. Ho lavorato per qualche tempo sul problema degli informatori. È noto che questo tipo di organizzazione crea delle possibilità enormi di vere e proprie produzioni di eventi. Sapere che qualcuno può sapere provoca eventi. Goffman a questo proposito diceva: all’interno di un ospedale psichiatrico la «verità» raccontata da un paziente al giornalista che viene a chiedergli la sua storia, viene alterata dal sapere che c’è sempre un armadio che contiene la sua cartella clinica con tutte le informazioni. È evidente che il fatto di sapere che da qualche parte esistono dei depositi di informazioni molto elevati costringe, in qualche misura, chiunque fornisce dei sistemi di verità a tenerne conto e quindi a mediare.
L’esistenza di stoccaggi di informazioni è sufficiente a funzionare come una produzione di evento, anche quando non sono consultati.
La spinta all’informazione totale è anche spinta ad una conoscenza migliore dei linguaggi dentro cui questa informazione può essere codificata. Un piccolo computer non è soltanto riconoscibile per quello che trasmette, ma anche, curiosamente, per certi tipi di variazione elettrica che produce; esistono fenomeni di spionaggio industriale molto vasti che possono essere compiuti sia entrando nel linguaggio sia calcolando i tipi di variazione elettrica. Esistono computer che vengono schermati. In poche parole questo sistema che dovrebbe in teoria sapere tutto sul sociale, in realtà finisce per essere un sistema di straordinaria fragilità, può essere il modo attraverso cui si fanno nuove forme di spionaggio sul sociale. La codifica dei segreti di tutti in realtà diventa un sistema che è utilizzato come polo di spionaggio sistematico. Dunque vi è un grande interesse oggi a costruire linguaggi che non possono venire scoperti; un problema dei programmatori, oltre la gestione di quantità enormi di informazione, è anche la formulazione di un cifrario, non di linguaggi di traduzione delle informazioni, ma linguaggi di cifratura, in cifrari che non possono essere «rotti». Verso la fine degli anni ’70 ci fu un grosso dibattito. Su un articolo di Heilman su «Le scienze» (maggio ’79) è stato dato l’annuncio che dei matematici che lavoravano sulla crittografia per il linguaggio del computer, hanno dichiarato che con la complessità attuale della tecnologia si possono costruire codici che non possono essere rotti, un fenomeno sconvolgente: è la prima volta nella storia dell’umanità che in seguito all’evoluzione dei computer si sono costruiti dei linguaggi così complessi da non poter essere decodificati. È noto che, per esempio, gli esperti di spionaggio e di decodifica nell’ultima guerra mondiale hanno finito per entrare in archeologia e scoprire la lineare B cretese. Cosa sono le antiche scritture se non delle forme di codifica che si possono leggere come delle cifrature su cui ricostruire il testo. Il grado di complessità degli ultimi codici inventati era tale che si sarebbero potuti costruire delle chiavi pubbliche da distribuire ad ogni cittadino, che avrebbero tutelato il mantenimento della privacy. Il computer, nella riflessione sui propri linguaggi, avrebbe prodotto curiosamente dei sistemi di segreti pubblici riferibili ad ogni cittadino e non decodificabili.
La N.S.A., agenzia che insieme all’F.B.I. cura i sistemi di sicurezza americani e che registra tutte le informazioni non umane che loro chiamano un-mind, gestisce tutte le intelligenze elettroniche, elettriche ed artificiali.
Registra ad esempio tutti i programmi del mondo non esclusi quelli dell’Unione Sovietica, memorizzando anche l’ultima trasmissione del Turkestein o i messaggi radio dei pescherecci. Pensate che capacità straordinaria di stoccare le informazioni. Credo che sia la più grande centrale di immagazzinaggio di informazioni in questo momento.
C’è stato un violento intervento dell’N.S.A. che ha chiesto a tutti gli esperti in crittografia di esimersi dal pubblicare i loro testi per paura che l’Unione Sovietica incamerasse questi segreti pubblici e potesse poi codificare con chiavi non più decodificabili. Dopo molti dibattiti in cui la sinistra americana ha protestato molto per questa censura gli universitari hanno ceduto. Subito dopo questo atto di cedimento, nell’aprile dello scorso anno, un esperto in codici computer israeliano dichiarò di aver scoperto il modo di rompere qualunque codice. Potrebbe emergere a questo punto l’ipotesi più drammatica di una montatura dell’N.S.A., un bluff per far credere all’Unione Sovietica che i codici non si potessero rompere.
Questa storia ci restituisce tutta la complessità della questione.
Non si può porre la questione dei codici solo in termini di sorveglianza; forse producono della libertà, ciascuno avrebbe i suoi piccoli segreti e li potrebbe difendere contro i computer.
Tento di fare una specie di conclusione. In un recente libro di Sudnov (Pilmigrage in the micro-world, N. York, 1982) l’autore ci racconta come sia stato attratto dall’universo dei videogiochi e come abbia cominciato allora a lavorare con i programmatori e i progettisti della Atari cercando di approfondire alcuni aspetti verificandoli alla fonte. Sudnov ha notato come la costruzione e l’utilizzazione di un videogioco comportino delle regole abbastanza semplici, anche se non è così semplice come si immagina. Soltanto la digitazione, implica un sistema complesso di coordinamento tra le dita ed i ritmi celebrali che costituisce un rapporto assolutamente determinante anche per quanto riguarda la strategia reciproca del giocatore e del progettista del gioco.
In una certa misura anche il vecchio flipper veniva costruito e migliorato in funzione delle resistenze che incontrava nel suo pubblico. Succede la stessa cosa nei videogames, che crescono di complessità sia in funzione dell’evoluzione dei programmi sia in funzione delle abilità e dei trucchi acquisiti dal giocatore. Da questo punto di vista credo che i videogames rappresentino una vera e propria crescita intellettuale e sociale, non rispondendo più soltanto alla struttura cognitiva fondamentale, ma anche ad un confronto continuo con le abilità crescenti dei consumatori.
La pratica della televisione ha giocato un ruolo determinante nell’apprendimento che i bambini hanno oggi del gioco elettronico. È stato necessario che la televisione insegnasse il suo proprio linguaggio perché si passasse ad un altro linguaggio. Nello studio della televisione noi abbiamo ben poche risposte, per esempio, su quali siano i ritmi delle immagini, gli effetti della luminanza e delle variazioni di tensioni cromatiche. Potrei andare molto lontano e dire, in maniera molto banale, che su tutto questo abbiamo poche informazioni. Di qui una certa semplificazione dell’analisi che considera il contenuto senza tenere conto delle ragioni formali, fondamentali, per cui piace la TV. È sufficiente guardare il discorso poetico per rendersi conto della differenza che passa tra un’analisi semiotica e un’analisi contenutistica. Nel discorso poetico, ne è un esempio molto divertente il testo di Toti, presente nel vostro dossier, la linearità dell’informazione è solo un pretesto.
Il discorso poetico apparentemente racconta una storia, ma in realtà mentre lo leggete, cominciate a fare una relazione di rime, delle assonanze tra l’inizio e la fine, fra un verso e l’altro, delle organizzazioni formali (verso più lungo verso più corto), ecc. insomma, in altre parole, mentre lo leggete linearmente e lo padroneggiate dal punto di vista sonoro e grafico come totalità, queste correlazioni che voi fate, costituiscono una specie di linguaggio secondo, paradigmatico, indipendente dalla linearizzazione dei contenuti che state leggendo. Succede esattamente così nella lettura delle immagini, specie nel caso della televisione e in quello più importante dei videogames, contano le relazioni ritmiche, plastiche, configurative, cromatiche che formano una specie di linguaggio secondo, che è probabilmente quello che ci cattura. Su questa cosa bisogna denunciare la debolezza delle scienze dell’uomo e quindi anche la mia debolezza personale e sottolineare invece l’importanza, anche se sottovalutata oggi, dello sforzo della semiotica per tentare almeno di pensare le forme dì questi linguaggi secondi. In ogni caso questo è un problema per me e per voi.