Come ha imparato a vedere il computer? – Alexander R. Galloway

La visione computazionale dà per scontato che il punto di vista non sia necessario per vedere. Il problema non è semplicemente che la visione è diventata astratta, è che il vedere non richiede più un punto

di: Alexander R. Galloway

Alexander R. Galloway – scrittore e programmatore informatico che si occupa di filosofia, tecnologia e teoria dei media – è professore di Media, Culture and Communication alla New York University ed è autore di diversi libri sui media digitali e sulla teoria critica, tra i quali  Protocol; The Exploit (con E. Thacker); The Interface Effect; Excommunication (con E. Thacker, M. Wark); Laruelle. Il suo ultimo libro, da cui proponiamo questo estratto, è Incomputabile ed è stato pubblicato da Meltemi editore.  Il testo si interroga su ciò che è calcolabile e non-calcolabile, ci parla della tecnologia che guida il mondo di oggi e delle persone che hanno contribuito a creare alcune macchine. Grazie al lavoro sugli archivi della computazione e dei media digitali, l’autore ci mostra come il mondo digitale possa prosperare ma anche atrofizzarsi, come le reti possano creare una serie infinita di interconnessioni e, allo stesso tempo, disgregarsi e disgregare, colonizzare il mondo e dare vita a pratiche di esclusione e di opposizione.

 

 

Come ha imparato a vedere il computer? La risposta più comune è che il computer ha imparato a vedere dal cinema, cioè dalla tecnologia più evoluta del XX secolo nel campo della visione. Ma da dove ha preso il cinema questa capacità? Dalla fotografia del diciannovesimo secolo, che a quanto pare l’ha ottenuta dalla venerabile camera oscura, la quale, a sua volta, ha acquisito questa facoltà dal sole stesso. Come mito delle origini, la storia ha il vantaggio di essere pulita e ordinata, forse troppo, un po’ come la vecchia storia di come Prometeo trasferì la tecnologia dell’illuminazione dalla natura divina all’uomo mortale. Un racconto avvincente, che tuttavia ha il netto svantaggio di essere falso, almeno in parte.

Come ha imparato a vedere il computer? Come ho suggerito finora, una risposta migliore è dire che il computer ha imparato a vedere non dal cinema e nemmeno dalla fotografia, ma da campi adiacenti come la scultura o l’architettura, in particolare dalla tradizione della modellazione architettonica, quella speciale modalità di scultura dedicata non all’oggetto in sé ma alla complessità dell’ambiente costruito.[1] Non l’architettura nel senso classico di templi e monumenti, o di grotte e falò (come disse una volta Reyner Banham), ma piuttosto il fatto che il computer vede il mondo attraverso una sorta di virtualizzazione dello spazio.

Parte di questa concezione alternativa – l’idea che il computer veda più come uno scultore o un modellista – ha a che fare con un particolare contratto stipulato tra la percezione e gli oggetti della percezione. La versione fotografica del contratto, se fosse rappresentata come uno schema, assomiglierebbe a un cono che si estende verso l’esterno partendo da un punto di origine, come un corno. Qualcosa di molto importante occupa il punto all’estremità del corno, qualcosa di importante come un obiettivo o un’apertura, un bulbo oculare o un soggetto. Partendo dal punto focale, la visione fotografica si allarga al mondo, individuando gli oggetti in funzione della loro vicinanza con il punto di origine. A causa della sua presunta somiglianza con la visione umana, con il suo ricco punto focale (l’occhio, la mente) e la sua visione conica (lo sguardo umano), lo schema della fotografia è stato molto influente, giocando un ruolo importante nella filosofia e nella cultura.

Eppure l’occhio umano è troppo ricco. Fisiologicamente troppo ricco, l’occhio ha accumulato un eccesso di potere percettivo. Si impone sugli altri sensi, disciplinandoli e rivendicando il loro territorio per sé. Dispiace per l’occhio, perché il suo stesso successo è una sorta di handicap. Come l’ingordo che non riesce più a provare piacere, l’occhio ha un tale successo nella pura percezione da ostacolare e bloccare gli altri sensi. Siamo quei granchi violinisti la cui unica chela, sovradimensionata e asimmetrica, domina un corpo atrofizzato.

Gilles Deleuze e Félix Guattari hanno usato il termine “deterritorializzato” per descrivere il volto. La loro affermazione è inizialmente controintuitiva, dato che il volto ospita una serie di organi fragili e complessi, primi fra tutti gli occhi. Ma per Deleuze e Guattari il volto è deterritorializzato a causa della quantità di cose che lo attraversano ogni giorno, cose materiali e immateriali. Più promiscuo della pelle o dei genitali o di qualsiasi altra parte del corpo, il volto consente un elevato flusso di aria, cibo e acqua, oltre a una quantità smisurate di sensazionali tesori, come parole e idee, carezze e baci.

Tuttavia, i media informatici hanno finalmente impoverito l’occhio, accelerando così la dissoluzione del volto. Di fatto, anche la visione digitale è conica, ma invertita, più simile a un imbuto con la punta rivolta verso l’esterno. Qui il soggetto che percepisce non si concentra in un punto denso e ricco al centro, ma si distribuisce verso i bordi dello spazio (come nell’opera di Willème). L’oggetto, al contrario, si trova all’estremità dell’imbuto, ricevendo tutti i numerosi input provenienti dal perimetro. Così, se l’occhio fotografico è, per così dire, convesso, come la prua di una nave che si protende nel mondo dal centro, l’occhio digitale è concavo, affiancando e abbracciando il mondo dal margine.

In altre parole, l’architettura, la modellazione e tutte quelle forme d’arte in cui le complessità del sistema e della dimensione sono più importanti dell’integrità dell’oggetto o di un particolare punto di vista, condividono una premessa speciale, non tanto un problema da risolvere quanto uno stato di cose che attende di essere esplorato. La premessa è semplice: supporre che gli oggetti e i mondi siano visibili e manipolabili da tutti i lati in più dimensioni. I designer industriali si imbattono spesso in questa situazione; i produttori teatrali non brechtiani la considerano meno. Gli architetti, sempre; i fotografi, quasi mai. Platone, di certo; Husserl, probabilmente no. E, a quanto pare, anche i modellatori informatici affrontano questa situazione. È una parte fondamentale di ciò che fanno ogni giorno.

La visione digitale dà per scontato che gli oggetti e i mondi possano e debbano essere visualizzati da tutti i lati. In effetti, il punto dovrebbe essere sottolineato con più forza. La visione computazionale dà per scontato che il punto di vista non sia necessario per vedere. Il problema non è semplicemente che la visione è diventata astratta, né che la visione è stata svincolata dal suo ormeggio soggettivo, due imprese già compiute durante il Rinascimento, se non prima. Il nocciolo della questione è che il vedere non richiede più un punto. In effetti, se ci ostiniamo a concedere alla camera oscura un posto d’onore all’interno di questa genealogia, la narrazione tornerà sempre allo stesso punto; per fortuna esistono altre arti (prime fra tutte l’architettura, la modellazione e la scultura) che dimostrano l’utilità dell’assenza di punti.

“Le nostre macchine migliori sono fatte di sole”, ha scritto Donna Haraway, “sono tutte leggere e pulite perché non sono altro che segnali, onde elettromagnetiche, una sezione di uno spettro”.[2] In un senso superficiale, Haraway si sbaglia, naturalmente; i computer non sono fatti di sole, e non sono dispositivi ottici in uno stretto senso tecnico, in quanto privilegiano valori matematici astratti rispetto alla visualità della luce.[3] Tuttavia, in un altro senso, Haraway ha colto l’essenza del digitale. I computer sono fatti di sole perché includono cose come cavi in fibra ottica e commutatori a fotoni. Sono fatti di sole anche in senso lato, perché sono costituiti da energia che si muove attraverso la materia. Inoltre, la disciplina della modellazione informatica cerca di simulare il comportamento della luce utilizzando equazioni matematiche, ed è quindi una sorta di “simulatore di luce solare”. In altre parole, i computer usano ancora la luce, anche se ripudiano i dettami della camera oscura.

Per realizzare la simulazione della luce solare, una serie di tecniche rinascimentali sono state importate in blocco nella computer grafica, dalla prospettiva a punto di fuga alla radiosità della luce. Teorici dei media come Friedrich Kittler hanno raccontato le complicate origini della grafica computerizzata, ammettendo le moderne scienze ottiche, ma includendo anche strani antecedenti come il radar, che assegna indirizzi ai punti, e il testo e la letteratura stessa, che fornisce una qualche spiegazione alla verbosità del codice sorgente.[4] (Sebbene non sia ancora stata scritta una vera e propria narrazione storico-artistica sui pregiudizi estetici inerenti alla computer grafica, è sufficiente dire che il computer tende a essere più classico che sperimentale nei suoi presupposti sul modo in cui la luce si muove nello spazio, con molto Jacques-Louis David o M.C. Escher e molto poco Odilon Redon o James Turrell). Di fatto, la storia della computer grafica è in gran parte una storia di rendering, cioè il procedimento di proiezione di uno spazio volumetrico su un rettangolo piatto.

L’astrazione della visione è piuttosto antica, a dire il vero, dalle stravaganti narrazioni del dialogo cosmologico Timeo di Platone allo sviluppo della scienza ottica sotto Keplero, Cartesio, Newton e altri moderni. In letteratura, il discorso indiretto libero ha permesso di astrarre la soggettività da uno specifico testimone umano – James Boswell o il dottor Watson – a una modalità di osservazione libera. (Secondo Pasolini, tale osservazione libera è stata successivamente importata in blocco nel cinema.[5]) Il concetto di visione neutrale ha avuto un ruolo anche nello sviluppo dell’empirismo e delle scienze obiettive e, in modo diverso, nelle teorie politiche sulla giustizia cieca e sull’indifferenza delle strutture dello Stato. Il punto di vista è stato a lungo un problema anche in pittura, l’esempio più immediato, se non addirittura un cliché, è il cubismo.

Tuttavia, nessuno di questi approcci scarta completamente l’occhio. Le varie tecniche si limitano a modificare la qualità dell’occhio, consentendogli di essere fluido anziché fisso, oggettivo anziché soggettivo, neutrale anziché determinato. Cosa significherebbe vedere qualcosa in tutti i modi, da tutti i lati e in ogni momento? Non solo astrattamente, non solo oggettivamente, non solo neutralmente, ma effettivamente? Una visualità “etica” sarà il suo giusto appellativo, perché l’etica è quella modalità in cui tutti i punti e le posizioni si dissolvono a favore di un’unica, generica affermazione: “tutto è amore”; o, qui, “non c’è punto di vista”. La fotografia dice che qui c’è un punto di vista, ma la visione computerizzata dice che non c’è nessun punto di vista perché qui ci sono tutti.

Storicamente, ci sono stati due modi fondamentali per ottenere questa visione etica: o attraverso la molteplicità della visione (la via schizofrenica), o attraverso la virtualizzazione della visione (la via gnostica). E se il cinema è una macchina schizofrenica con i suoi tagli, le sue telecamere multiple e il montaggio parallelo, il computer è certamente una macchina gnostica, che promette una conoscenza immediata di tutte le cose in ogni momento e da ogni luogo. C’è dell’ironia in questo, poiché qualsiasi forma d’arte in cui la visione non richiede un punto di vista sperimenterà una nuova libertà di replicare punti e punti di vista all’infinito. La visualità non scompare. Al contrario, la visualità diventa metastabile, apparendo in qualsiasi luogo e in qualsiasi momento sotto l’egida della “macchina fotografica virtuale”.

Dopo tutto, la visione è solo una variabile per il computer, una variabile come qualsiasi altra. E i tipici rilievi e profili ereditati dal disegno architettonico sono ora intercambiabili come qualsiasi altro tipo di input. Questa libertà sfrenata genera di per sé una forma secondaria di regolarizzazione, in cui l’infinità di visioni possibili si riduce a un breve elenco di visioni comuni. Così l’architettura, l’arte dello spazio e del volume, è anche la professione che più efficacemente ha disciplinato la visione in rilievi, profili e pianta. Ma non è necessario evitare la regolarità per semplice riflesso. L’apparente rigidità del sistema di coordinate euclideo fornisce infatti la struttura necessaria a questa modalità estetica che, come abbiamo detto, non ha punti di vista (perché li ha tutti).

Il risultato non è tanto una meditazione sulla luce quanto un esperimento all’interno dei sistemi mediatici nei quali nulla viene svelato se non l’inedita scoperta che la luce potrebbe non essere affatto rivelatoria. La rivelazione del computer si presenta invece sotto forma di reduplicazione: moltiplica i punti di vista, li distribuisce nello spazio e privilegia l’acquisizione parallela rispetto alla serie diacronica. Il multiplo fotografico è quindi l’inizio di una storia, ma non è affatto una fine soddisfacente. Per meglio comprendere la computazione, dovremo esplorare la molteplicità in altri formati mediali, tra cui il tessile, i giochi, le macchine calcolatrici, gli automi cellulari e altro ancora.

 

 

1. Con un approccio diverso, alcuni studiosi hanno preferito sottolineare l’essenziale continuità tra cinema e computer. Si veda, in particolare, Lev Manovich, “The Automation of Sight: From Photography to Computer Vision”, in Electronic Culture, New York, Aperture, 1996, pp. 229-39; Friedrich Kittler, “Computer Graphics: A Semi-Technical Introduction”, trad. Sara Ogger, Grey Room 2 (inverno 2001), pp. 30-45; e Anne Friedberg, The Virtual Window: From Alberti to Microsoft, Cambridge, MA, MIT Press, 2006.
2. Donna Haraway, Manifestly Haraway, Minneapolis, University of Minnesota Press, 2016, p. 13.
3. La questione se i computer siano o meno supporti ottici è oggetto di dibattito. Si confrontino ad esempio le conclusioni negative di Friedrich Kittler in Optical Media: Berlin Lectures 1999, trad. Anthony Enns, Cambridge, Polity, 2010, con il resoconto più positivo fornito in Bernard Dionysius Geoghegan, “An Ecology of Operations: Vigilance, Radar, and the Birth of the Computer Screen”, Representations 147 (Estate 2019), pp. 59-95.
4. Si veda ad esempio Friedrich Kittler, “Computer Graphics: A Semi Technical Introduction”, Grey Room 2 (inverno 2001), pp. 30-45.
5. Cfr. Pier Paolo Pasolini, Empirismo eretico, Garzanti, Milano, 1972.