Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
Il problema della relazione tra la musica e lo spazio assume quattro possibili campi di indagine che si originano nell’ultimo scorcio dell’Ottocento: la concezione wagneriana dell’opera d’arte totale, la fonografia, la diffusione del suono attraverso altoparlanti, la fondazione della moderna acustica architettonica. Vengono quindi tratteggiati i momenti salienti di quest’ultimo campo, ricordando però la relazione con gli altri tre. Infine, come caso esemplare, viene discusso il Poème électronique.
L’ultimo scorcio di Ottocento, che ormai prelude al nuovo secolo, annovera, tra i molti fatti musicalmente rilevanti, quattro date che hanno una peculiare importanza rispetto agli sviluppi novecenteschi della relazione tra musica e architettura: nel 1876 viene inaugurata a Bayreuth la Festspielhaus, il teatro che corona il sogno di Richard Wagner di uno spazio per la messa in scena della sua drammaturgia musicale, costruito in funzione della peculiare concezione che la anima. Nel 1877 Thomas Alva Edison commercializza il fonografo, il primo dispositivo capace di conservare una rappresentazione dell’informazione acustica che ne permetta la riproduzione in tempi e luoghi differenti. Nel 1881, alla mostra parigina sull’elettricità, Clément Ader impiega insiemi multipli di trasmettitori e ricevitori telefonici per trasportare il suono di eventi che avvengono in luoghi distanti da quello della mostra stessa. Nel 1895 l’Università di Harvard incarica il giovane fisico Wallace Clement Sabine di migliorare l’acustica inaccettabile del suo nuovo auditorium. Nella soluzione del caso, Sabine fonda la moderna acustica architettonica.
Queste quattro date mettono in luce come la relazione tra musica e architettura sia soltanto uno degli aspetti, strettamente intrecciati, della relazione tra musica e spazio che si delinea nel Novecento. Ad esempio, la concezione wagneriana dell’opera d’arte totale chiude il secolo aprendo la riflessione sulla possibilità di includere, in vario modo, lo spazio della fruizione/rappresentazione nella rappresentazione stessa, così da ottenere uno spazio-suono. Con la fonografia ciò che viene conservato non è solo il suono, ma necessariamente anche lo spazio in cui questo suono si è diffuso (in ogni registrazione, si potrebbe dire, lo spazio è nel suono), spazio che contribuisce in maniera determinante alle qualità percettive del suono stesso (si pensi alla differenza tra registrare in una cattedrale e in una piazza). Ed è proprio la fonografia che permette di rendere autonoma (rispetto alla sua origine acustica) la diffusione, attraverso sistemi di altoparlanti, di questo suono registrato così da dare origine alla possibilità di una spazializzazione del suono (in questo caso il suono è nello spazio). Se dunque almeno quattro sono le possibili angolazioni, qui di seguito si affronterà in particolare l’ultima di esse, relativa in particolare all’acustica architettonica, a quello che si può definire spazio per il suono.
Nel portare a termine il suo incarico, Sabine fonda la moderna acustica architettonica formulando una legge fondamentale: essa stabilisce che il tempo di riverberazione (il tempo necessario a un suono per estinguersi a partire dalla fine della sua produzione meccanica) dipende dalla superficie del materiale fonoassorbente e dalla capacità specifica di assorbimento di quest’ultimo. Questa legge è di grande rilevanza storica per quanto concerne il rapporto tra musica e architettura per due motivi. In primo luogo, la costruzione di spazi fisici per l’ascolto del suono supera l’approccio empirico e perviene a uno statuto (quasi) scientifico: ne consegue la possibilità di una progettazione acustico-architettonica consapevole. Il cambiamento è radicale, poiché, fino a Sabine, la progettazione acustico-architettonica si basava infatti sull’imitazione di modelli precedenti: soltanto pochi anni prima (1880), Charles Garnier, l’architetto a cui si deve l’Opéra di Parigi, dichiara di non aver tenuto nel benché minimo conto la dimensione acustica nella progettazione perché gli studi a lui disponibili sono pochi e contraddittori, e dunque inutilizzabili. In secondo luogo, la legge di Sabine stabilisce che la riverberazione del suono in uno spazio chiuso è indipendente dalla forma dello spazio stesso. Questo spiega, ad esempio perché la Grosser Musikvereinsaal di Vienna (1867-1869) sia riconosciuta come una delle sale da concerto di migliore qualità, nonostante la forma a parallelepipedo (che le ha fatto guadagnare il soprannome di “scatola da scarpe”) antitetica al modello classico (di derivazione greca) a semicerchio.
Il Novecento si apre così con la possibilità di determinare (almeno in parte) le caratteristiche acustiche di uno spazio e di svincolarne definitivamente la forma rispetto al modello ad anfiteatro. Un esempio celebre è la Berliner Philarmonie (1960-1963) progettata da Hans Scharoun, a pianta eptagonale, in cui l’alzato, costituito da cascate di scalinate, intende ricordare il terrazzamento delle viti lungo le valli renane. La possibilità di controllare a priori le proprietà acustiche di una sala conduce a un vero e proprio rovesciamento nella relazione tra musica e architettura. Nel Cinquecento, Schütz compone la sua musica tenendo in considerazione il lungo tempo di riverberazione della Cappella Palatina di Dresda, mentre Haydn, intorno alla metà del Settecento, valuta attentamente, nel predisporre l’orchestrazione della sua musica, le caratteristiche acustiche delle sale che i principi Esterházy gli mettono a disposizione. Dagli anni Sessanta del Novecento diventa invece possibile regolare la risposta di una sala, “intonarla” in funzione della musica che vi viene eseguita. Questo controllo può essere effettuato attraverso l’aggiustamento meccanico di pannelli in materiale fonoassorbente: ad esempio il progetto di Renzo Piano (1937-) per l’auditorium del Lingotto di Torino (completato nel 1995) prevede di ricoprire l’intera superficie interna di pannelli di legno regolabili.
Un secondo modo per controllare l’acustica della sala avviene attraverso una “risonanza assistita”, ottenuta modificando la risposta della sala tramite sistemi di altoparlanti. Come si vede, anche nella dimensione dell’acustica architettonica in senso stretto rientra in gioco la spazializzazione elettronica del suono che costituisce un capitolo cruciale della contemporaneità musicale. Dunque, se fino al Novecento è lo spazio che influenza la musica (per cui si tratta di comporre per lo spazio, come nel caso di Schütz e di Haydn, o almeno di considerare lo spazio come un dato), nel Novecento è invece la musica che influenza lo spazio, ed è l’architetto che progetta per la musica. Molte sale da concerto sono concepite in funzione di una fruizione musicale molto specifica. La sala da concerto dell’IRCAM (1978) è stata progettata da Renzo Piano e Richard Rogers in stretta relazione con Pierre Boulez, direttore dello stesso centro: si tratta di un luogo deputato alla musica contemporanea, un vero e proprio strumento musicale che permette, grazie alla mobilità praticamente di tutti i componenti, un insieme di sperimentazioni acustiche (ad esempio, il tempo di riverberazione può variare in un rapporto 4:1).
Ma è la fonografia che anche in questo caso esercita una notevole influenza. L’ascolto della musica sul supporto in alta fedeltà modifica profondamente i gusti del pubblico, poiché abitua l’orecchio alla percezione dei dettagli acustici che solo una microfonatura ravvicinata (close miking) riesce a cogliere: è come se l’orecchio fosse molto vicino allo strumento che produce il suono così da poter percepire dettagli che l’ascolto ambientale (quello usuale della sala da concerto) tipicamente esclude, poiché gli strumentisti eseguono a una certa distanza dall’ascoltatore, il quale riceve il contributo riverberante della sala che compatta e “sfoca” il suono diretto. L’estetica novecentesca delle sale da concerto recepisce questi mutamenti del gusto e predilige allora, rispetto alla riverberazione medio-lunga e al rinforzo sul registro medio-basso delle sale ottocentesche, una riverberazione breve, una localizzazione precisa e una attenuazione minima del registro acuto. È il caso celebre della sala del Lincoln Center a New York (1962), in cui una serie di rifacimenti assai complessi e onerosi, resisi necessari a causa dell’originaria acustica inaccettabile, conduce infine alla costruzione di una sala dall’acustica “secca”, particolarmente definita, in cui la riflessione delle onde lungo le pareti è un elemento marginale rispetto alla componente di suono diretto. Come si vede, la riverberazione è dunque un parametro fondamentale che non concerne soltanto la dimensione tecnica ma anche quella estetica. A partire dagli anni Settanta, l’uso dell’elaboratore permette di calcolare artificialmente il riverbero di una sala da concerto, ma anche di simulare gli effetti che il movimento del suono ha sul sistema uditivo. In tempi recenti i risultati della ricerca psicoacustica sul sistema uditivo vengono presi in considerazione, oltre che per la progettazione accurata dei sistemi di spazializzazione, anche per la progettazione architettonica. In generale, oggigiorno è possibile progettare i percorsi di tracce sonore sui vari canali per la riproduzione, così come è possibile operare con interfacce grafiche che disegnano un modello spaziale della disposizione degli altoparlanti. L’ultima frontiera della ricerca sullo spazio in musica, per quanto concerne la ricostruzione dello spazio acustico, è quella dell’audio binaurale, in cui il suono, che l’ascoltatore sente in cuffia, viene elaborato digitalmente così da simulare la risposta della testa dell’ascoltatore nel suo complesso alla sollecitazione acustica. Lo spazio sonoro acquista in questo modo una piena tridimensionalità difficilmente ottenibile con altri sistemi, ma si separa del tutto dallo spazio acustico di riproduzione: quasi paradossalmente, il massimo della spazializzazione si ottiene eliminando lo spazio circostante. Di uso eminentemente realistico, l’audio binaurale non è ancora stato sfruttato artisticamente nella composizione musicale.
Il caso del Poème électronique è particolarmente rappresentativo di tutti gli aspetti finora trattati. Nel 1958 la Philips decide di partecipare con un proprio padiglione privato all’Esposizione Internazionale di Bruxelles. Per l’occasione viene incaricato della realizzazione del progetto uno dei principali architetti del secolo, Le Corbusier (1887-1965), il quale esclude l’idea iniziale della Philips di costruire uno spazio espositivo per i prodotti e propone l’allestimento di un “poema elettronico” che metta in scena la potenza tecnologica della Philips. L’ipotesi lecorbusiana è quella di costruire una vera e propria opera d’arte totale, uno spettacolo di luci e di suoni che prenda forma in uno spazio esplicitamente costruito a tal fine. Partecipano al progetto Iannis Xenakis (1922-2001), compositore-architetto, ed Edgar Varèse (1883-1965), altro punto di riferimento della musica novecentesca. A Xenakis si deve la struttura del padiglione, una “stanza sonora” alta più di 20 metri costruita attraverso una peculiare forma a tenda di esplicita generazione matematica. La struttura è autoportante (non prevede pilastri al suo interno) e le superfici curve, insieme al rivestimento in fibre d’amianto, rendono lo spazio interno praticamente non riverberante. Varèse realizza il suo sogno di muovere il suono nello spazio acustico componendo un brano di musica elettronica (il Poème électronique) che sfrutta l’architettura del padiglione. Sulla parete interna del padiglione Philips (spesso chiamato semplicemente Poème électronique) sono infatti distribuiti circa 340 altoparlanti, connessi in “gruppi” (clusters) e in “piste sonore” (sound routes), lungo le quali il suono viene distribuito dinamicamente per tutta la durata del brano (otto minuti). Mentre il padiglione è in costruzione, per sperimentare gli effetti assolutamente incogniti di una simile spazializzazione (che non ha, al momento attuale, eguali), un enorme garage viene attrezzato con sistemi di altoparlanti presso gli studi di musica elettronica della Philips a Eindhoven. In generale, dai resoconti dei testimoni, pare che l’effetto paradossale della spazializzazione sia insieme immersivo e direzionale. Il materiale sonoro utilizzato da Varèse, sia di provenienza concreta, sia ottenuto attraverso sintesi elettronica, presenta peraltro aggiunta di riverberazione artificiale (come si diceva, una spazialità interna al suono), che contribuisce con la spazializzazione ambientale alla moltiplicazione delle prospettive acustiche. Le Corbusier progetta uno spettacolo visivo che si dispiega parallelamente alla musica: fasci di colori illuminano le pareti curve, lungo le quali sono proiettate immagini fotografiche scelte dallo stesso architetto. Negli otto minuti della sua durata, il Poème électronique definisce uno spazio audiovisivo globale, uno spettacolo che avvolge lo spettatore per trasformarlo attraverso un’esperienza estetica complessiva (non a caso la pianta del padiglione ha esplicitamente la forma di uno stomaco). Primo spettacolo multimediale nel senso attuale del termine, opera d’arte totale che abolisce ogni distinzione tra luogo dell’esecuzione e luogo della fruizione, spazio concepito per la performance intesa come circolazione del suono, il Padiglione Philips (e il Poème électronique che ne è il correlato spettacolare) va incontro a un destino comune a molte strutture architettoniche deputate alla sperimentazione sul suono (ad esempio alla struttura costruita da Renzo Piano per il Prometeo di Luigi Nono): viene demolito nel 1959, alcuni mesi dopo la fine dell’Esposizione. La complessità dello spettacolo costituisce una sfida di massimo rilievo per le tecnologie attuali di simulazione: è attualmente in fase di ultimazione il progetto di ricostruzione in realtà virtuale del padiglione (VEP Virtual Electronic Poem), che sfrutta proprio l’audio binaurale al fine di simulare lo spazio acustico e il sistema di diffusione originale in cui erano immersi gli spettatori nel 1958.