Nel libro Metapop di Morley la narrazione esplora il vasto spazio-tempo del pop oscillando attorno a due brani, I can get you out of my head di Kylie Minogue e I’m sitting in a room di Alvin Lucier.

Per ora vorrei soffermarmi sul brano di Alvin Lucier, che recita testuale: “I am sitting in a room different from the one you are in now. I am recording the sound of my speaking voice and I am going to play it back into the room again and again until the resonant frequencies of the room reinforce themselves so that any semblance of my speech, with perhaps the exception of r-r-r-rhythm, is destroyed. What you will hear, then, are the natural resonant frequencies of the room articulated by speech. I regard this activity nnnnnot so much as a demonstration of a physical fact, but more as a way to s-s-smooth out any irregularities my speech might have”.

Dunque non è esattamente un brano musicale in senso stretto, quanto una procedura. Siamo nel 1965 e non sono ancora state inventate espressioni come arte generativa, ma è esattamente la stessa cosa, senza formalizzarsi su dettagli come sistemi operativi e cpu, anche se, a essere onesti, non era una novità nemmeno allora: il solito Satie aveva infatti già proposto Vexations (ripetere 840 volte una semplice frase musicale).

.

Nel brano di Alvin Lucier, attraverso le successive registrazioni, lo spazio della stanza filtra e modifica il suono della voce, fino a renderlo irriconoscibile eppure bellissimo. E allora mi sono chiesto: se dovessi remissare oggi questo brano come lo potrei eseguire? Negli anni ’90 mi divertivo con i primi delay digitali economici; bastava alzare il guadagno, mettere il feedback a 100 e accendere la macchina; il rumore di fondo dei circuiti che si accendevano generavano dapprima un sottile glitch che poi cresceva sommandosi fino a saturare del tutto.

Dato che oggi lo spazio-tempo è digitale, sarà dunque questo “luogo” che agirà da filtro. Poiché il digitale è ancora relativamente giovane, userò metafore mutuate da altrove. Dunque la voce sarà non solo digitalizzata, ma anche sintetizzata (la mia preferenza va alle voci di AT&T); i registratori saranno ovviamente digitali. E le stanze pure. Possiamo usare allora dei riverberi a convoluzione, che riproducono l’impronta sonora di uno spazio fisico: dovrebbe bastare un buon sound editor come Bias Peak.

Ho scelto la voce di Audrey a 22Khz con un accento inglese: output.aif di cui è disponibile il file.

.

Prendete quindi il campione da trattare. Create un sample vuoto, chiamaiamolo finalTrack. Aggiungete a finaltrack il primo campione. Poi prendete il campione della voce e riverberatelo leggermente; aggiungete il risultato in coda a finaltrack. Prendete il campione già effettato, ripassatelo attraverso l’effetto di riverbero e aggiungete in coda a finaltrack. Ripetete a piacere l’ultima operazione, ri-effettando ogni volta il campione ottenuto.

- 10 create un campione di voce chiamatelo tempSound

- 15 create un campione vuoto con un sound editor, chiamatelo finaltrack

- 20 prendete il campione tempSound e riverberatelo,

- 30 aggiungete il campione tempSound ottenuto in coda a finaltrack

- 40 andate al punto 20

Ripetere questa operazione 25 o 50 volte (il brano totale durerà circa 50′ e 3 sec). Sono consiglio multipli di 3000 millisecondi, che cadono giusti a 80 bpm, di lavorare in stereo, ma se avete dei processori surround tanto meglio (ma anche un bel mono limitato in frequenza, telefonico, non sarebbe poi male…).

.

Oppure è possibile creare una procedura automatica. Prendiamo Reason (mi riferisco alla 3.0) di Propellerheads. Anziché usarla per fare il solito remix techno useremo la sua capacità di creare configurazioni per automatizzare il processo. Per comodità vostra e divertimento mio vi ho già creato la song, pronta da scaricare.

Basta caricare la song dentro Reason, cliccare su “show devices”, cercare Redrum, cliccare sulla freccetta che trigghera il sample Audrey sul primo canale e ascoltare. Potete anche però provare a modificare i parametri principali sul pannello…e triggherare anche gli altri campioni. Si Potrebbe però muovere nello spazio il sample originale, fare dei campionamenti discreti e interpolarli (o magari aver un algoritmo che calcoli in tempo reale , data la posizione virtuale, il suono risultante). E si potrebbe anche immaginare di poter variare tutti e due i parametri, disponendo i dati discreti in un ipercubo e navigandolo. Spazio e tempo come semplici coordinate.

La metafora dello spazio virtuale, anche se efficace, sa di vecchio. Perchè limitarci alla mimesi? Proviamo a pensare quali sono gli effettivi spazi digitali? Qual’è il “suono” delle reti? Il brusio dei dati? Il ritmo è dato dalle pause tra una ricezione e la prossima trasmissione? E possiamo cercare nella imperfezione degli errori e nella perfidia degli algoritmi di correzione o nella minimale impurezza dei convertitori analogici digitali? Se campionassi il silenzio e se amplificassi 100 volte il suono ascolterei forse il mormorio dei circuiti?

.

Pensando al lavoro che ha vinto l’Ars Electronica, frammenti di testo catturati dalle chat vengono risintetizzati in audio e mostrati su piccoli display. L’opera è stupefacente e commovente anche se sirge un sospetto: la commozione è forse aiutata (o generata) dalla colonna sonora, cioè dai suoni profondi, ma chiaramente scritta ad hoc?.

Eppure questo non è un trucco, è solo il normale procedere di arti che si affiancano. “I’m sitting in a room”.


www.propellerheads.se

www.naturalvoices.att.com/demos/

SHARE ONShare on FacebookGoogle+Tweet about this on TwitterShare on LinkedIn