“Musica generativa” è un termine coniato da Brian Eno molti anni fa per descrivere la musica creata da un sistema, sempre diversa e mutevole, figlia di un insieme di regole. La musica ambient – di cui Eno è il padre fondatore – è “musica creata per riempire un dato spazio, dove è possibile immergersi o ignorare altrettanto facilmente”.

“Circa 20 anni fa o più, mi sono interessato ai processi in grado di produrre musica non appositamente progettata” afferma Eno. “Il primo esempio di questo concetto sono i campanelli eolici. Se realizzate un set di campanelli eolici, potete definire l’involucro dentro il quale la musica può ‘accadere’, ma non potete definire con precisione il modo in cui la musica verrà realizzata nel tempo. Si tratta di un modo per realizzare musica non completamente determinata.” – Brian Eno

Recentemente ho avuto la possibilità di intervistare il musicista e software designer Peter Chilvers, co-fondatore dell’etichetta discografica Burning Shed. Egli ha scritto diverse colonne sonore di musica generativa per i giochi Creatures (rilasciati da Gameware Development) e ha trasformato in realtà i concetti di Brian Eno, sviluppando con quest’ultimo tre applicazioni per iPhone e iPod Touch. Questi nuovi “programmi” (Bloom, Air e Trope) si posizionano tra disco e audiovisivo, tra album e installazione “mobile”, tutti racchiusi in questo dispositivo tanto diffuso, che ha allargato il territorio conquistato da Apple negli ultimi anni.

“Queste sistemi generativi dipendono molto dalle connessioni dell’osservatore/ascoltatore”, ha detto Eno. “Nella mia arte ho sempre elementi sonori e luminosi che sono completamente non sincronizzati, e la gente presume il contrario. La sincronizzazione avviene in loro.” – Brian Eno.

.

Dopo la scalata con iPod e iTunes Music Store, il più grande negozio musicale sulla rete, la rivoluzione Multi-Touch nel mobile computing è iniziata da poco nel settore consumer, così come in quello professionale: nuovi dispositivi stanno prendendo vita nel tentativo di ridefinire l’esperienza percettiva con nuovi stimoli di ordine sinestetico con l’introduzione di sensori sempre più sofisticati per una convergenza visiva, auditiva e tattile.

“Ci sono tre alternative: musica dal vivo, registrata e generativa. La musica generativa gode di alcuni benefici di entrambe le sue progenitrici. Come la musica dal vivo, è sempre diversa. Come la musica registrata, è libera da limitazioni di spazio e tempo: la si può ascoltare quando e dove si vuole. E mantiene un altro grande vantaggio della forma registrata: può essere composta empiricamente. Con questo intendo che la si può ascoltare mentre la si compone: non risente del lungo processo tipico della musica composta-scritta-e-suonata.” – Brian Eno

Eno ha scelto la piattaforma Apple per distribuire i suoi “software generativi”, ambiente di sviluppo utilizzato anche nella sua installazione 77 Million Paintings, dove suono e luce vengono esplorati dall’artista per raggiungere ulteriori possibilità estetiche: il titolo deriva infatti dal numero di combinazioni possibili di video e musica che possono essere generati dal software.

Uno degli aspetti centrali di queste immagini è il fatto di non iniziare e di non finire,” afferma Eno. “Voglio che diano la sensazione di poter andare avanti all’infinito”.

Peter Chilvers ci descrive il pensiero dietro questo prodotto artistico e l’approccio all’uso della tecnologia che permette agli utilizzatori di personalizzare le propria esperienza di ascolto: rinunciando al controllo sul risultato finale, Eno e Chilvers ci offrono campioni sonori altamente evoluti, ma incompiuti, e la possibilità non solo di riprodurli, ma di manipolarli per creare un programma audio diverso all’infinito.


Matteo Milani: La ringrazio per la sua disponibilità. Innanzitutto Peter Chilver come musicista: qualche parola sul progetto A Marble Calm

Peter Chilvers: Alcuni anni fa in vacanza mi sono imbattuto nella frase “A Marble Calm” e ho pensato suonasse bene come nome per una band, allora ho iniziato a pensare al tipo di band che poteva identificare. Più ci pensavo e più sembrava legare insieme un po’ di idee che trovavo molto interessanti: brani ambient strutturali alla deriva, improvvisazione e canzone. Facendo di ciò un gruppo aperto, ho avuto la possibilità di inserire al suo interno altri vocalist e musicisti con cui ho avuto il piacere di lavorare nell’ambito di altri progetti – i vocalisti Sandra O’Neill (che inoltre collaborò con me al progetto Air per l’iPhone) e Tim Bowness, il suonatore di marimba Jon Hart e il flautista Theo Travis.

Matteo Milani: Quando ha iniziato a lavorare sulla musica generativa?

Peter Chilvers: Negli anni ’90 ho lavorato come sviluppatore di software sulla serie di videogame ‘Creatures’. Quando ho iniziato con Creatures 2, ho avuto l’opportunità di assumere la direzione dell’intera colonna sonora. Il videogioco era tutt’altro che lineare – si trascorrevano arbitrari lassi di tempo in differenti posizioni in giro per un mondo artificiale, quindi ho voluto creare una colonna sonora che fungesse più da paesaggio. Infine ho sviluppato un insieme di ‘improvvisatori virtuali’, che generano un paesaggio sonoro ambient di sottofondo – in realtà è stato piuttosto complesso, a causa della semplicità del suo linguaggio di programmazione, sebbene una parte era visibile all’utente.

[...] Peter ha scelto di utilizzare il suo background nell’improvvisare musica per creare una schiera di “musicisti virtuali” che avrebbero accompagnato l’azione sullo schermo. Ogni composizione in Creatures contiene un insieme di “suonatori” ognuno con la propria serie di istruzioni per rispondere agli stati emozionali dei norn sullo schermo.

Peter è stato in grado di generare effetti molto più interessanti usando strumenti registrati piuttosto che suoni General MIDI generati da una scheda audio, che spesso può risultare abbastanza restrittiva. In tal modo ha potuto trarre vantaggio dai diversi modi in cui una nota può essere suonata su uno strumento “live” – per esempio, su una chitarra il suono cambia in base alla parte del dito usata per percuotere una corda, e su un piano, quando si suona una nota, vibrano anche le altre corde. Anche alterando gli effetti stereo, è stato in grado in certi momenti di arricchire il suono.

All’interno della colonna sonora ha fatto inoltre uso dei cicli di feedback. I cicli di feedback furono sperimentati per la prima volta negli anni ’70 – se qualcuno di voi riesce a ricordare Brian Eno, sarete probabilmente curiosi di sapere che ha composto poi gran parte della sua musica usando questo metodo. L’idea è che si suona una traccia e la si registra nella RAM (negli anni ’70 su un nastro). Dopo un po’ (circa 8 secondi in Creatures 2), il ciclo inizia e i suoni originali vengono rieseguiti così il compositore va avanti creando dei suoni in risposta a ciò che è stato eseguito in precedenza.

Dietro le quinte, le sceneggiature controllano la macchina musicale e regolano il volume, l’effetto panning e l’intervallo tra le note mentre lo stato emozionale e la minaccia cambia.

[via
gamewaredevelopment.co.uk/]

 

Matteo Milani: Perché hai scelto la piattaforma Apple per sviluppare le applicazioni?

Peter Chilvers: Sono un grandissimo fan dei prodotti Apple da tanto tempo, e la loro tempestività nel lancio dell’iPhone non poteva essere migliore. Bloom in realtà esisteva in qualche forma prima che l’iPhone SDK venisse annunciato – forse anche prima dell’annuncio dell’iPhone stesso . Dal momento in cui provammo a far funzionare il prototipo, risultò ovvio che si adattava davvero al touch screen. E la Apple ne aveva uno! La difficoltà ad oggi riscontrata, con cui gli sviluppatori hanno affrontato la musica generativa, è stata la piattaforma. La musica generativa richiede solitamente un computer, e non è poi così piacevole sedere al computer e ascoltare la musica. L’iPhone ha cambiato tutto ciò – era portatile, potente e progettato per leggere la musica.

Matteo Milani: Chi ha progettato le visualizzazioni di Bloom? Lo stesso Eno?

Peter Chilvers: È stato un processo a due fasi. Io ho proposto l’effetto dei cerchi che si espandono e spariscono come parte di un esperimento tecnologico – Brian lo ha visto e mi ha fermato per renderlo più complesso! Gran parte dello sviluppo dell’iPhone è andato in questo modo – uno di noi suggeriva qualcosa e l’altro lo filtrava, e questo processo si ripete fino a che ci ritroviamo di fronte a qualcosa che nessuno di noi immaginava. Trope, la nostra nuova applicazione iPhone ha subito un elevato numero di iterazioni, sia dal punto di vista sonico che visivo prima di esserne soddisfatti

Matteo Milani: Che tipo di algoritmi definisce la struttura musicale di Bloom? Sono specificatamente basati sulle richieste di Brian o sono solo un’astrazione basata sul suo lavoro precedente?

Peter Chilvers: Ripeto, è stato un andare avanti e indietro tra me e lui che è continuato per un po’ di volte. Come può vedere, qualsiasi cosa si suona viene rieseguito con un ritardo. Ma la durata di quel ritardo varia in modi impercettibili ma complessi, e mantiene la musica interessante ed eccentrica. In realtà è deliberatamente “sbagliato” – non si può suonare esattamente a tempo con qualcosa che è già stato suonato, e alcuni l’hanno scambiato per un errore. La verità è che ad un certo punto era un’imperfezione – ma a Brian piaceva l’effetto, così finimmo per enfatizzarlo. “Onora il tuo errore come fosse un’intenzione nascosta” è un tema ricorrente nell’attività di Brian.
Un prossimo aggiornamento di Bloom aggiunge due nuove ‘modalità operative’, una delle quali è stata progettata specificatamente per funzionare secondo il modo in cui Brian preferisce eseguire Bloom.

Matteo Milani: Lo strumento per l’audio e la grafica include una raccolta standard di file audio e video oppure ha scritto secondo i tuoi corsi?

Peter Chilvers: Ho creato un mio motore del suono, che perfeziono costantemente e utilizzo in tutte le applicazioni. Ho dovuto effettuare diverse rielaborazioni abbastanza sostanziali prima di giungere a qualcosa di affidabile e riutilizzabile.

Matteo Milani: Tutto il codice è scritto in Objective C oppure ha usato applicazioni esterne?

Peter Chilvers: È tutto scritto in Objective-C. Non lo avevo usato prima, nonostante avessi lavorato ampiamente in C++ in passato. È difficile abituarsi a un linguaggio del genere, ma adesso mi piace molto.

Matteo Milani: Bloom è basato su campionature? Cosa controlla in effetti il motore musicale (per es. la sincronizzazione, il volume, la panoramica, gli effetti)? E cosa dire riguardo alla questione algoritmica del motore musicale?

Peter Chilvers: Bloom è interamente basato sulle campionature. Brian ha una vasta raccolta di suoni creati da lui, che stavo curando mentre lavoravo sulla colonna sonora di Spore e su altri progetti. È buffo, ma quelli che ho scelto furono proprio i primi in cui mi imbattei e dei quali pensai che sarebbero stati perfetti per Bloom. In seguito esaminai un ampio numero di alternative, ma quelli rimasero la scelta migliore. La versione di Bloom attualmente operativa impiega campioni stereo fissi, ma un aggiornamento che lanceremo presto applica una panoramica ai suoni in base alla posizione di ogni “fiore” (in inglese “bloom”) sullo schermo. È un effetto impercettibile, ma funziona piuttosto bene.

Matteo Milani: Vorrebbe descriverci i suoi progetti attuali e futuri?

Peter Chilvers: Sono stato coinvolto in due nuove applicazioni per l’iPhone: Trope e Air. Il piano prevedeva che entrambe le applicazioni venissero lanciate simultaneamente. Trope rappresenta la mia seconda collaborazione con Brian Eno, attinge alcune idee da Bloom verso una direzione leggermente differente, leggermente più dark. Piuttosto che picchiettare sullo schermo, si tracciano forme e si producono paesaggi sonori astratti e in costante evoluzione. Air è una collaborazione con la vocalist irlandese Sandra O’Neill, ed è molto diversa da Bloom. Consiste in un processo generativo incentrato attorno alle tessiture vocali di Sandra e a un’immagine in lenta trasformazione. Attinge pesantemente alle tecniche che Brian ha sviluppato nel corso di parecchi anni di lavoro sulla musica e sulle installazioni ambient, nonché a una serie di idee generative che abbiamo sviluppato più di recente.


Ho appena avuto alcune notizie interessanti: Trope è stato approvato, dovrebbe essere nell’App Store molto presto! Maggiori informazioni le potete trovare sul sito www.generativemusic.com

“Trope rappresenta una differente esperienza emozionale – più introspettiva, più suggestiva. Mostra come la musica generativa, in quanto una delle forme di sonema più recenti, possa attingere da una ampia tavolozza di stati emozionali.” – Brian Eno


http://www.burningshed.com

Brian Eno discussing Generative Music at the Imagination Conference, 1996

www.peterchilvers.com

www.burningshed.com

www.apple.com/pro/profiles/eno

SHARE ONShare on FacebookGoogle+Tweet about this on TwitterShare on LinkedIn