Uno degli appuntamenti più attesi dell’AV2006, la performance che effettivamente riassume perfettamente il tema del festival di quest’anno, sarà quella che vedrà esibirsi i robot musicisti del progetto Robot Music del giapponese Suguru Goto, presso il The Sage di Gateshead. L’orchestra robot suonerà le percussioni in un breve spettacolo nei giorni di sabato 4 e domenica 5 marzo.

Suguru Goto è compositore, invenotre e artista multimediale ed è considerato il portavoce di una nuova generazione di compositori giapponesi maggiormente legati alla sperimentazione tecnica in campo artistico e all’estenzione delle potenzialità artistiche esistenti nel rapporto uomo (creatore) – robot (compositore). Una rapida visita al suo sito mette immediatamente in evidenza il lavoro di Suguru Goto, per le meno nei suoi 3 capisaldi che sono il SuperPolm (esempio di performance con un vistual musical instrument), il BodySuite (strumento di sensori per l’interazione tra movimenti del corpo, audio generato e immagini) e infine il Robot Music presentato appunto all’AV Fest di quest’anno.

Nei suoi lavori più recenti le nuove tecnologie si mescolano in performance sperimentali; lui ha inventato quelli che vengono definiti gli strumenti musicali virtuali, in grado di creare un’interfaccia per la comunicazione tra la gestualità umana ed il computer, dove il suono e l’immagine video sono controllati da strumenti musicali virtuali, attraverso i computer in tempo reale.

.

Elena Varani: Compositore e artista multimediale, sei considerato l’inventore dei Virtual Musical Instruments, in grado di far interagire corpo umano e computer. Secondo te, i robot potranno mai superare le capacità di un musicista umano?

Suguru Goto: I limiti fisici umani possono essere facilmente sorpassati dalla capacità dei robot che sono più veloci, più resistenti, più accurati. Tuttavia non si parla solo di capacità, nella musica c’è molto di più. Se io mi occupassi solo di questo, non vedrei altri aspetti della musica: però è vero che i robot possono portare altri contributi alla musica, cose mai sperimentate prima. Il principale vantaggio della RoboticMusic è quello di suonare interattivamente uno strumento acustico con l’ausilio di un computer. Non c’è nessuna difficoltà ad eseguire ritmi complessi con risultati facilmente superiori all’ esecuzione umana e questo apre nuove possibilità all’interno della composizione per strumenti acustici.

Inoltre, per quanto riguarda il suono acustico, mentre il computer non ha molte possibilità nella generazione di un suono, uno strumento acustico ha una sonorità ricca ed enormi possibilità di espressione, specialmente dal punto di vista del compositore. Quando lo strumento è suonato su un palco, la vasta gamma delle possibilità dell’aspetto acustico sono scontate se paragonate al suono che esce dagli altoparlanti. Infine, essere bravi con uno strumento è un compito enorme per un musicista, ma suonare insieme ad altri in un’orchestra è un’ulteriore difficoltà; con cinque robot si possono ampliare le possibilità di un’orchestra. Per esempio, la RoboticMusic consente l’impiego di 5 diversi tempos contemporaneamente, perfettamente sincronizzati con la musica.

.

Quanto avviene nella RoboticMusic non è solo un vantaggio artistico ma ha anche un profondo aspetto di ricerca. Nel momento in cui lavori per la maggior parte con un partner che si muove con la gestualità di un musicista, puoi scoprire come un gesto umano contenga movimenti complessi, sebbene possano a volte sembrare semplici. Ad esempio il colpire uno strumento a percussione: un musicista sa come suonare uno strumento, ma trova maggiore difficoltà a spiegare esattamente come controlla ogni parte dei suoi muscoli e in che misura aumenta o riduce istintivamente la velocità e l’intensità in un solo istante.

Quando si sente la parola robot, probabilmente si pensa a robot industriali, o magari a quelli dei film di fantascienza, ma non è questo il caso. SI tratta più di un discorso legato alle ultime scoperte sull’intelligenza artificiale e in questo caso alle sue applicazioni all’hardware, applicate a robot che suonano strumenti con gestualità umana, e in particolare al tipo umanoide di robot che contiene sensori e programmazioni avanzate che gli consentono di controllarsi automaticamente. E’ diverso dal robot-schiavo in una fabbrica, questi robot potrebbero essere considerati dei veri e propri collaboratori degli umani, nel caso specifico dei musicisti.

.

Elena Varani: Hai detto che i robot possono suonare musica che non abbiamo mai sentito prima. Parlavi dell’aspetto tecnico, ma cosa ci puoi dire dell’aspetto emozionale che un musicista aggiunge alla sua performance?

Suguru Goto: Prima di entrare nel vivo del discorso, è meglio chiarire cosa si intende per emozione e che cosa è l’emozione nella musica. Se non ci occupiamo solo delle forme espressive, troveremo molti aspetti nella musica, come sentimenti, percezione, memoria, spazio, tempo, stati di coscienza ed incoscienza, interazione, immagini e parole; i musicisti e il pubblico danno un contesto a ciò che comprendono e sono liberi di provare qualcosa. La musica non ti forza a provare qualcosa, è importante che ogni individuo abbia la propria percezione mentre vive l’esperienza.

Nel Paleolitico l’uomo ha sviluppato la parte inferiore del cervello in modo simile all’uomo moderno e questo aumentò la sua abilità atletica; in particolare la crescita del cervello permise di camminare in posizione eretta in equilibrio e giudicare la distanza dagli ostacoli. Si crede oggi che, tra le parti del cervello, esista una grande differenza di funzioni tra l’emisfero sinistro e destro: il primo ha il controllo emozionale, mentre l’altro quello dell’attività logica. Se noi ignorassimo quello che oggi i computer possono offrire, premesso che la scienza dei computer può funzionare in modo simile alla parte destra del nostro cervello, la parte logica, noi avremmo una specie umana davvero primitiva. Ma tutto questo pone la domanda: può questa tecnologia del computer essere applicata anche per simulare l’attività dell’emisfero sinistro? In altre parole, possiamo costruire un computer che mostri le attività emozionali ed intuitive dell’uomo?

.

Suonare musica non è solo una questione di controllo di una serie di movimenti del corpo, le attività di entrambi gli emisferi sono indubbiamente necessarie. E’ come dire, pensiero logico, consapevolezza emozionale e movimento del corpo è ciò che serve perchè tutto funzioni. Da un lato la musica può essere vista come una sequenza logica di eventi nel tempo; questi eventi accadono come risultato di azioni e dipendono da una serie di parametri. Dall’altra parte la musica deriva dalle cose meno calcolabili, come un buon senso del ritmo, un certo significato poetico e una buona forma di espressione.

Quindi, è per un robot possibile eseguire la musica che noi abbiamo preparato e quindi forse, secondo il ragionamento, suonare con emozione, avere un buon senso del ritmo, realizzare espressioni poetiche, interpetare frequenza e suono, avere senso delle proporzioni ? Una volta scoperta la risposta, diventerà il primo modello sul quale strutturare il robot musicista. Per non dire che questa risposta possa essere la chiave per capire la complessità del cervello umano.

.

Elena Varani: Come reagisce il pubblico alle performance di questi robot umani?

Suguru Goto: Solitamente ho un buon riscontro. Il pubblico è generalmente composto non solo da artisti, intellettuali, ma anche da bambini o persone più anziane. Forse questo non avviene solo per interesse verso i robot, ma anche per gli strumenti musicali. L’opera d’arte può essere chiaramente capita da chiunque facilmente.

A Edgar Varèse una volta fu chiesto se non si fosse spinto troppo in là nel suo lavoro di ricerca . La sua musica era considerata troppo in anticipo sui tempi in quel periodo e lui era oltre ciò che poteva comprendere la gente della sua epoca. Varèse rispose: “Non è troppo presto, ma forse troppo tardi”. Storicamente l’arte è sempre stata legata alla società del suo periodo e ha sempre tratto vantaggio dalla cultura precedente. Come detto prima quidi, se per robot si intende l’applicazione degli ultimi sviluppi delle scoperte sull’intelligenza artificiale, gli strumenti robotizzati hanno molte altre possibilità e a questo punto forse anche la RoboticMusic non è in anticipo, ma in ritardo. Questa non è un’immagine asttratta, ma si realizza praticamente, tecnicamente ed esteticamente.

.

Elena Varani: Nelle tue performance suono e video sono controllati da strumenti virtuali i tempo reale, ma quanto è importante la perfetta sincronizzazione in questo genere di performance?

Suguru Goto: La perfetta sincronizzazione è uno dei termini dell’interazione, ma è una questione tecnica più che di percezione. Nel mio caso, il video interattivo non intende esprimere alcun significato particolare, esiste in parallelo con il suono. Può portare un altro livello di percezione interattiva tra l’elemento visuale e l’esperienza del pubblico. La relazione tra il gesto e l’interazione può essere cambiata in modo flessibile nel corso dell’esecuzione e di conseguenza la percezione dell’interattività integrata in un contesto musicale. Non c’è solo questo livello di percezione astratta tra i gesti e le loro corrispondenze audio-video, ma c’è anche un approccio creativo al fatto che le azioni fisiche possono essere interpretate nel mondo digitale.

La relazione tra il gesto e il suono è un tema cruciale per le future esplorazioni: ad esempio, il rapporto tra un gesto composto e una sintesi di suoni predeterminati può variare da sezione a sezione in termini di tecnica compositiva. Da qui derivano altri modelli di composizione, così come intervengono non solo gesti strumentali, ma anche aspetti visuali. Mentre l’interfaccia gestuale fisicamente rimane la stessa, la funzione dei modelli strumentali può cambiare da sezione a sezione a seconda del sistema di sintesi del suono impiegato. Nell’improvvisazione, gesti liberi producono variazione di suoni nella misura in cui la sintesi dei suoni programmati consente di alterare il suono originale. Tuttavia la sintesi del suono deve essere preparata precedentemente, i suoni selezionati devono poter essere facilmente cambiati durante la performance. Gesti liberi possono cambiare velocità, timbro, preset…

Un aspetto essenziale delle mie performance da solista, che io chiamo performance interattive, è il rapporto tra gesto, suono e immagine. Con il progetto SuperPolm, con un singolo movimento del corpo si può controllare suono e immagini allo stesso tempo. Questa relazione può essere chiaramente percepita in tempo reale e può essere anche più inaspettata e complessa. E’ un concetto che potrebbe subire sviluppi considerevoli nella misura in cui io posso suonare con nozioni come semplicità e complessità, ad esempio realizzando complesse texture con il semplice movimento della mano. Suono, immagine e gesto giocano un ruolo simile in questi eventi.

.

Elena Varani: Qual è il prossimo passo della tua ricerca nell’arte reale/virtuale?

Suguru Goto: Il progetto è solo all’inizio. Sto lavorando con un robot-strumento, un ottone e lavorerò con i flauti in legno e gli strumenti a corda in futuro. Il progetto complessivo è rivolto a formare un’orchestra. Queste possibilità tecniche e aspetti estetici hanno creato nuove potenzialità, anche se questo non è il mio obiettivo primario: iIl fatto di interagire con questo sistema e creare un nuovo linguaggio e la sua relativa percezione sono gli obiettivi più importanti per una composizione.

Il discorso reale/virtuale meriterebbe una discussione molto approfondita. Si può comunque considerare il fatto che la nostra stessa identità non è solo limitata al fatto di possedere un corpo: durante l’esecuzione di Extended Body, come nel dualismo “reale/virtuale” nell’arte, ci si potrebbe forse chiedere se un’identità esiste o no, fino a dove è possibile estenderne i confini. Parimenti una definizione di musica è senza limitie forse la coesistenza con questo ‘Corpo esteso’ aiuterà lo sviluppo di nuove possibilità nel modo di comporre musica.


http://suguru.goto.free.fr/

SHARE ONShare on FacebookGoogle+Tweet about this on TwitterShare on LinkedIn