Guardandoci intorno non possiamo non osservare che la quantità di immagini in cui siamo immersi aumenta di giorno in giorno all’interno di eventi di ogni sorta. In particolar modo, all’interno di mondo come l’elettronica audiovisiva live e il vjing, qualcuno di voi si sarà forse chiesto attraverso quale percorso vengono alla luce le immagini che passano sugli schermi di club e festival di tutto il mondo, se hanno un qualche significato, se un filo conduttore si nasconde dietro a quel flusso incontrollabile di impulsi visivi.

La risposta a questa domanda probabilmente è no, o almeno non nel senso canonico di narrazione a cui siamo stati abituati da cinema e tv. L’esigenza di costruire una narrazione attraverso le immagini non accomuna tutti i lavori di vjing, anzi è spesso messa da parte per lasciar spazio a un ricerca estetica mirata alla produzione di sensazioni ed emozioni piuttosto che di idee.

Il vjing semantico è quindi una forma di narrazione visiva che si interroga sulla necessità di dare un significato alle immagini nelel paratiche di vjing appunto, nonchè di costruire un percorso nella narrazione anche in assenza di una vera e propria sceneggiatura. I vari progetti attinenti a questo settore performativo in rapida espansione, sperimentano modi differenti per giocare con le immagini a partire dalle parole, e non viceversa.

.

In questa rassegna, la prima del suo genere in Italia, partiamo dal lavoro di Eugenio Tisselli, artista di origine messicana con base a Barcellona, autore del software Semantic Vj. Noto nell’ambiente della net art come fondatore del gruppo interdisciplinare Vaina Systems, Eugenio Tisselli si è guadagnato, insieme a Marcelì Antunez Roca, una menzione onoraria nell’edizione del 2003 di Ars Electronica con l’installazione POL.

“Semantic VJ – ci spiega l’artista – appartiene a una serie di progetti chiamata The motorhueso net experience, di cui fanno parte diversi esperimenti che ruotano attorno alla ricerca di immagini e collegamenti sinonimici attraverso i motori di ricerca presenti in rete. Il primo progetto, Dada newsfeed (http://www.motorhueso.net/newsfeed), lavora raccogliendo in un primo momento le notizie “fresche” provenienti dal server, poi ricercando un’immagine che sia correlata a una delle parole di questa notizia e infine presenta il tutto sullo schermo. Facendo click sul testo della notizia, le parole vengono sostituite dai loro sinonimi.

Senza in questo dimenticare Building from words: earth, space (http://motorhueso.net/dcr/building/city.htm) e ancora http://motorhueso.net/dcr/buildspace/building.htm, due progetti, earth and space per l’appunto, che permettono di costruire un mondo 3d navigabile, nel quale le immagini provengono tutte da una parola che il software ci richiede di digitare all’ inizio. Infine Synonymovie (http://motorhueso.net/dcr/synonymovie/synonymovie.htm) produce una sorta di film composto da immagini che si collegano successivamente: la prima immagine corrisponde alla parola originale, la seconda immagine corrisponde a un sinonimo della parola succesiva, e cosÌ via.

.

Ultimo della serie viene quindi Semantic VJ, che si configura come una piccola “software tool” definita ironicamente come “a tool for lazy VJs”, lo strumento per VJ pigri. L’artista che utilizza questo software infatti, deve solo scrivere una parola che corrisponda alle immagini che vuole mostrare, e poi le immagini appaiono sullo schermo e si muovono da sole.

Apparentemente il VJ sembra fare un minimo sforzo, ma sotto questo processo facilitato si nasconde un’idea potente: quella di manipolare la sequenza di immagini semanticamente in tempo reale. “Fino a oggi – continua Eugenio – ho visto moltissimi VJ che proiettano immagini molto complesse, con effetti speciali veramente interessanti, ma quasi nessuno di loro mostra neanche una minima intenzione alla costruzione di una sequenza narrativa”.

Il lavoro di Tisselli si concentra quindi sulla sovversione del modello di produzione del vjing canonico, andando a lavorare prima sul processo di creazione del significato e solo successivamente sulla ricerca di immagini, in un cammino guidato dalla presenza della rete semantica del web. C’è un doppio livello di costruzione del significato che prevede in un primo momento l’interazione dello user, a cui viene richiesto di digitare le parole con cui azionare la narrazione, e in un secondo momento l’intervento della rete, come infinito pozzo di significanti, il cui collegamento alla parola digitata dipende dall’arbitrarietà originale che lega significato e significante, nonchè dall’intervento dei tag come motori responsabili della scelta informatica del dato.

.

Con un software come Semantic VJ oltre alla generazione di un continuo flusso di impulsi visivi, il Vj può lavorare anche alla costruzione di un livello narrativo in modo semplice ed immediato. Ovviamente, è impossibile creare un film in tempo reale: i film seguono una struttura lineare nella quale, eccetto nei film sperimentali, la concatenazione di immagini genera una storia, nel senso classico del termine.

Nonostante questo, mantenere una certa intenzionalità narrativa resta possibile secondo Tisselli, anche se si percorrono altri cammini che non prevedono fasi proprie della cinematografia quale la sceneggiatura. “A mio parere – prosegue l’arista messicano – non bisogna mai rinunciare totalmente alla creazione di significati, come fanno normalmente i VJ che “sparano” effetti e immagini in maniera frammentata e non facilmente riconducibile a una dimensione significante.”

Semantic VJ è stato ispirato in parte dalle idee di Lev Manovich sulla narratività digitale e il database di immagini e significati, nonchè ovviamente dal suo conosciutissimo progetto Soft Cinema.

.

Lev Manovich sostiene che, in un database di frammenti audiovisuali ben organizzati in cui ciascun frammento ha i propri “tag”, o “metadata”, si possono creare “assi narrativi emergenti” introducendo parole che descrivono ciò che dovrà essere il risultato finale. Per esempio, se si introducono le parole iniziali “macchina” e “notte”, il database dovrebbe rispondere con una sequenza di immagini, video o suoni in cui ci siano, effettivamente, macchine nella notte.

La precisione di questo processo dipende dell’algoritmo che opera la selezione nel database, nonchè chiaramente dall’ottimizzazione dei contenuti presenti in esso. Se pensiamo a Internet come a un’immenso database, possiamo trovare algoritmi di ricerca molto sofisticati, come quelli utilizzati da Google per esempio. Ma che cosa sucede se scriviamo “cane” nella ricerca di immagini? Otteniamo sicuramente alcune immagini di cani, ma al contempo troviamo immagini legate alla parola “cane” che in inglese vuol dire bastone . Questo succede perchè i criteri di organizzazione dei contenuti in Internet non sono ancora standarizzati in maniera ottimale. Le immagini in Internet non hanno “tag” associati a esse e non si può quindi sapere in quale lingua sono state classificate. Ci sono delle eccezioni, come il caso di Flickr, dove ogni immagine ha i suoi tag o metadata: ma Flickr, anche se molto conosciuto, rappresenta solo una piccolo esempio di tutto quello che è disponibile nella rete a livello di immagini.

CosÌ, Tisselli reputa che in un futuro non troppo remoto, sarà interessante esplorare il collegamento tra VJ e image search engines su Internet.

.

“Fino a oggi – ci spiega ancora Eugenio – ho fatto pochi VJ-set utilizzando Semantic VJ, ma questo è dovuto in parte al fatto che la maggior parte dei club non hanno un collegamento con Internet qui a Barcelona. La piu recente sessione e stata a Helsinki, in un evento associato al festival Pixelache (http://www.pixelache.ac). Semantic VJ è solo uno schizzo di quello che su cui mi piacerebbe concentrarmi in futuro: sto già pensando di lavorare a un Semantic VJ 2.0, che lasci al VJ maggiori possibilità di controllo.

La ricerca su Internet stà diventando un elemento importante per certi VJ: un esempio è il software Satellite Jockey (http://satellitejockey.net/), del brasiliano Rick Silva, che utilizza il materiale ricavato da Google maps per i suo set. Vedere in questo senso l’intervista di Marco Mancuso su Digimag 16 – Luglio/Agosto 2006, senza in questo dimenticare il progetto WJ-S di Anne Roquigny intervistata sempre da Marco Mancuso su Digimag 12 – Marzo 2006. Prima di Semantic VJ, io stessa come VJ avevo già utilizzato MIDIPoet, un programma che ho sviluppato nel 2002 (anche se la prima versione era del 1999), che permette di manipolare testi e immagini in tempo reale, utilizzando la tastiera del pc o uno strumento MIDI.

MIDIPoet è un “free software”, e si può scaricare da http:/www.motorhueso.net/midipoet. Lì potete trovare documentazione sul software, esempi e tutorial. MIDiPoet ha il suo proprio linguaggio visuale per costruire configurazioni di manipolazione di immagini e testi. Ho utilizzato MIDIPoet non solamente in sessioni di VJing (http://motorhueso.net/vj/vj.htm), ma anche in una serie di vere e proprie istallazioni interattive audiovisive (http://motorhueso.net/vainasystems/flower.htm) e recital poetici (http://motorhueso.net/poetry.htm) e (http://motorhueso.net/midipeng/pics.htm). Ho scritto un Manifesto Text Jockey nel 2002; li si possono leggere alcune delle idee dietro MIDIPoet. Buona lettura.

SHARE ONShare on FacebookGoogle+Tweet about this on TwitterShare on LinkedIn