Gorizia04 PDF
Gorizia04 PDF
Gorizia04 PDF
Leonello Tarabella
Sommario
La musica che fa uso degli strumenti musicali meccanici tradizionali si basa sulla diretta interazione uomo-
strumento e cioè sull'esistenza di un sistema complesso fatto di più componenti (creatività, tecnica, sistema
nervoso, sistema muscolare, arti) la cui attività determina l’insieme di azioni bio-meccaniche che, trasferito
sullo strumento musicale in uso, porta al risultato musicale finale. Questo tipo di interazione con lo
strumento musicale assume caratteristiche diverse quando si fa uso di apparati elettronici come computer,
tastiere e sintetizzatori, dove la catena degli elementi elettromeccanici, informatici ed acustici è in generale
molto lunga ed i protocolli di comunicazione più imprecisi per assicurare il totale controllo
timbrico/espressivo del suono. Tuttavia, tali apparecchiature danno la possibilità di affrontare l'atto
compositivo ed esecutivo in un modo del tutto nuovo con potenzialità espressive certamente non realizzabili
con la strumentazione e la sintassi musicale della tradizione.
Introduzione
Tra le arti classiche, la musica è quella che maggiormente vede legata la sua storia alla
storia del pensiero scientifico e della tecnologia. La musica soprattutto si fa con gli
strumenti musicali che, proprio perché attrezzi meccanici, nelle loro fattezze, nei principi
funzionali e nelle modalità d’uso sono il risultato del complesso di conoscenze del periodo
storico che li ha generati.
La storia della musica è anche la storia degli strumenti musicali.
In linea di principio per strumenti come archi, flauti, oboe, fagotto, percussioni, etc..)
si può solo dire che sono il risultato di una lenta evoluzione e che per ciascuno di essi è
possibile tracciare lunghi percorsi segnati da interminabili catene di qualcosa che c’era già
prima. Tuttavia per alcuni strumenti musicali è possibile parlare di luogo e data di nascita e
di paternità o per lo meno è possibile conoscere il contesto in cui hanno preso forma: il
pianoforte, il sassofono e la chitarra elettrica.
Il pianoforte è nato a Firenze nel 1710 dall’ingegno e dalle mani di Bartolomeo
Cristofori. J.S.Bach ed i suoi figli ebbero occasione di conoscere il pianoforte ma
continuarono ad usare il clavicembalo dichiarando con ciò che i tempi per questo nuovo
strumento non erano ancora maturi. Più tardi Clementi e Mozart lo usarono nelle loro
composizioni tracciando con esse precise indicazioni per la storia futura. Ma è il
Romaticismo che un secolo dopo fa suo il pianoforte quale strumento che caratterizza e
celebra quel momento storico/artistico. Ed è dopo due secoli che il pianoforte contribuisce
con rinnovata poesia alla nascita ed alla maturazione della musica jazz.
Il sassofono fu inventato dal belga Adolf Sax verso la metà del XIX secolo ed era
destinato alle bande militari e più in generale alle bande di fiati. Nelle trascrizioni per fiati
di brani orchestrali le parti dei violini erano affidate ai clarinetti e quelle dei contrabbassi ai
genis; non si sapeva mai bene a quali strumenti affidare le parti dei fagotti ed il sassofono
era la soluzione al problema. Ma la vera anima del sassofono risultò essere in tutt’altro
contesto, decisamente non immaginato da Adolf Sax, quasi un secolo dopo e nel Nuovo
Continente per dare vitale contributo alla musica jazz.
La chitarra elettrica è nata negli Stati Uniti dalla necessità di portare il livello sonoro
della chitarra acustica a quello delle jazz band degli anni ’30. L’idea geniale di Adolph
Rickenbacker, George Beauchamp e Paul Barth fu quella di utilizzare il principio
dell’induzione elettromagnetica secondo il quale un corpo metallico in vibrazione nelle
vicinanze di un solenoide genera un segnale elettrico analogicamente equivalente al modo di
vibrazione del corpo metallico. Essendo il corpo metallico la corda di chitarra, che continuava
a proporre la pratica esecutiva della musica della tradizione, il segnale generato dal dispositivo
elettro-magnetico, il pick-up, poteva essere portato a piacimento ad un elevato livello sonoro
con l’uso di un amplificatore. Vale la pena ricordare la figura di Charlie Christian come il
primo chitarrista jazz che ha fatto uso di questo che può essere considerato un nuovo
strumento musicale. Anzi lo strumento che ha caratterizzato la musica del XX secolo.
Successe infatti che qualcuno, nel tentativo di alzare troppo il volume di un amplificatore di
bassa potenza, mandò in distorsione il suono della chitarra elettrica e successe che la cosa
non passò inosservata ma anzi fu giudicata interessante come nuovo materiale sonoro
espressivo. Fu quello il momento in cui nacque la musica rock che, a posteriori, è plausibile
classificare come una branca della musica elettronica.
La chitarra elettrica è oggi la strumento in assoluto più popolare a livello mondiale: per
averne una prova è sufficiente entrare in un qualunque negozio o emporio di strumenti
musicali e constatarne la quantità in esposizione rispetto agli altri strumenti musicali.
La musica elettro-acustica
La musica informatica
Uno strumento tradizionale è dunque un arnese compatto che riunisce tutti gli aspetti
(forma, meccanica, materiale, ergonometria, ..) necessari per stabilire precise sonorità e per
controllare altezza e colore dei suoni emessi. Per alcune classi di strumenti è possibile
persino personalizzare la risposta acustica attraverso la scelta di specifici parti
intercambiabili dello strumento: bocchino, ancia, corde. Inoltre la struttura fisica degli
strumenti riflette l’alfabeto e la sintassi della musica proposta che per noi occidentali è
quella basata sul sistema temperato e riflette persino la struttura anatomica del corpo
umano (forse una civiltà aliena potrebbe addirittura ricostruire la forma e il funzionamento
del corpo umano analizzando la complessità degli strumenti musicali).
In confronto, il nuovo strumento informatico musicale, appare come uno strumento
esploso in più componenti: il controllore, il generatore di segnale (il computer) e le
sorgenti sonore vere e proprie e cioè gli altoparlanti. Nel nuovo strumento musicale i
sensori che costituiscono l’interfaccia tra il performer e il sistema stesso non vengono
collegati direttamente ai generatori sonori elettronici: in mezzo c’è il computer che
interpreta i segnali provenienti dai sensori ed attiva i generatori sonori in funzione di
programmi opportuni; il programma attivo sul computer, legge i dati relativi ai sensori e li
mappa (e cioè li trasforma) in insiemi complessi di informazioni per controllare i
dispositivi di generazione sonora [5]. Ma i programmi, in relazione ad una configurazione
hardware, possono essere riscritti in ogni momento ed è perciò possibile di volta in volta
dare significati sonori diversi alle azioni esercitate sui sensori.
Il mapping perciò, come parte della composizione stessa. Il mapping come vera nuova
frontiera compositiva ed espressiva. Ma a questo punto è possibile fare un ulteriore passo
in avanti ed introdurre fra i sensori, il mapping ed il sintetizzatore, un ulteriore elemento: la
gestualità [6].
Nella performance a controllo gestuale, il sistema informatico viene opportunamente
programmato per rispondere alle azioni dell'esecutore al momento della performance vera e
propria. Qui, dove la situazione è molto simile a quella del concerto tradizionale e il
pubblico assiste alla performance, è necessario che l'esecutore conosca a fondo le modalità
di interazione col sistema e che abbia fatto il dovuto training necessario al momento
dell’esecuzione in pubblico.
Questo approccio all’uso del computer apre ad un territorio della composizione e
dell'esecuzione dal vivo del tutto nuovo e di straordinaria vastità. Si tratta di considerare il
brano musicale come il risultato di due momenti distinti: quello compositivo in cui il brano
musicale viene definito in termini di veri e propri algoritmi scritti in un linguaggio di
programmazione standard come il LISP o C (o altri appositamente creati), e quello
esecutivo in cui il comportamento a tempo di esecuzione di tali algoritmi viene controllato
dall'esterno attraverso flussi di dati provenienti da appositi apparati (i controller) in grado di
tradurre azioni gestuali in apposite codifiche numeriche.
La tecnologia touchless
In Italia le prime esperienze di utilizzo dell’informatica nella musica sono iniziate al
CNUCE di Pisa da Pietro Grossi [7] alla fine degli anni ’60. In seguito all’evoluzione
dell’elettronica digitale e della crescente potenzialità dei sistemi di calcolo anche a livello
personal, sono state realizzati sistemi di trattamento audio, di linguaggi per la
composizione musicale ed interfacce gestuali basati su tecnologia a raggi infrarossi ed a
elaborazione realtime di immagini in movimento. Oggi le attività di ricerca
sull’informatica musicale si collocano all’interno dell’Area della Ricerca del CNR di Pisa
con il nuovo nome di computerART project [8].
Nella direzione della ricerca di nuovi linguaggi espressivi, artisti e ricercatori hanno
progettato e realizzato interfacce uomo-macchina basate sulle tecnologie touchless dei
raggi infrarossi e dell’analisi in tempo reale di immagini acquisite da telecamera. L’idea
consiste nel rilevare informazioni dalla gestualità delle mani senza alcun collegamento
fisico con il sistema in modo che esse diventino l’interfaccia naturale per dare espressività
a performance artistiche basate su tecnologia informatica. Negli ultimi anni presso il
computerART project del CNR di Pisa, sono state realizzati una serie di sistemi e
dispositivi di riconoscimento gestuale utilizzati per la composizione e l’esecuzione di opere
multimediali.
Nel Pianoforte immaginario le mani di un performer vengono riprese nei movimenti
tipici di un pianista che ha di fronte a sé solo una telecamera: il segnale della telecamera
viene inviato ad una scheda di digitalizzazione inserita nel computer che estrae
informazioni dai movimenti e posizioni delle dita delle mani utilizzate poi per sintetizzare
strutture tipicamente pianistiche [9].
Il dispositivo PalmDriver è basato su tecnologia a raggi infrarossi: si tratta di un
supporto planare posto ad altezza di tavolo con degli emettitori di luce infrarossa e dei
rilevatori che misurano l'altezza di un ostacolo in modo proporzionale alla quantità di luce
riflessa. Se l'ostacolo è la mano, poiché i rilevatori sono molto direzionali e non
interferiscono tra loro, ciascuno di essi rileva l'altezza di una porzione della mano; è così
possibile rilevare altezza, angolazioni e movimenti di entrambe le mani. Le informazioni
così ricavate vengono utilizzate in tempo reale per controllare algoritmi di sintesi audio di
volta in volta diversi e con diversi tipi di mapping. Il dispositivo è molto sensibile al punto
di punto di provocare sull’esecutore la sensazione di scolpire il suono [10,11].
In questo scenario una performance di computer music a controllo gestuale
estemporaneo somiglia di più a quanto accade nella musica jazz piuttosto che quello che
accade nella musica classica dove ciò che si suona e scritto sulla partitura. Ed è questo
l’argomento del prossimo paragrafo.
Questo paragrafo prende spunto dal libro di Jerry Coker “Improvising Jazz” (molto
noto negli ambienti della didattica della musica jazz) ed in special modo a quanto detto nel
primo capitolo (the Improviser's Basic Tool) in relazione al ruolo dell’intelletto, della
pratica strumentale e del feeling di un musicista jazz [12,13].
La pratica dell’improvvisazione è presente in moltissime forme musicali di ogni epoca
e, se vogliamo, presente anche nelle altre forme di arte effimera (che trova cioè la sua
esistenza nello svolgersi del tempo) come il teatro, la danza e la poesia. La storia della
musica è ricca di personaggi che a fronte di un grande talento compositivo ed esecutivo,
sono stati anche grandi improvvisatori. Ma è nella musica jazz che l’improvvisazione
assume caratteristiche di peculiarità distintive: in un brano di musica jazz la quantità di
parte scritta è in percentuale decisamente inferiore a quella improvvisata. Qui un
personaggio si caratterizza rispetto ad un altro per il suo stile creativo ed improvvisativo
piuttosto che per le sue composizioni. E cioè: mentre la storia della musica classica è
scandita dalla presenza dei compositori e la sua memoria è nelle pagine di musica scritta, la
storia della musica jazz è scandita dagli improvvisatori (e caratterizzatori di strumenti) e la
sua memoria è nelle registrazioni su disco.
L'arte di improvvisare presuppone la coesistenza nella stessa persona di più
componenti: conoscenza teorica della musica, padronanza tecnica dello strumento e
frasario posseduto a livello concettuale-musicale e soprattutto pratico-strumentale. In modo
molto esplicito Charlie Parker diceva “impara tutto sul tuo strumento, poi dimentica tutto
ed suona” [14,15] dove l’invito a dimenticare è in realtà un modo forte e suggestivo per
richiamare la necessaria presenza di un ulteriore fondamentale componente e cioè la
creatività intesa nel senso più poetico del termine.
Non voglio qui fare un’analisi dettagliata delle modalità improvvisative che
caratterizzano le varie epoche della storia del jazz (dixie, swing, be-bop, modale e free), le
scuole e gli stilemi dei singoli artisti e dei meccanismi di fitting. Non si tratta qui di
proporre un sistema automatico per la generazione di linee melodiche su schemi armonici
prefissati ma piuttosto quello di parafrasare nell'ambito dell'informatica musicale
l'approccio improvvisativo del jazz. Per far questo è necessario innanzitutto porre in risalto
le principali componenti ed i flussi di informazione che entrano in gioco, in modo
puramente sistemistico.
Il processo dinamico che porta all’improvvisazione può essere considerato come il
coordinamento simultaneo delle componenti in figura.
- L'assolo improvvisato viene creato in maniera estemporanea come linea melodica che
si adatta momento per momento alla successione degli accordi dello schema armonico del
brano musicale.
- Oltre ad una indiscutibile tecnica strumentale, è necessario un bagaglio di frasi fatte (o
patterns) originali e/o tratte dalla tradizione che costituiscono il lessico del jazz. Tale
bagaglio, oltre a dover essere posseduto a livello concettuale, deve esistere (per così dire)
nella dita del jazzista e richiamabile all'occorrenza senza esitazione. Un ulteriore fattore
appartenente a questa componente ma per certi versi disgiunta ed aggiuntiva, è costituito
dal complesso di caratteristiche ritmico-espressive peculiari del linguaggio jazzistico:
swing, articolazione (ghost-notes, slur, etc.). E' questo un argomento in cui musicisti e
critici di musica jazz hanno in passato consumato fiumi d'inchiostro con mille e mille
interpretazioni ed analisi tecniche. Mi limito perciò ad accennare all'argomento in modo
veramente sbrigativo con un paragone linguistico: suonare jazz senza swing ed
articolazione è un pò come parlare una lingua diversa dalla lingua madre, con correttezza
sintattica e ricchezza di vocaboli e di frasi idiomatiche ma con accento (fonemi ed
andamenti) appartenenti alla propria lingua madre.
- E’ necessario avere una solida base di teoria musicale conoscendo grammatica
musicale (solfeggio) e sintassi musicale (armonia) vale a dire note e figure musicali e
come esse si combinano e si adattano alle varie situazioni armoniche.
- Su ogni situazione armonica (accordo) è necessario adattare andamenti melodici
prelevati dal frasario o, meglio ancora, inventati con creatività sul momento e collegati in
modo organico; inoltre si deve essere in ogni momento sul tempo e sul tema dato dal resto
del gruppo strumentale tenendo in forte considereazione il feed-back sonoro globale.
Voglio poi mettere in risalto un ultimo aspetto relativo al contesto strumentale qui
usato che è quello della tradizione: pianoforte, chitarra, basso, sax, clarinetto, tromba, etc...
Come già detto, ad ogni azione operata sulla meccanica di interfaccia degli strumenti
musicali (tastiera, sistema di chiavi, etc.) corrisponde sempre una stessa reazione acustica
timbrico-dinamico-frequenziale ed indico con il termine mapping tale corrispondenza che
deriva dalle stesse caratteristiche meccanico/fisiche dello strumento. Come si vedrà, questo
fatto di per sé ovvio e scontato in questo contesto, assume valenze decisamente diverse e
con maggiori possibilità espressive quando portate nel contesto informatico.
Ma, neanche a dirlo (e mi ripeto), si sa che suonare jazz vuol dire qualcosa di più che
semplicemente coordinare simultaneamente più componenti: il processo è, fortunatamente,
più complesso e più ricco ed in esso concorrono due ulteriori fattori, apparentemente
marginali, ma che influiscono rilevantemente sulla qualità globale di un'improvvisazione:
la prima, interna, data dallo stato d'animo dell'artista; la seconda, esterna, data dalla
competenza e rispondenza degli altri elementi del gruppo strumentale e in una certa misura
dalla natura e dal comportamento del pubblico. Quest’ultima considerazione è importante
perché alla fin fine ciò di cui si parla è un'espressione con alto grado di impatto emotivo e
comunicativo data proprio dall’azione di personalità creative che operano in presenza di
pubblico fruitore del loro prodotto artistico.
apparati di sintesi
sonora
uomo
Conclusioni
Riferimenti
Leonello Tarabella dopo la laurea in Informatica conseguita all'Università di Pisa, si è specializzato nel
settore della musica digitale presso il MIT MediaLab di Boston ed il Center for Computer Research in Music
and Acoustics (CCRMA) della Stanford University. E' responsabile delle attività di Ricerca
Artistico/Tecnologica del computerART project dell'Area della Ricerca del C.N.R. di Pisa. Relatore di
numerose tesi di laurea sull’argomento, tiene annualmente un corso di Informatica Musicale presso la Facoltà
di Informatica dell’Università di Pisa ed è autore del libro “INFORMATICA e MUSICA” edito dalla
Jackson Libri. Con i sistemi informatici da lui ideati e realizzati, compone ed esegue in concerto la sua
musica in eventi e manifestazioni di arte e musica contemporanea a livello nazionale ed internazionale. E’
stato ospite in trasmissioni televisive (RAIUNO, RAIDUE e RAITRE) di divulgazione artistico/tecnologica
come MEDIAMENTE e FUTURA CITY.