482 71 PB PDF
482 71 PB PDF
482 71 PB PDF
Music / Technology
13 • 2019
ISSN 1974-0042 FIRENZE
UNIVERSITY
PRESS
Musica/Tecnologia
Music/Technology
rivista della fondazione ezio franceschini
13 • 2019
Fondazione Rinascimento digitale
Questo numero
La notazione della musica elettroacustica. Scrutare il passato
per contemplare il futuro
Stefano Alessandretti e Laura Zattra
1 H. Lachenmann, “Über das Komponieren”, in Musik als existentielle Erfahrung, Wiesbaden, 1986,
pp. 73-82.
2 A. Vidolin, “Influenza della tecnologia sul pensiero compositivo contemporaneo” in Tortora, D.
(a cura di) Molteplicità di poetiche e linguaggi nella musica d’ oggi, Milano, Unicopli, 1988, pp. 53-56, 53.
3 «Pourquoi ne pourrait-on pas composer de la même manière, que l’on ait en face de soi du papier
réglé ou un ordinateur ?», P. Manoury, La note et le son. Ecrit et entretiens 1981-1990, Paris, l’Itinéraire,
L’Harmattan, 1998, p. 62.
4 A. Vidolin, “Questo numero”, Musica/Tecnologia, 6 (2012), pp. 5-12.
6 P. de Assis, W. Brooks, K. Coessens (eds.), Sound and Score: Essays on Sound, Score, and Notation,
et les médias numériques. Visual representation, communication and transmission, eContact!, 19.3, (January /
janvier 2018). Montréal, Communauté électroacoustique canadienne / Canadian Electroacoustic Com-
munity, <https://econtact.ca/19_3/index.html> (03/19).
8 A. Vande Gorne, Treatise on Writing Acousmatic Music on Fixed Media, Musiques & Recherches,
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 5-8
DOI: 10.13128/music_tec-11158 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
6 Questo numero. La notazione della musica elettroacustica
Nel VI volume del 2012 Alvise Vidolin concludeva il suo contributo auspicando
un numero che affrontasse il tema della notazione nel repertorio della musica elet-
tronica mista e del live electronics, ed è in quest’ottica che abbiamo preparato questo
volume.
Se storicamente la notazione musicale si è sviluppata nel corso dei secoli con gli
scopi di simbolizzare dei suoni, di rappresentare un’interfaccia (nella sua concretizzazio-
ne in quanto partitura) e di preservare un’idea musicale9 – una definizione che rinvia
alle tre caratteristiche della fedeltà/esattezza nella scelta dei simboli che rappresentano
il suono e che servono alla scrittura di un pensiero musicale, dell’apertura verso un tas-
so necessario all’interpretazione, e della capacità di essere rappresentativa aldilà delle
differenze culturali dei suoi utilizzatori –, nel caso della musica elettroacustica e del
live electronics la notazione non ha ancora raggiunto un livello di standardizzazione
perché per molto tempo si è parlato di un genere che «ne se situe pas historiquement
dans le cadre d’une écriture»10.
Inoltre, se per molti secoli le scelte compositive sono state compiute principalmen-
te per mezzo dell’immaginazione – intendendo per essa la capacità di cogliere il reale
per astrazione – con l’avvento della tecnologia elettroacustica si è iniziato a osservare
questo limite come un dogma da abbattere, al punto che oggi, come conseguenza della
rivoluzione digitale tuttora in essere, la composizione musicale si estende al metodo
interattivo di lavoro sul suono e, ipso facto, le scelte musicali possono essere guidate
dal suo ascolto diretto.
Bisogna tuttavia distinguere alcuni aspetti. Se si intende parlare della scrittura di
fenomeni sonori distinti, semplici o complessi, la loro ‘trascrizione’ in notazione tra-
dizionale risulta sicuramente difficile; ed essendo il timbro una buona parte del pro-
cesso compositivo della musica elettroacustica, «[s]e [...] la scrittura è astrazione dalla
determinazione particolare, e se il timbro è la determinazione particolare del suono,
allora del timbro non può darsi scrittura in quanto il timbro è ciò da cui la scrittura
deve astrarre per potersi costituire come scrittura»11. Ma se si considera l’ambito, ad
esempio, della musica informatica, si nota come il termine risulti, al contrario, abi-
tuale. «On écrit et on efface des valeurs dans le registre d’une machine»12. E anche
nel periodo storico della musica elettronica di sintesi analogica, erano state sviluppate
forme di notazione molto efficaci che hanno permesso la realizzazione di brani, o la
loro ripresa con altre tecnologie. Pensiamo alle forme di notazione funzionale alla
9 Marco Stroppa scrive che la notazione consiste di «symboles capables de transmettre de la façon la plus
fidèle possible les nuances infinies du jeu musical, décider des dimensions à privilégier et de celles à laisser
davantage imprécises, et faire en sorte que ces choix soient acceptés par une communauté tout entière»,
M. Stroppa, “Un orchestre synthétique: remarques sur une notation personnelle”, Le timbre, métaphore
pour la composition, Jean-Baptiste Barrière (éd.), Paris, Bourgois/IRCAM, 1991, p. 485-538, p. 485.
10 P. Manoury, “La note et le son: un carnet de bord”, in Contrechamps, n. 11, Musiques électroacou-
prassi produttiva istituite allo studio della WDR di Colonia, che ispirarono altre solu-
zioni come ad esempio quelle seguite dai membri del gruppo N.P.S., Nuove Proposte
Sonore, in Italia.
La questione, perciò, è tuttora irrisolta. Non si tratta soltanto di (re)inventare un
sistema di notazione capace di tramandare l’astrazione di un suono strumentale, ma
di espandere queste capacità segniche fino all’esattezza scientifica del suono tecnologi-
co, arrivando per necessità a descrivere parte dello strumentario nella sua costruzione
generale nonché nella sua prassi esecutiva; entrambe nate all’atto stesso di creazio-
ne dell’opera. Forse sarà necessario attendere la risoluzione di un lento processo di
decostruzione, ma nel frattempo la mancanza di un sistema di notazione uniforme
continua a provocare le sue conseguenze; d’altronde, per citare Jean-Jacque Nattiez,
«l’uso di una notazione è possibile solo nell’ambito di pratiche acquisite, e quando esse
cessano di esserlo, le notazioni restano mute»13.
Gli articoli che compongono questo numero della rivista tracciano una panora-
mica della riflessione in atto. Lo scopo non è quello di delineare lo stato della ricerca,
bensì di far emergere i punti di vista di differenti agenti che operano in questo mondo.
Gli autori dei vari contributi, infatti, provengono dalla composizione, dalla musico-
logia, dal mondo dell’editoria, della semiologia, della direzione d’orchestra e dell’ese-
cuzione informatica.
Abbiamo voluto includere in questa nostra scaletta uno scritto già apparso nel
2005, mai tradotto in italiano, che tuttavia ci mette di fronte a un problema allora
urgente e, a maggior ragione, urgente oggi: quello della preservazione e della eseguibi-
lità delle opere di musica elettroacustica (soprattutto laddove il live electronics diventa
centrale). Il contributo di Bernardini e Vidolin14 solleva una serie di questioni tuttora
in sospeso che con la notazione hanno un legame diretto, ma solleva anche questioni
che in parte hanno trovato risposte.
Vale la pena allora di citare qui un intero passaggio tratto da quanto i due autori
ci hanno scritto in fase di redazione/traduzione dell’articolo del 2005. Un passo che
ben si presta ad aprire questo XIII numero (nel quale il nome di Luigi Nono fa da filo
rosso ai primi tre contributi) e che, contemporaneamente, si offre quasi come rifles-
sione/coda e riapertura ad una viva e attualissima questione. Ecco cosa ci scrivono via
e-mail Nicola Bernardini e Alvise Vidolin.
«Sul piano editoriale la partitura di Prometeo15 [di Luigi Nono] è un ottimo esem-
pio di notazione del live electronics che ha risolto la notazione sia dei processi di
13 J.-J.
Nattiez, Musicologia generale e musicologia, Torino EDT (edizione italiana a cura di Rossana
Dalmonte), p. 61 (edizione originale: Musicologie générale et sémiologie, Paris, Christian Bourgois, 1987).
14 Qui alle pp. 9-23.
15 La partitura è stata curata da Marco Mazzolini per Ricordi (si veda il suo contributo all’interno
di questo numero) in occasione della ripresa del Prometeo di Nono nel maggio 2017 al Teatro Farnese di
Parma. Della ricca rassegna stampa, citiamo a titolo di esempio A. Richard, “Nono: Prometeo in Parma.
Interview with André Richard” (del 1 Maggio 2017), Ricordi, 25 maggio 2017, <https://www.ricordi.
com/en-US/News/2017/05/Prometeo-Richard-new-edition.aspx> (04/19).
8 Questo numero. La notazione della musica elettroacustica
elaborazione sia dei vari controlli in dipendenza dai diversi processi di elaborazione
in atto nelle diverse sezioni della partitura. Anche qui, per un approccio maggior-
mente filologico, sarebbe utile pubblicare maggiori dettagli operativi dei dispositivi
utilizzati, come ad esempio la risposta all’impulso dei filtri ed i tempi degli inviluppi
d’ampiezza del vocoder; gli analoghi tempi utilizzati nei GATE delle Isole 3-4-5; un
maggior dettaglio sugli inviluppi dell’Halaphon, ecc. Va comunque evidenziato il fat-
to che Prometeo, pur nella complessità della partitura, utilizza un’elettronica relativa-
mente semplice e codificata, nella maggior parte dei casi tipica dei processi analogici
di elaborazione live electronics: delay, harmonizer, spazializzazione, riverberazione. La
complessità sta soprattutto nel routing dei segnali che coinvolge in maniera estensiva
diversi solisti, alcune parti orchestrali e 12 canali di diffusione del suono. In termini
più generali negli ultimi 14 anni è decisamente aumentata la complessità dell’elet-
tronica grazie all’introduzione di elementi di aiuto all’esecuzione e talvolta di aiuto
alla composizione direttamente nel processo globale del live electronics. La classica
separazione tra strumento e partitura che aveva caratterizzato i primi decenni della
computer music, ha preso contorni sempre più sfumati rendendo progressivamente
più difficile la notazione del live electronics. Questo soprattutto nei casi in cui il com-
positore è anche l’ideatore e il realizzatore della parte informatica, in quanto gli aspetti
compositivi-esecutivi si mescolano strutturalmente alla parte di processing rendendo
difficile qualsiasi forma generalista di notazione. [Ma si può ancora migliorare e si può
soprattutto impostare una riflessione più ampia, dando] un ruolo più serio e defi-
nito [a]lla didattica della musica elettronica, [auspicando] la realizzazione di software
(libero) dedicato a riguardo; [tenendo presente che le] esigenze dei compositori sono
molto varie e con queste cambia anche la necessità/bisogno di notazione della propria
musica: per alcuni basta la conferma che l’idea musicale funzioni e quindi l’autore si
ritiene soddisfatto anche con una sola esecuzione pubblica; per altri, conoscendo la
complessità dell’elettronica, pretendono di essere loro gli esecutori e vincolano a se
stessi la sopravvivenza esecutiva del pezzo; altri ancora si affidano ad un realizzatore/
esecutore professionista il quale ha tutto l’interesse di mantenere il monopolio ese-
cutivo del pezzo e pertanto, se non lo impone l’autore o il suo editore, spesso dietro
compenso, non verrà mai notata la parte elettronica del pezzo. Ed anche in questo
caso, se l’autore non ha competenze specifiche per verificare la completezza della nota-
zione, la partitura potrebbe non essere esaustiva e dipendente dalla tecnologia con cui
è stata realizzata l’elettronica. [...] Bisogna inoltre osservare anche il fatto che la possi-
bilità di registrare e documentare le esecuzioni musicali riduce la necessità per l’autore
di scrivere in termini definitivi. L’idea stessa di composizione ha oggi un significato
diverso da quello dei secoli precedenti, talvolta meno assoluto. Oggi tutto si crea e si
brucia rapidamente. Pertanto molti autori preferiscono fare più composizioni quasi
solo abbozzate, una sorta di work in progress, che scrivere una partitura definitiva che
richiede anni di lavoro e che potrebbe essere bruciata altrettanto rapidamente di un
lavoro sperimentale»16.
1. Introduzione
Acoustic Music”, in Proceedings of the Sound and Music Computing Conference 05, 2005; pubblicato anche in
eContact!. (Online Journal for Electroacoustic Practices), n. 8.3, Montréal: Communauté électroacoustique
canadienne / Canadian Electroacoustic Community. < https://econtact.ca/8_3/bernardini_vidolin.html>
(04/19).
2 Cfr. <http://www.aes.org/technical/documentIndex.cfm#ardl> (04/19).
3 Il termine denso è tratto dai primi studi semiotici [6, p.241 e sec. 3.4.7], [7, III, 3] e [3]. Significa
fondamentalmente che i documenti non sono rappresentazioni simboliche finalizzate ad essere ulterior-
mente interpretate e convertite in un artefatto finale, ma incorporano l’interezza del contenuto in sé stessi.
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 9-23
DOI: 10.13128/music_tec-11159 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
10 La Sostenibilità della Musica Elettroacustica eseguita dal vivo
2. Problemi
La musica elettroacustica eseguita dal vivo è senza dubbio una forma d’arte ad
“alta intensità esecutiva” che può in qualche modo essere assimilata ad altre tipologie
musicali incentrate sull’esecuzione: tra tante, il jazz, la musica popolare oppure le
interpretazioni di grandi solisti sono le prime tipologie che vengono in mente. Queste
possono includere, ad esempio, gli standard jazz eseguiti da un artista straordinario, i
concerti dal vivo di rock-band di successo, le sublimi interpretazioni di opere classiche
di cantanti o musicisti leggendari, ecc. In generale, la conservazione di questi lavori
implica la conservazione dei documenti sonori registrati che li contengono. Anche se
la registrazione non è l’esecuzione vera e propria, la sua riproduzione di alta qualità è
considerata accettabile per la conservazione della memoria.
Il caso della musica elettroacustica eseguita dal vivo è completamente diverso poiché
non si tratta di preservare soltanto una esecuzione memorabile, ma piuttosto la capacità
di eseguire, studiare e reinterpretare l’opera molte altre volte ancora, con esecuzioni
diverse che propongano molteplici interpretazioni. La registrazione della prima (o di
una qualsiasi) esecuzione di un lavoro musicale di musica elettroacustica dal vivo è
invece assolutamente insufficiente e inadeguata per la ri-creazione del lavoro stesso.
Quest’ultimo obiettivo richiederebbe una partitura in grado di fornire le indica-
zioni esecutive necessarie alla ricostruzione completa del pezzo. La notazione sim-
bolica, astratta dalla realizzazione pratica e dai suoi fondamenti tecnologici, diventa
estremamente importante in questi casi. La notazione dovrebbe essere sia descrittiva
che prescrittiva (dovrebbe definire sia il risultato desiderato che il come ottenerlo – de-
scrivendo sempre entrambi in termini indipendenti dai dispositivi utilizzati). Tuttavia,
la musica elettroacustica eseguita dal vivo possiede attualmente, nei casi migliori, con-
venzioni e pratiche semiografiche paragonabili alle tablature medievali. Ciò è dovuto
a diversi fattori, primo fra tutti la disponibilità delle tecnologie di registrazione sonora
che sono state considerate, per anni, come il modo giusto per preservare i dettagli
riguardanti l’esecuzione elettroacustica. Questo errore di valutazione, connesso con:
a) patch di configurazione dell’utente finale che utilizzano tecnologie software e
hardware proprietarie (vedi la Sez. 4.1);
b) uso di formati di file binari e proprietari;
ha portato a enormi perdite di informazioni sulle esecuzioni di molti lavori di mu-
sica elettroacustica eseguita dal vivo. È giunto il momento di pensare alla sostenibilità
di queste opere del passato, presente e futuro.
Inoltre, la rappresentazione della partitura deve resistere al degrado del tempo e
alle rivoluzioni tecnologiche, quindi deve basarsi su standard comuni di livello fonda-
mentale (come ad es. la carta, formati aperti di file audio ampiamente diffusi, unità
metriche standard, ecc.).
3. Soluzioni possibili
Queste considerazioni hanno portato all’ideazione di soluzioni che dovrebbero
essere adottate per qualsiasi partitura di musica elettroacustica eseguita dal vivo e/o
Nicola Bernardini, Alvise Vidolin 11
4. Studi di caso
4 <http://www.ems-synthi.demon.co.uk/emsprods.html#queg> (04/19).
Nicola Bernardini, Alvise Vidolin 13
recupero del contenuto dei dischetti (questo esempio è rilevante perché illustra un caso
lampante di un problema centrale nella conservazione della memoria – il potere delle
comunità contrapposto alla volatilità delle aziende sul medio e lungo termine).
In casi come questo dobbiamo essere molto soddisfatti dell’esistenza di un nastro,
perché fino a quando esisterà quest’ultimo Oktophonie sarà ascoltabile – poi non più.
Una ricostruzione fedele è molto difficile, forse impossibile, poiché mancano alcune
informazioni essenziali.
Questo lavoro è il più significativo che abbiamo potuto trovare sotto diversi aspetti.
a) Oktophonie fornisce una prospettiva temporale sufficiente per mostrare il proble-
ma principale della musica elettroacustica eseguita dal vivo. Tenendo conto delle
dimensioni cronologiche della storia della musica, Oktophonie è un lavoro estre-
mamente recente (datato 1990/1991) – i musicologi lo considerano assolutamente
contemporaneo;
Nicola Bernardini, Alvise Vidolin 15
b) esso mostra chiaramente che le scale temporali delle tecnologie e del software im-
piegati propongono prospettive radicalmente diverse: le tecnologie descritte nella
partitura sono diventate ormai obsolete da numerose generazioni. È difficile trovar-
ne unità disponibili e funzionanti in alcuna parte del mondo. Se la realizzazione
della partitura si basa sulla presenza di queste tecnologie il lavoro è irrimediabil-
mente perso a meno che non sia stata già elaborata una riedizione della partitura di
realizzazione che renda obsoleta la prima edizione.
Quindi, pur riconoscendo a Stockhausen e ai suoi collaboratori un’estrema cura
nella realizzazione della partitura di Oktophonie nel tentativo di fornire tutte le infor-
mazioni necessarie alla ricostruzione del pezzo, la partitura stessa è l’esempio perfetto
di quanto sia complicato il problema della sostenibilità della musica elettroacustica
eseguita dal vivo. Il problema fondamentale è che un riferimento alla tecnologia uti-
lizzata è semplicemente non sufficiente per ricostruire il pezzo.
Tuttavia, Oktophonie non è certamente il lavoro più a rischio. La tendenza attuale
di molti lavori di musica elettroacustica eseguita dal vivo lascia emergere molti esempi
sconcertanti.
Con l’obiettivo di offrire precisione e dettaglio, i compositori producono partitu-
re che includono “la parte di elettronica dal vivo” memorizzata digitalmente (spesso
usando formati proprietari) su supporti vari, utilizzando applicazioni software (spesso
proprietarie) realizzate allo scopo che funzionano su sistemi operativi e hardware effi-
meri. Agli esecutori di musica elettroacustica eseguita dal vivo viene detto che “basta
premere play e tutto inizia”, e questa sembra essere la soluzione definitiva. In realtà
questa si rivela essere la pietra tombale per questi lavori. Basti pensare che numerosi tra
questi lavori siano memorizzati (dati e applicazioni) sui famigerati Iomega Zip Drives
(fuori produzione da decenni) oppure su mastering non industriali di CD-ROM. Per
quanto riguarda i supporti utilizzati, forse questi ultimi potranno durare molto più a
lungo attraverso diverse edizioni compatibili con le versioni precedenti, ma arriveran-
no a 50 o 100 anni? Riusciranno a durare più a lungo di così? In fondo, consideriamo
ancora “recente” il Pierrot Lunaire di Arnold Schönberg, vero?
8 Peraltro,spesso i problemi sono vissuti dal compositore stesso e/o dai suoi assistenti tecnici quando
cercano di riprendere il lavoro diversi anni dopo la prima esecuzione.
16 La Sostenibilità della Musica Elettroacustica eseguita dal vivo
9 Nella partitura ci sono 11 descrizioni simili a quelle mostrate in fig. 3 e un glossario di 27 effetti vocali.
10 In particolare all’Hebbel - Theater di Berlino nel 1999, sotto la direzione del suono di Mark Polscher.
Nicola Bernardini, Alvise Vidolin 17
Dialogue de l’Ombre Double [4] (1984) di Pierre Boulez per clarinetto solista e live–
electronics fornisce un altro esempio di rilievo. L’impostazione elettroacustica prescrive
in questo caso alcuni microfoni speciali per il clarinetto, un riverbero naturale e uno
realizzato attraverso le risonanze di un pianoforte, l’esecuzione di un clarinetto dal
vivo e un clarinetto “ombra” (pre–registrato) che alterna, in un contesto spazializzato,
intermezzi transitori tra gli assoli del clarinetto reale.
Ogni passaggio è notato con linguaggio descrittivo in una introduzione separata
della partitura (un esempio è mostrato in Fig. 5). Livelli e volumi di ciascun elemento
sono espressi in forma proporzionale in decimi (vale a dire 1/10, 2/10, …), i tempi
18 La Sostenibilità della Musica Elettroacustica eseguita dal vivo
Gli ultimi lavori elettroacustici di Luigi Nono sono sempre stati seriamente in
pericolo: le prime partiture derivate dal suo manoscritto erano molto carenti nelle in-
formazioni per ricostruire il lavoro. Queste composizioni potevano essere eseguite solo
da un esiguo gruppo di musicisti scelti e istruiti personalmente da Nono per ciascun
lavoro, e l’elettronica non faceva eccezione.
Fortunatamente, numerosi musicisti e tecnici, in collaborazione con l’Archivio
Luigi Nono, hanno raccolto nel corso degli anni un’ampia gamma di documenti le-
11 Anche in questo caso ci sono molte esecuzioni con diversi solisti e registi del suono.
Nicola Bernardini, Alvise Vidolin 19
gati alla ricostruzione di ogni opera in tutti i suoi dettagli, e quando l’editore BMG-
Ricordi ha deciso di realizzare una nuova edizione per ciascuno di questi lavori, tali
documenti si sono rivelati estremamente utili.
Das Atmende Klarsein [10] (1987) è uno dei primi esempi di questa ardua impresa,
ed è uno degli esempi migliori per la causa della sostenibilità.
Anche qui, la partitura viene fornita con una descrizione dettagliata di ogni elabora-
zione (vedi Fig. 7) assieme ad una notazione grafica per l’esecuzione (cfr. Fig. 8). Inoltre,
l’edizione della partitura licenziata nel 2005 viene proposta con un DVD che contiene:
• un’introduzione storica alla genesi dell’opera;
20 La Sostenibilità della Musica Elettroacustica eseguita dal vivo
temporali della localizzazione del suono pongono ancora grandi sfide a una notazio-
ne simbolica concisa che può essere studiata e acquisita dagli interpreti attraverso la
sola partitura.
5. Conclusioni
Con questo brevissimo excursus, gli autori si augurano di aver sollecitato l’atten-
zione su un problema la cui soluzione è sempre più urgente: quello della sostenibilità
dei lavori di musica elettroacustica eseguita dal vivo.
Sin dalla prima stesura di questo articolo è stato pubblicato almeno un altro saggio
ben informato e documentato dedicato proprio a questo problema (cfr. [12]). Gli
autori del saggio citato forniscono interessanti studi di caso di lavori di ricostruzione
di due opere complesse di Luigi Nono (Quando Stanno Morendo, Diario Polacco n.
2 e Omaggio a György Kurtag). Tuttavia, questi studi si concentrano sulla tecnologia
necessaria oggi per l’esecuzione dei pezzi, non considerando il fatto che una vera ripro-
duzione “infinita” può essere ottenuta solo creando metodi di notazione e trascrizione
adeguati. Essi si affidano a tecnologie e hardware attuali e specifici, limitandosi quindi
a rimandare il problema a uno stadio successivo, forse dieci, venti o trenta anni da
adesso.
Noi ribadiamo fermamente invece che i lavori di musica elettroacustica eseguita
dal vivo potranno godere di migliori possibilità di essere eseguiti in futuro solo se le
loro partiture si baseranno su:
• tecnologie estremamente semplici (carta, inchiostro, unità di misura standard,
ecc.);
• ridondanza delle fonti (diffusione più ampia, forse ottenuta attraverso tecnologie
P2P e licenze d’uso aperte);
• esempi audio e risposte all’impulso isolate, registrati in seguito a codifiche standar-
dizzate su supporti sufficientemente diffusi;
• e infine, ma non per questo meno importante, la presenza di comunità attive di
interpreti disponibili alla cooperazione e sufficientemente coscienziosi nel condivi-
dere e documentare le loro esperienze esecutive.
In particolare, qualsiasi dipendenza da qualsiasi forma di piattaforma informatica
e software dovrebbe essere fortemente evitata nelle partiture.
6. Coda
7. Riferimenti
[1] Battistelli G. (1997) The Cenci – Teatro di musica da Antonin Artaud. Testo di Giorgio
Battistelli e Nick Ward dalla versione inglese di David Parry – Traduzione letterale di
Myriam Ascharki. Milano: Ricordi 137889.
[2] Battistelli G. (2001-2002) The Embalmer – Monodramma Giocoso da Camera, 2001-2002.
Testo di Renzo Rosso. Milano: Ricordi 138935.
[3] Bernardini N. (1989) Musica Elettronica: problemi e prospettive. Tempo Presente 89.
[4] Boulez P. (1984) Dialogue de l’Ombre Double. Wien: Universal UE 18407.
[5] Canazza S., De Poli G., Mian G. A. and Scarpa A. (2002) Comparison of different audio
restoration methods based on frequency and time domains with applications on electronic
music repertoire. Proceedings of the International Computer Music Conference. Goteborg,
Sweden, pp. 104-109.
[6] Eco U. (1975) Trattato di Semiotica Generale. Milano: Bompiani.
[7] Goodman N. (1968) Languages of Art. Bobbs-Merrill.
[8] Lazzarini V. (1998) A proposed design for an audio processing system. Organised Sound
3(1), 77-84.
[9] Lesk M. (1995) Preserving digital objects: Recurrent needs and challenges. Second NPO
Conference on Multimedia Preservation. Brisbane, Australia.
[10] Nono L. (1987: I ed.; 2005: II ed.) Das Atmende Klarsein. Per piccolo coro, flauto basso,
live electronics e nastro magnetico. Milano: Ricordi 139378.
[11] Marcum D. and Friedlander A. (2003) Keepers of the crumbling culture – What digital
preservation can learn from library history. D-Lib Magazine 9(5). <http://www.dlib.org/
dlib/may03/friedlander/05friedlander.html> (02/20).
[12] Polfreman R., Sheppard D. and Dearden I. (2005) Re-Wired: Reworking 20th century
live– electronics for today. Proceedings of the International Computer Music Conference.
Barcelona, Spain, pp. 41-44.
[13] Porck H. J. and Teygeler R. (2000) Preservation science survey: An overview of recent deve-
lopments in research on the conservation of selected analog library and archival materials.
Technical Report ISBN 1-887334-80-7, Council on Library and Information Resources.
[14] Rothenberg J. (1999) Avoiding technological quicksand: Finding a viable technical founda-
tion for digital preservation. Technical Report ISBN 1-887334-63-7, Council on Library
and Information Resources.
[15] Canazza S., Coraddu G., De Poli G. and Mian G. A. (2001) Objective and subjective
comparison of audio restoration methods. Journal of New Music Research 30(1), 93-102.
[16] Stockhausen K. (1990-91) Oktophonie. Electronic Music of Tuesday from LIGHT, sound
projection. Stockhausen Verlag Work n.1 ex.61.
25
La questione della scrittura della musica elettronica si inscrive nel più vasto tema
della creazione e della diffusione di tale tipo di musica. Un tema che attraversa più
soggetti e ambiti, diffrangendosi in una molteplicità di sfaccettature. Compositori,
committenti, realtà produttive (teatri, orchestre, ensemble, festival), centri di studio
e/o produzione (università, istituti di ricerca) vi sono a vario titolo coinvolti. L’editore,
che lungo il tragitto che porta alla pubblicazione di un’opera interloquisce con ciascu-
na di queste realtà, deve ridurre tale nube di prospettive ad una sintesi funzionale al
suo obiettivo primario, che consiste nello sviluppo, nella protezione e nella valorizza-
zione delle opere. Per l’editore, la corretta acquisizione, l’appropriata conservazione
e l’efficace trasmissione dell’opera non possono prescindere da una mediazione tra le
esigenze e gli interessi di tutti i soggetti in gioco.
Tale mediazione viene resa più complessa dal fatto che l’avvento della musica elet-
troacustica ha forzato in più punti alcune categorie fondanti del sistema dell’editoria
musicale, problematizzando i tradizionali concetti di “opera”, “autore”, “originale”,
“strumento”, “interprete” e, nel loro punto d’intersezione, l’idea stessa di “scrittura”.
Per poter esercitare una presa su questa realtà, l’editore ha pertanto dovuto sottoporre
molta parte delle proprie concezioni e delle proprie pratiche (politiche, strutture e
processi produttivi, strategie di sviluppo) ad un ripensamento critico.
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 25-33
DOI: 10.13128/music_tec-11160 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
26 Musica elettronica e scrittura: appunti di un editore
Il mondo della musica elettronica e mista configura una realtà multiforme, com-
plessa ed estremamente dinamica. Per ciò che concerne specificamente la scrittura
– intesa come espressione scritta della parte elettronica in una partitura tradizionale
– l’editore normalmente si trova di fronte a soluzioni variamente situate in un campo
definito, da un lato, dall’asettica istruzione operativa e, dall’altro, dal tentativo mime-
tico di rappresentazione ottica della morfologia acustica. Tali scritture, generalmente
un ibrido fra le due soluzioni, non possono avere lo stesso statuto di una partitura
tradizionalmente intesa, in quanto sprovviste dei necessari requisiti di convenzionali-
tà, universalità e normatività. La loro efficacia è relativa, poiché poggia su sintassi ge-
neriche che sottintendono conoscenze extratestuali e prassi implicite legate a specifici
contesti o persone.
Il grado di sensibilità dei compositori rispetto al tema dell’espressione scritta della
componente elettronica varia da un compositore all’altro, ed è funzione, da un lato,
del tipo di elettronica impiegato e, dall’altro, di circostanze contingenti. Queste ulti-
me favoriscono generalmente la prevalenza di un atteggiamento empirico rispetto ad
un approccio sistematico (che peraltro solo in parte rientra nelle competenze di un
compositore), benché non manchi chi ritiene impossibile, in linea di principio, una
Marco Mazzolini 27
In assenza di riferimenti condivisi, all’editore non resta che recepire tale moltepli-
cità così come gli si presenta, cercando – a sua volta empiricamente – di introdurvi
elementi d’ordine che lo mettano in grado di gestire i processi di sviluppo, protezione
e valorizzazione dell’opera con sufficiente efficacia.
Se infatti, da un lato, l’opera dell’ingegno si individua in quanto tale anche grazie
alla sua singolarità, dall’altro l’esasperazione del dato idiosincratico, specie quando
contagia scritture e prassi, tende ad ostacolarne la diffusione. Non si tratta, qui, di
addomesticare l’idea riducendola ad uno standard, né di negare i diritti della libera
interpretazione, bensì piuttosto di liberare l’opera dai particolarismi che la soffocano,
specie dalla dipendenza esclusiva da persone (autori, interpreti) o tecnologie (har-
dware o software) specifiche. Si tratta di scongiurare il rischio – molto concreto – che
l’intera opera si perda a causa della morte (per illeggibilità o irriproducibilità) di una
sua parte, tanto più che i particolarismi in questione sono spesso scorie di situazioni
contingenti, più che frutti di libere scelte artistiche. Si tratta cioè di individuare le
strategie di conservazione e trasmissione più appropriate ai singoli brani o a specifiche
categorie di brani. Tale azione va esercitata in una duplice dimensione. Sul piano sin-
28 Musica elettronica e scrittura: appunti di un editore
L’edizione delle partiture noniane che prevedono l’impiego del live electronics fu
avviata all’inizio degli anni Novanta, all’indomani della scomparsa di Nono (1924-
1990), con la creazione di un Comitato Editoriale specifico e la collaborazione della
vedova del compositore, Nuria Schoenberg (che nello stesso periodo, a Venezia, stava
dando vita all’Archivio Nono).
La conduzione del Comitato venne affidata ad André Richard – compositore, di-
rettore di coro, già direttore dell’Experimentalstudio des SWR (Freiburg im Breisgau)
e storico collaboratore di Nono – affiancato dal sottoscritto, all’epoca redattore ne-
oassunto. Suo obiettivo principale è corredare le partiture delle informazioni con-
cernenti la regia del suono e delle indicazioni relative ad aspetti peculiari della prassi
esecutiva vocale e strumentale (strettamente collegate, peraltro, al trattamento elet-
troacustico del suono), in modo da rendere i brani eseguibili da qualsiasi interprete
adeguatamente preparato ed equipaggiato. Le partiture con live electronics sono state
pubblicate quasi tutte: al momento sono in lavorazione Prometeo. Tragedia dell’ascolto
Marco Mazzolini 29
(1981-1985) (di prossima pubblicazione) e Guai ai gelidi mostri (1983), dopo le quali
è previsto un intervento su 1° Caminantes…Ayacucho (1986-1987).
Le opere che Nono compose nell’ultimo decennio della sua vita – quelle appunto
che prevedono l’impiego del live electronics – presentano specifiche problematiche
editoriali, che procedono direttamente dalla peculiare concezione del suono (e della
sua composizione) maturata da Nono nel corso della sua vicenda artistica. Com’è
noto, tale concezione comportava l’impiego di tecnologie estremamente avanzate e la
stretta interazione con una cerchia di collaboratori fissi (interpreti e tecnici del suono)
presso l’Experimentalstudio della SWR di Friburgo. Ne consegue che la partitura con-
segnata da Nono all’editore (si sta parlando, ovviamente, delle sole partiture con live
electronics) appare per molti aspetti ellittica, o per l’assenza di indicazioni necessarie
all’esecuzione, o per il carattere gergale-iniziatico con cui esse vengono espresse, frutto
del regime di oralità secondaria che vigeva nell’ambiente di lavoro sperimentale in stu-
dio. In particolare, le indicazioni relative all’elettronica sono generalmente sporadiche,
appena accennate, quando non fuorvianti (perché spesso riflettono fasi primitive della
composizione, poi superate). In una prospettiva strettamente editoriale, le conseguen-
ze di tale situazione sono essenzialmente due. In primo luogo, il testo è depositato in
più fonti (la partitura e le parti staccate degli interpreti che lavorarono con Nono, i
protocolli di lavoro dell’Experimentalstudio), e dunque per costituire una partitura
completa occorre recuperare e vagliare criticamente ciascuna di esse, consultando in-
terpreti vocali, strumentali ed “elettronici” in cerca di documentazioni scritte e orali
relative alla prassi interpretativa. In secondo luogo, si pone l’esigenza di completare e
rendere esplicito ed ecumenico il codice vigente all’interno delle partiture e destinato
agli interpreti della “bottega”.
Per quanto concerne strettamente il piano della scrittura dell’elettronica, pertanto,
nell’impostare l’edizione di queste partiture ci si è sforzati di elaborare un codice semi-
ografico abbastanza coerente ed espressivo da scongiurare equivoci stilistici e al tempo
stesso abbastanza aperto e flessibile da consentire l’esercizio della libertà interpretativa;
abbastanza specifico da orientare una programmazione precisa e abbastanza astratto
da poter essere calato in un contesto tecnologico in costante evoluzione, riflettendo al
contempo la configurazione degli apparati originali (in alcuni casi descritti nelle loro
caratteristiche, quando legate a particolari soluzioni musicali). Nel caso di lavori parti-
colarmente complessi, come Prometeo, la maneggevolezza e l’adattabilità del codice ci
hanno consentito di elaborare, per ciascuna sezione dell’opera, una variante scrittoria
peculiare, ossia la soluzione grafica più appropriata al tipo di trattamento elettroacu-
stico impiegato e alle caratteristiche specifiche della sezione stessa.
L’espressione grafica presume nell’interprete alla regia del suono un certo know
how, sia in relazione a certi aspetti descrittivi, come le sintesi dei collegamenti micro-
fonici e della struttura dei programmi, sia riguardo alle procedure di realizzazione e di
gestione operativa di questi ultimi. La scrittura dell’elettronica si vale di una sintassi
semplice, operativa: è notata su un diagramma posto in partitura al margine inferiore
della pagina (sotto l’organico vocale-strumentale) e divisa in due parti. In una sono
indicati i collegamenti attivi, gli altoparlanti coinvolti e i parametri di regolazione,
nell’altra (contraddistinta dalle indicazioni per i potenziometri e dalla presenza del-
30 Musica elettronica e scrittura: appunti di un editore
Figura 1. Prometeo. Tragedia dell’ascolto, edizione a cura di André Richard e Marco Mazzolini:
schema del Programma 18 (© Copyright by CASA RICORDI - S.r.l., per gentile concessione).
Figura 2. Prometeo. Tragedia dell’ascolto, edizione a cura di André Richard e Marco Mazzolini,
p. 40, parte inferiore (© Copyright by CASA RICORDI - S.r.l., per gentile concessione).
32 Musica elettronica e scrittura: appunti di un editore
Figura 3. Risonanze erranti. Liederzyklus a Massimo Cacciari, edizione a cura di André Richard
e Marco Mazzolini, p. 17 (© Copyright by CASA RICORDI - S.r.l., per gentile concessione).
è stato possibile allegare un DVD con video esplicativi delle Avvertenze per l’ese-
cuzione.
Quale è il suo punto di vista riguardo al ruolo della tecnologia nelle esecuzioni musicali?
È un ruolo sempre più essenziale che ovviamente è molto legato al repertorio. Se
ci riferiamo alla cosiddetta musica contemporanea colta, abbiamo un versante storico,
dagli anni 50 in poi, e uno attuale, quello della performance elettroacustica nel senso
più ampio del termine.
Per esempio, ora sto lavorando qui a Cagliari a una produzione lirica dove è previ-
sto un dittico2 con Sancta Susanna di Hindemith che è un’opera dell’inizio degli anni
Venti, lo stesso anno del Wozzeck. In essa Hindemith scrive delle didascalie con indica-
zioni di rumori e di suoni della natura (vento, stormire di foglie, canti di uccelli, etc.)
che all’epoca non potevano certo essere realizzati in modo acusticamente soddisfacente
e che comunque segnano una fase di passaggio tra l’opera lirica e il cinema.
Questo mi sembra importante perché oggi si possono realizzare quei suoni con
nuove tecnologie, appunto: non solo restaurare opere del passato con mezzi elettroa-
custici, dunque, ma rileggerle e renderle con una maggiore autenticità, renderle cioè
più tangibili. Tale aspetto riguarda anche l’apporto della tecnologia nella musica clas-
sica, non soltanto in quella di ricerca o sperimentale. Mi sembra un dato che va inteso
in maniera molto ampia, sia nel repertorio classico che in quello della ricerca attuale.
Sin dagli esordi del secolo scorso era già chiaramente presente la volontà di includere il
mezzo tecnologico nelle esecuzioni musicali, per riprodurre determinati materiali sonori.
Penso ad esempio a I Pini di Roma di Ottorino Respighi, dove l’autore chiede la ripro-
duzione di elementi sonori figurativi come il canto di uccelli. Sta quindi riconducendo a
queste esigenze il ruolo della tecnologia?
Esattamente, è il sintomo di un passaggio tra quello che sarà poi il mondo tecno-
logico e un mondo in via di estinzione. Pensiamo anche al Puccini della Fanciulla del
West, per esempio, dove sono presenti rumori di vento, spari, tutti elementi di film e
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 35-42
DOI: 10.13128/music_tec-11161 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
36 Tra il segno e il suono: intervista a Marco Angius
musica che sono il segno di una fase storica, comunque inevitabile, che va studiata e
compresa a fondo. Abbiamo avuto numerosi esempi di questa interazione nel corso
del Novecento, anche di un uso drammaturgico della tecnologia e non soltanto di
ricerca sul suono in senso astratto.
In che modo cambia il suo lavoro di direttore nell’interazione con il mezzo tecnologico?
Quando l’apporto tecnologico è previsto espressamente dalla partitura, cioè dal
compositore, il mio lavoro con la regia del suono è assolutamente determinante. Non
riguarda soltanto una realizzazione tecnica della partitura ma costituisce anche uno
stimolo come interprete a sviluppare delle idee che influenzino le scelte musicali. Ci
sono ad esempio delle partiture del recente passato che hanno utilizzato la tecnologia
del live electronics, della trasformazione del suono in tempo reale; siccome questa tra-
sformazione è parzialmente controllata e parzialmente aleatoria, non si sta parlando
di qualcosa di tecnologicamente prefabbricato rispetto all’esperienza dell’ascolto e del
fare musica, quanto piuttosto di un esito sempre nuovo e sorprendente.
Per cui, il mio lavoro con coloro che si occupano della regia del suono è essenziale
per due motivi: da un lato rafforza la lettura interpretativa, dall’altro mi fornisce delle
idee e dei punti di vista che altrimenti non avrei con la sola lettura musicale di routine.
Anche quando devo interpretare un lavoro del passato che è entrato in repertorio, il
mio interesse sussiste se posso darne una nuova lettura; la replica di un passato che
ormai non esiste è relativamente interessante a mio avviso.
Quindi possiamo dire che la tecnologia rende più mobile e ampio il suo terreno?
Sì, lo rende più ricco, visibile e sotto una luce inaspettata. Nelle tante volte che mi
è capitato di lavorare con esperti elettroacustici, posso dire che è un modo di far in-
contrare due mondi paralleli, quello acustico e quello elettroacustico, quello musicale
e quello tecnologico. La cosa più interessante e più ambiziosa è metterli in relazione,
cioè mostrare ciò che hanno di simile o di diverso ma comunque collegarli; questo
collegamento presuppone che da una parte e dall’altra ci sia la volontà di esplorare e
arricchirsi di altre competenze.
Quali sono le problematiche che entrano in gioco nell’utilizzo dello strumentario elet-
tronico?
Sono problematiche che riguardano lo spazio e il tempo. Riguardano lo spazio in
quanto il posizionamento degli altoparlanti e quello della regia del suono presuppon-
gono una trasformazione dello spazio in corso – a differenza dell’acustica oggettiva – e
questo è un problema cruciale. L’influenza di uno spazio acustico può essere enorme
o relativa. Quando uno spazio viene trasformato con l’apporto dell’elettronica ciò che
cambia non è soltanto il punto di vista di chi suona ma soprattutto quello di chi ascolta
e questo ha a che fare con le sorgenti sonore e con il movimento del suono nello spazio.
Dall’altra parte ha anche a che fare con il tempo perché l’acustica cambia e influen-
za i tempi di esecuzione e quindi cambia sostanzialmente il profilo di un brano. Se
ci troviamo in una chiesa, ad esempio, abbiamo un’acustica che impone determinati
tempi di esecuzione. Sto imparando ad apprezzare di più l’acustica confusa delle chie-
Stefano Alessandretti 37
se. Chiaramente la presenza di una regia del suono implica che il modo di percepire
l’esperienza d’ascolto venga influenzato o cambiato in maniera anche radicale da chi
gestisce la regia del suono…
Nell’arco della sua carriera, e parallelamente ad essa, crede che il ruolo della tecnologia
si sia evoluto e, casomai, in quale modo?
Non credo molto nel concetto di evoluzione applicato all’arte e alla musica perché
all’evoluzione dei mezzi tecnologici non è detto che corrisponda un’evoluzione del
gusto e della qualità artistica. Ma questa è una mia opinione personale che potrebbe
cambiare nel tempo perché appunto siamo noi a cambiare rispetto alla stessa musica.
In altre parole il termine evoluzione nell’arte non è così univoco e credo che ogni
interprete cerchi se stesso nell’esperienza musicale: altro che oggettività e rispetto del
testo! Sono posizioni apparentemente rigorose di chi non ha molto da aggiungere al
discorso musicale e prende le distanze dall’opera come entità organica e mutante.
Nel frattempo i mezzi tecnologici si sono affinati molto ma questo non ha a che
fare tanto con il risultato artistico.
Sulla base di quello che suggerisce possiamo però affermare che questa frantumazione
sia determinata dal fatto che la trasformazione tecnologica non è andata di pari passo con
quella dell’ascolto, giusto?
Assolutamente, questo è il nodo cruciale. C’è una tecnologia che si trasforma e
c’è un ascolto che non va alla stessa velocità: questo gap determina delle implicazioni
– anche dei conflitti o delle differenze – che vanno ricondotte a dei quesiti: che cosa
vuole l’uomo oggi? Che cosa vuole ascoltare?
La trasformazione dell’uso e anche del consumo (usiamo questa parola piuttosto
sgradevole!) della musica, è diventata decisamente soggettiva. Essa rimane un feno-
meno di massa ma è diventata anche di consumo personale; questo comporta delle
trasformazioni che secondo me riguardano più la società che la tecnologia in senso
stretto, anche perché alcune sono fuori controllo e difficili da censire o da immaginare
negli esiti.
In relazione alla figura del direttore, come descriverebbe il ruolo dell’esecutore infor-
matico o del regista del suono? Che tipo di rapporti si instaurano tra queste due figure
professionali così differenti, almeno in apparenza?
38 Tra il segno e il suono: intervista a Marco Angius
Posso rispondere nel mio caso specifico. Quando devo realizzare un’opera di teatro
musicale o un’opera elettroacustica collaboro con la regia del suono e questa collabo-
razione parte dal dato musicale per espanderlo in senso elettroacustico. Quindi chiedo
esplicitamente delle soluzioni e chi fa la regia del suono me le offre con una possibilità
di scelta abbastanza ampia. Direi perciò di trovarmi nella posizione decisamente pri-
vilegiata in cui posso arricchire l’ascolto usufruendo di un apporto tecnologico che la
partitura in sé non avrebbe.
Per esempio, mi è capitato l’anno scorso a Bologna3, con la Medea di Pascal
Dusapin, un’opera che tra l’altro ha vinto il premio Abbiati 2018: la messa in scena
prevedeva un apporto elettroacustico di tipo piuttosto tradizionale – delle registrazio-
ni di suoni diffusi tramite altoparlanti – che però sviluppava all’interno un ibrido tra
strumenti antichi (c’era anche un ensemble barocco) e mezzi tecnologici. C’era cioè
una visione trasversale che io reputo molto importante. Il trattamento elettroacustico
ha riguardato anche la voce fuori scena di Giasone, ma si è trattato solo di una mia
scelta di trasformarla in modo surreale rispondendo a una suggestione compositiva. In
qualche modo abbiamo una dimensione archeologica di ascolto acustico e una dimen-
sione attuale di ascolto elettroacustico. Entrambe sono possibili ma fare a meno dell’e-
lettroacustica significa utilizzare lo spazio in maniera elementare e in questo senso far
finta che non ci sia stato un percorso storico. Questo dal mio punto di vista è ormai
una dimensione di cui non si può fare a meno, come tanti aspetti della tecnologia.
Quindi, la collaborazione con chi si occupa della regia del suono, in questo caso, è
quella di rendere reali delle idee musicali che altrimenti rimarrebbero tali.
Trova che ci siano delle lacune o dei limiti oggettivi, dovuti all’inadeguatezza del siste-
ma o del mezzo di notazione? Cioè, crede sia necessario apportare delle modifiche al mezzo
di notazione o che siano stati raggiunti dei limiti oggettivamente invalicabili?
Sì questi limiti sono anche presenti ma questa domanda può essere posta anche su
un altro piano, cioè nella scissione tra ciò che si ascolta e ciò che si osserva. La scissio-
ne tra segno e suono è iniziata nel 1912 con Schönberg, quando nel Pierrot Lunaire
inserisce una X su ogni nota; a quel punto la notazione non corrisponde più all’altez-
za che viene ascoltata, perché lo Sprechgesang presuppone un’intonazione svincolata
dal segno. Diciamo pure che le vicende musicali del Novecento hanno messo questo
aspetto al centro di una specifica e tormentata ricerca.
Per me questa problematica è abbastanza decisiva, perché in fondo i sistemi di
notazione vogliono rendere assoluti e precisi i suoni, mentre noi sappiamo benissimo
che la realtà dell’ascolto e la realtà del suono sono mutevoli, sfuggenti, ineffabili, cioè
non è possibile ridurle a una funzione assoluta.
Se ci chiediamo se in questi anni la notazione elettroacustica abbia avuto un pro-
cesso di miglioramento, di maggiore messa a fuoco, direi sicuramente di sì. Però se-
condo me il problema resta aperto: ciò che noi ascoltiamo, la musica stessa, non si può
ridurre a mera funzione informatica.
Penso ad esempio a Kontakte di Stockhausen, dove il compositore realizza anche la
partitura elettroacustica che serve da guida per l’esecutore; sono mondi che vengono
accostati, messi insieme, ma appartenenti a dimensioni nettamente distinte.
4 N. Bernardini, A. Vidolin, Sustainable live electro-acoustic music, in: Proceedings of the Sound and
Music Computing Conference, Salerno, 2005. Qui tradotto in italiano alle pp. 9-23.
40 Tra il segno e il suono: intervista a Marco Angius
la necessità di rispettare quella che era l’origine della partitura, scritta con una tecnolo-
gia anni Ottanta, dall’altro quella di utilizzare questa stessa tecnologia trent’anni dopo.
Questo pone degli aspetti interpretativi non indifferenti. Alvise Vidolin era presente e ha
vissuto in prima persona l’epoca di Nono, della ‘tragedia dell’ascolto’ e dei mezzi tecno-
logici di allora ma fortunatamente non ne subisce il fascino nostalgico; oggi, rispetto a
quell’esperienza, come ci poniamo? In senso archeologico o di rinnovamento?
Chiaramente non vogliamo passare tutta la vita ad ascoltare la musica nello stesso
modo, quindi è chiaro che ci sia questa esigenza di rinnovare e trasformare quello
che abbiamo ascoltato in un’ottica passata (Adorno parlava già di “invecchiamento
della musica moderna”5). Quello che si guadagna, dal mio punto di vista, è nel tipo
di apprendimento della musica piuttosto che nel miglioramento del risultato, perché
i risultati sono sempre imprevedibili. Mi sono sempre chiesto che cosa avrebbe pen-
sato Nono nell’ascoltare il Prometeo al Teatro Farnese (con le orchestre distanti fino a
ottanta metri l’una dall’altra) e che cosa ci sia di più utopistico di questo… e quanto
però la tecnologia entra in gioco in tutto questo. Tra qualche settimana uscirà il disco
di quella esperienza in formato surround 5.1.6
Colgo la palla al balzo proprio sul Prometeo, riagganciandomi alle questioni trattate
finora; crede che la nuova edizione abbia aggiunto della chiarezza alla partitura originale
e casomai in che modo?
È una domanda che riguarda il Prometeo ma anche tante altre partiture, ovvero la
pubblicazione dell’edizione critica con finalità di restauro conservativo dell’opera che,
nel caso di Nono, è quasi una contraddizione in termini. Come interprete ho comun-
que sempre cercato di documentarmi e trovare un dialogo fertile con la musicologia,
nella consapevolezza che si tratta di ambiti ben distinti che non devono invadersi re-
ciprocamente. Fino all’Ottocento solo un compositore poteva occuparsi dell’edizione
critica di un altro compositore e il rapporto stesso tra interprete e compositore era
diverso (proprio Nono cita il caso Joachim-Brahms).
Com’è noto, la generazione di Nono era quella di compositori che credevano nella
irripetibilità dell’esperienza musicale come fenomeno artistico. In particolare, la tec-
nologia di allora era destinata alla distruzione perché i nastri magnetici deteriorano e
perché la tecnologia stessa usata da Nono spesso non era affidata al segno scritto ma a
una prassi esecutiva intuitiva condivisa con un gruppo di sodali. Questo aspetto non
riguarda solo la musica ma qualsiasi trasmissione del pensiero umano attraverso un si-
stema di segni. Trovo, d’altra parte, che la libertà e la fantasia delle scelte interpretative
sia fondamentale di fronte a qualsiasi opera e non possa essere dettata da un apparato
critico di istruzioni per l’uso in calce alla partitura.
Le prime esecuzioni del Prometeo hanno avuto un valore storico e documentario
eccezionale di cui si conservano le annotazioni sulle parti solistiche che sono state
5 Adorno T.W., Dissonanzen, Musik in der verwalteten Welt, Göttingen, Vandenhoeck & Ruprecht,
1958, ed. it.: Adorno T.W., Dissonanze (tr. G. Manzoni), Milano, Feltrinelli, 1959 [N.d.R.].
6 La produzione per l’editore Stradivarius prevede il doppio supporto, CD e SACD; quest’ultimo
Reproduzierbarkeit, in: Zeitschrift für Sozialforschung, Paris, 1936, poi in: Das Kunstwerk im Zeitalter seiner
technischen Reproduzierbarkeit, Frankfurt, Suhrkamp Verlag, 1955, tr. it.: Walter Benjamin, L’opera d’arte
nell’epoca della sua riproducibilità tecnica, (tr. E. Filippini), Torino, Einaudi, 1966 [N.d.R.].
42 Tra il segno e il suono: intervista a Marco Angius
Agganciandomi al suo ragionamento, trova che l’interesse per il teatro sonoro possa
essere anche riconducibile al desiderio di ‘deacusmatizzare’ l’elettroacustica?
Si, credo che sia collegato. Quest’anno a Padova ho intitolato la stagione Teatri del
suono9, non solo in senso acustico ma anche elettroacustico. Proprio in questo periodo
si stanno svolgendo le ‘Lezioni di suono’ con Giorgio Battistelli e la prossima lezio-
ne, quella del 9 maggio, avrà la regia di Bernardini e Vidolin per I Cenci di Artaud,
un dramma degli anni ‘30 sul teatro della crudeltà in cui alcuni effetti sonori (anche
questo è un passaggio tra teatro e cinema in fondo) erano pensati proprio in senso
drammaturgico: andare a teatro era come vedere gli eventi della vita in maniera più
traumatica, profonda e completa.
Valorizzare la componente elettroacustica nell’opera di teatro, quindi, nell’incon-
tro con la scena e il testo, non soltanto in senso di ambientazione (come può avvenire
nelle musiche di scena) ma come elemento in cui il suono diventa un elemento dram-
maturgico, cioè diventa un protagonista della vicenda.
Per concludere l’intervista, quali suggerimenti si sente di dare alle nuove generazioni di
direttori e/o compositori che intendono lavorare con l’ausilio del mezzo tecnologico?
Ai compositori di essere interpreti e ai direttori di essere compositori, cioè di pun-
tare alla sintesi di cui parlavamo prima. Queste due dimensioni sono molto importan-
ti e riguardano anche delle competenze specifiche.
La partitura non è l’opera, ma il piano di realizzazione di essa, una porta d’accesso
decisiva: l’opera vive soltanto nell’attimo in cui viene eseguita, tornando poi ad ac-
cucciarsi nella sua silente partitura. Il compositore non deve porsi il problema di chi
ascolterà l’opera – nel senso di destinazione della sua composizione – perché questa,
una volta pubblicata, avrà una sua vita e una sua storia indipendenti dalla sua volontà.
Notating electronics
Carl Faia, Brunel University, London
One early morning in January of 1985, I drove down from Santa Barbara to Los
Angeles to hear a concert with the Los Angeles Philharmonic. After the preconcert
talk with Toru Takemitsu and Nicolas Slonimsky, I detoured to the bathroom before
heading into the hall to find my seat. Somewhere between washing my hands and
exiting the toilets, I was accosted by a well-dressed gentleman of a certain age, fluffy
grey beard, plaid sports coat (elbow patches) and a rather gentle but persistent de-
meanour. He wanted to know if I was a musician. I said I was studying composition,
and his eyes began to twinkle. He opened the manilla envelope he had been carrying
and proceeded to explain to me the new notation system he had created. There were
many papers with diagrams and what seemed to be variations on the notation system
we typically think of when we talk about music notation from the western civilisation.
Yet it was slightly, somehow, different. As this was LA and being accosted by strangers
for all sorts of things is a common activity, I extrapolated myself with a promise to
contact him when I had more time. This never happened, but I did bring the news of a
new notation system to my professor, thinking that I may have chanced upon the next
great advancement in music. «Quack», was my teacher’s considered reply.
I had walked head on into the unruly garden of music notation that has been culti-
vated for centuries. Music notation contains so many contradictory historical develop-
ments, as well as political, religious and self-serving campaigns that it resembles more
1 Igor Stravinsky and Robert Craft, Conversations with Igor Stravinsky, (New York: Doubleday Garden
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 43-65
DOI: 10.13128/music_tec-11162 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
44 Notating electronics
a free-for-all bazaar rather than a highly codified system of symbolic representation for
music. There is a reason why we need books like Gardner Read’s, Musical Notation:
a Manual of Modern Practice, in which the author, citing too many examples of the
‘notational nightmare’ kind, proposes a book to be used as a «tool to make effective
and accurate notation more accessible»2.
As a young composer, I made good use of Read’s book and sought out other
guides. There are many books available to provide «some insight into the present
meaning of a goodly number of terms» and help «see more clearly why certain terms
have the meaning which at present attaches to them»3. Kurt Stone’s work on modern
notation covers a wide range of styles and techniques and includes pedagogical meth-
ods, historical information and acts as a handbook for practitioners. Music Notation
in the Twentieth Century: A Practical Guidebook responded to the current problems
and solutions being proposed to remedy the limitations of notation by examining
«the new inventions for clarity and efficiency in practical use, select the devices that
appeared most universally satisfactory, eliminate duplications, and codify the results
in a practical guidebook»4. Moreover, Stone would propose and direct the Index of
New Musical Notation, in turn leading to an international conference organised in
1974 to codify and agree upon new notion practises. Arguably less dramatic than the
Council of Trent and its influence on plainchant5, it would be a precursor to oth-
er such activities including the Music Notation Modernization Association6, focused
on all aspects of music notation and engraving, and the more recent International
Conference on Technologies for Music Notation and Representation (TENOR)7 held
every year since 2015.
Yet, with such a rich history and all the available sources and resources, arguably
little has changed, really, from the moment the music staff came into use in the 9th
century8. John Haines does a wonderful job in researching the source of the staff (re-
lieving Guido d’Arezzo of that claim to fame in the process).
Who can blame music historians for frequently claiming that Guido of Arezzo in-
vented the musical staff? Given the medieval period’s unmanageable length, it must of-
ten be reduced to as streamlined a shape as possible, with some select significant heroes
along the way to push ahead the plot of musical progress: Gregory invented chant; the
2 Gardner Read, Music Notation: A Manual of Modern Practice (New York: Crescendo, 1979), v.
3 Karl Wilson Gehrkens, Music Notation and Terminology (New York: The A. S. Barnes Company,
1914), iii.
4 Kurt Stone, Music Notation in the Twentieth Century, A Practical Guidebook, (W. W. Norton &
<http://tenor-conference.org/> (03/19).
8 Raymond Erickson, Musica Enchiriadis, Scolica Enchiriadis, vol. 1, Musica Enchiriadis, Scolica
There are many revered and essential writings on music throughout recorded history.
Through all these treatises and counter treatises, from the pedagogical Guido d’Arezzo,
Micrologus (c. 1026), to the modernist Nicola Vicentino, L’antica musica ridotta alla
moderna prattica (1555), to veneered theorist Gioseffo Zarlino, Le istitutioni harmoniche
(1558), and the rebuttal of Vincenzo Galilei, Dialogo di Vincentio Galilei ... della musica
antica, et della moderna (1591), as well as the mathematic certainty of Marin Mersenne,
Harmonie universelle (1636-1637), we see the development of musical thought growing
through speculative theory, scientific experimentation, and performance practice.
A gross generalisation follows: all these ancient texts bow in the direction of the
Greeks and Boethius (c. 477-524 AD) and the philosopher’s De institutione musica,
yet they all use the same musical staff, more or less, with the same way of notating
pitch, more or less, and rhythm, more or less. There is generally much quibbling about
harmony, the classification of genera, tetrachords and tunings, the representation of
commas, the correct use of modes, and methods for pedagogy, with assorted detours
into new notation practises. The approach to change, in spite of the polemics, is incre-
mental and subject to being quickly forgotten if not practical.
It is important to recall this background because the notation of electronic music,
I believe, fits into this evolutionary lineage. Regardless of the many varied develop-
ments around the fundamental elements of music, the flexibility of the music staff to
bend to any (ab)use is a strong recommendation to the continued use of it for notating
electronics. There is a mass of writing from composer Nicolas Slonimsky defining and
describing the craft of music. He warns us, with a paper presented in 1938, of using
personal systems and the obligatory process of adding to the canon:
The establishment of a new usage is very often signalized by the impossibility of account-
ing for it except by an exceedingly artificial method. When this happens, it is well to draw a
working hypothesis from repeated occurrences in the past, and then apply it to new ones10.
There are many histories of music notation available today, and it is useful, in this
context, to have a look back at these from time to time for inspiration and caution. In
the 1903 work, The Story of Notation, C. F. ABDY Williams provides deep background
and starts out the book with an «outline of the history of the representation of musical
sound in writing» from the Greeks through to the birth of harmony. In Chapter V, we
learn of the origins for the staff with graphic examples showing a family resemblance
to the one we use today. Figure 111 is the staff as it was being used in the 9th century,
9 John Haines, ‘The Origins of the Musical Staff’, The Musical Quarterly 91, no. 3–4 (2009): 327-78, 327.
10 Nicolas Slonimsky, ‘The Plurality of Melodic and Harmonic Systems’, Papers Read by Members of
the American Musicological Society at the Annual Meeting, 1938, 16-24, 16.
11 Charles Francis Abdy Williams, The Story of Notation (London: The Walter Scott Publishing Co.,
Figure 1. Page 66 from The Story of Notation. Figure 2. Page 68 from The Story of Notation.
and Figure 212, from the same period, shows a notation technique probably not unfa-
miliar with composers using graphic notation today. The book is worth a read if only
for the breezy way the author places, and displaces, some of the more iconic move-
ments in music history and his frank portrayal of national clichés and a breakdown of
some of the more ephemeral developments of notation. Of particular interest for this
article, however, is the discussion in Chapter XII: «The Attempt to Invent New Forms
of Notation, and to Reform the Old» of which a short excerpt follows.
If the shelves of the various libraries of Europe were searched, it would probably
be found that for some centuries a new notation has appeared about every three or
four years, each of which is called by its author ‘The’ new notation, for he fondly
thinks that it will become universal. A notation is like a language; it does not sud-
denly appear, as the result of the efforts of some mighty genius. It is the result of the
united efforts of generations of musicians endeavouring to express their melodies in
such a way as to make them understood by their fellow-musicians… Any improve-
ments in a universally accepted notation come very slowly, not as result of one man’s
inspiration, but by a consensus of opinion that such and such a detail requires to be,
and can be, improved13.
One final note for this very brief introduction: the importance of the copyist’s
influence and the process of editing and publishing to musical notation should not be
underestimated. The work of the copyist monk is of such intricate beauty that it might
be forgotten that the marks on the page embody what is, for the most part, the most
disembodied of arts: invisible waves in the air. Beyond the philosophical and scientific
implications of this, there is a truly practical aspect that depends on the talent and
craft of the copyist, the monk in the monastery or, in modern times, the engraver at
Fabers, as well as the technology employed for the job at hand. As mentioned above,
John Haines describes a very practical reason for the development of the staff, while
other writers provide background to our inherited symbols. In Histroire d’une ligne
de musique (1914), the Abbot N. Joachim presents ten colour plates with pedagogi-
cal and historical descriptions for a class taught at the seminary in Tournai, France.
Beautiful reproductions on their own, the graphics on Plate 6 in Figure 314 shows a
table of common symbols and their transformations through usage over time from the
10th through the 16th centuries: an early example of what might be the grand staff,
the origins of the note names used in solfège, and two examples to practise the correct
usage of the B natural and B flat in a melody. Of the table of symbols at the top of the
plate, the Abbot reminds us that the only way to understand the common signs in use
today is to trace their transformation in the hands of the copyists over the centuries15.
I became musically literate following the same methods dating back to the 10th
century. Learning FACE (spaces in the treble clef ) and «Every Good Boy Does Fine»
(lines on the treble clef … it was another epoch) would be familiar to Guido and his
students as a method to memorise the elements musical representation. As a com-
poser, I would seek out experimental works and more radical approaches to notation.
Yet, as far away as a composer might appear to stray from the staff, radical approaches
by very different composers’ works such as Cornelius Cardew’s Treatise (1963-1967)
and Krzysztof Penderecki’s Threnody to the Victims of Hiroshima (1960) tend to revert
to the mean, and we see, in the score itself, more than the remnants of the good old
traditional music staff. It’s a good, sturdy system.
It was written on graph and used numbers and that was the piece, of course, and
that was the way to read it, but with the exigencies of rehearsals… I translated it into
14 Joachim, Abbé N., Histoire d’une Ligne de Musique, Ou Aperçu Historique Sur l’evolution de La
Notation Musicale En Occident (Tournai, France: Self Published, 1914), plate VI.
15 Joachim, Abbé N., Histoire d’une Ligne de Musique, Ou Aperçu Historique Sur l’evolution de La
something conventional with quarter notes … which was not what the piece was, but
which permitted the musicians to quickly play it, where the numbers meant they would
have had to devote themselves, in a way they actually didn’t have the time or inclination
to do16.
Cage goes on to describe other instances of this need to translate graphic scores, and
there is a fascinating discussion between the two on the use of notation, new notation,
the meaning of notation and the frustration with notation. This points out the very
different problems we run into as creators, performers and teachers. Feldman, at that
time, was using graph paper and various systems for composing. Even if Cage defends
the graphic score and the composer’s wish to coerce the performer to interpret the
score in situ, he also accepts the practical reality of the situation: musicians read music,
not graphs. My experience has been that musicians, when asked to interpret a graphic
16 Morton Feldman and John Cage, John Cage and Morton Feldman In Conversation, Radio Happening
V of V Recorded at WBAI, New York City, 1966 - 1967 (WBAI, 1967), 30:00, <http://archive.org/details/
CageFeldman5> (03/19).
Carl Faia 49
score, will either write out their interpretation (if they are classically trained) or play ‘as
written’ in the graphic score (if they are improvisers). Neither response is necessarily
ideal. Writing everything out might detract from the intended poetic ambiguity of the
score, while pure improvisation may favour more the superficial solution.
Music being music, it does not require a score to exist, of course. Feldman avoids
traditional notation (as does Cage, for that matter, in a number of his own works), yet
requires it for musicians to perform his music… and returns to more traditional nota-
tion in his later works. One might see traditional notation as a constraint and compos-
ers avoid it for the sake of freedom. For the creative process, this might work, but is
less useful for the practicalities of performance. We need a score to pass our music on
to others, for pedagogy, as well as to create. We need the score for notating electronics
for the same reasons: creating, performing, and learning.
The addition of another source of sound in a score should be notated in the same
way that any instrument is notated. While the sound of the electronics might appear
radically different than the sound of a traditional instrument, I would argue that it is
not as radically strange as the difference between an orchestral score and the resultant
sound. There is little that we can assume from a full orchestral score that will provide
direct relationships to the sound we hear. Training, experience, and journeyman like
apprenticeship in the bowls of the orchestra provide the necessary tools to ‘hearing’ an
orchestral score. Understanding notated electronic music, being made of the same ma-
terial, requires the same kind of process to ‘hear’ what is being represented in notation.
The staff and traditional notation provide everything we need to capture the quintes-
sential elements of music: pitch on the vertical, time on the horizontal, and anything else
in the margins. While live electronics have a particular need for notation in relation to
performers – they need to play from a score – there is, or there was, another good reason
for notating electronic music that existed only on tape: claiming copyright. An example
of traditional notation used for tape music can be found in the article Notes on ‘A Piece
for Tape Recorder’ by Vladimir Ussachevsky17. He describes the reason for notating the
tape work as having little do with the actual composition process because «the Copyright
Office in Washington does not grant a copyright on a work as a musical composition un-
less it is written or printed in ordinary musical notation», and so he spent forty hours do-
ing just that. The article then goes on to provide insight into his reasoning of the notation.
Figure 418 is taken from the article and shows a page of the score as submitted to
Washington. A more or less traditionally notated work with four staff systems. Of
special interest are the lack of bar lines while precise time is given in seconds, the use
of the relative dynamic notation (mezzo piano) alongside precise decibel indications
(20 dB), and the simple approach for notating the various sounds in the piece (M;
h-s; R above the staff is a metallic hard struck sound with reverberation)19. I find this
17 Vladimir Ussachevsky, ‘Notes on “A Piece for Tape Recorder”’, The Musical Quarterly 46, no. 2,
Special Issue: Problems of Modern Music (1960): 202-9, <https://doi.org/10/cgrz87> (03/19).
18 Vladimir Ussachevsky, Piece for Tape Recorder (Self Published, 1956), 4.
19 Vladimir Ussachevsky, ‘Notes on “A Piece for Tape Recorder”’, The Musical Quarterly 46, no. 2,
Figure 4. A page from Vladimir Ussachevsky’s Piece for Tape Recorder (1956).
20 Benny Sluchin, ‘A Computer-Assisted Version of Stockhausen’s Solo for a Melody Instrument
have realised a version for ondes Martenot for Nadia Ratsimandresy22. Much has been
written about Solo and I would refer anyone interested to read the articles cited above
and to peruse the score itself. The work is part of a series of pieces using a complex
and extremely personal approach to the composing process. The score of Solo con-
tains 12 unbound sheets, six are with traditionally notated staves and six are graphic
representations of the formal schemes to be followed in constructing the music to be
played. The performer, or arranger, is required to make their own versions following
the detailed directions of the composer and according to their instrument’s possibili-
ties and their individual artistic interpretation. There may have been the idea that the
performer should be able to realise the work in real time during the performance,
selecting the various sections from the traditionally notated sheets according to the
formal scheme being performed. As far as I know, this never happened. There are sev-
eral pages of instructions on how to interpret the various signs in the formal schemes
as well as detailed information on the technical aspects of the electronics.
I have worked on Version III of this score in three versions with three different
collaborations and all three are quite different. The difference, I believe, comes for
the loosely tight instructions of the composer and the choices he allows for the reali-
sation of the work. As free as the process might seem, the work is highly organised.
The composer has divided the process of creating, learning and playing into overlap-
ping procedures: choosing a form, learning the construction method (allowing for
internalisation of the work through active participation), applying the composers
process with the performer’s intuition and expertise, into a realisation of the final
playable form.
In spite of the experimental nature of the music and the advanced technology used,
the performer will play, in the end, from a traditionally notated score. The same score
will be used in practice and performance. While this process is a valuable exercise in
craft in the pursuit of artistic creation, the work has another important characteristic
that is perfectly controlled and inalterable: duration. As the work is based on feedback
loops on a specially designed tape machine, the durations are calculated according to
the length and speed of the tape recording. Of all the parameters of music that may
be interpreted by the performer/creator, overall time, in this particular case, is neither
flexible nor interpreted. Indeed, overall durations of each formal scheme are of extreme
precision: 10’ 39,8’’ for Version I or 15’ 25,9’’ for Version III, for example. While this
strict constraint makes for various complications in the realisation of the work, the
final form resembles any other traditionally notated score. Formal Scheme III and a
realisation of the B section for Ondes Martenot can be seen in Figure 5 and Figure 6.
Having pages of performance notes in a contemporary music score is nothing
extraordinary and usually this is there to define extended instrumental techniques or
non-standard notations. In the case of Solo, the performance notes are augmented by
elaborate directions as to the interpretation and realisation of the symbols the com-
poser has created for the process. The act of choosing, interpreting the symbols and
22 Carl Faia and Nadia Ratsimandresy, ‘Kinectic Waves at Art Zoyd Studios’, in Actes Des Journées
d’Informatique Musicale (Mons, Belgique: JIM, 2012), 233-236.
52 Notating electronics
Figure 5. Schematic for Form Scheme III in Stockhausen’s Solo, für Melodie-Instrument mit
Rückkopplung.
constructing the final playable version arguably places the performer into the natural
and traditional role of collaborative partner.
Allowing the performer this responsibility is a key element in practical notation that
should not be minimised. Baroque performances of period compositions might sound
radically different to the period scores in which they have been notated. Often times
more complicated in our ears than on paper, the performer takes the written score and
provides all the bits not written out – think of the two chord cadence in the Adagio
of Bach’s Brandenburg Concerto No. 3 as an extreme example. Performance practice
is an important aspect of any musician’s education. There is a common practice to
be codified in today’s notation, but this requires a certain level of performer involve-
ment. Leaving everything to chance or writing everything out undermines the role of
the interpreter. Stockhausen’s approach here provides a possible path forward in creat-
ing a rich environment for collaborative creation. The score of any realised version of
Solo belies a complexity absent from the notation, notably due to the layers of music
from the feedback loops, but also through his use of ambiguous and relative terms for
denoting effects and playing techniques. Music that is performed, heard, but not com-
pletely overly written out in the score or completely devoid of traditional indications.
To oversimplify, we don’t need new notation unless the performer needs new notation.
Composers need to tell the performer what they want, performers can tell them how to
symbolise it if needed, or, if that fails to work, to use text descriptions.
Finally, the score notes of Solo provide invaluable information on the technology
used for the feedback loops, including pictures of the tape machine and flowcharts for
the audio treatments. Important for the operators and assistants and performers for
Carl Faia 53
Figure 6. Realisaton for ondes Martenot of section B of Form Scheme III in Stockhausen’s Solo,
für Melodie-Instrument mit Rückkopplung.
the first performances, but crucial for the longevity of any pieces using technology.
The feedback loops were recorded on a specially designed tape machine that no longer
exists. Bringing a viable version of the work to the computer became possible once
technical limitations (namely, RAM or the delay times) were available. Transposing
electronics to a new technology, however, is not just dependent on the gear. The most
important aspect of any translation/porting is the detailed information of the pro-
cessing employed. The information provided in the score of Solo is a model that any
composer using technology should study for documenting electronics (c.f. Figure 7).
And while Stockhausen’s work is exemplary in every aspect of the notation practice as
required for future performances, there are other less obsessive examples available as
models. The equally relevant precise notations and instructions, although of a lesser
complexity, may be found in the score of Luigi Nono’s A Pierre. Dell’Azzurro Silenzio,
Inquietum (1985)23.
23 Marc Battier, Carl Harrison Faia, and Olivier Pasquet, A Pierre. Dell’Azzurro Silenzio, Inquietum
[de] Luigi Nono, Cahier d’exploitation, Ircam, Centre Georges Pompidou, 2000.
54 Notating electronics
24 James Dillon, Nine Rivers: 5. La Coupure (1989-2000) (London: Peters Edition, Ltd., 2000).
25 Carl Faia, ‘Collaborative Computer Music Composition and the Emergence of the Computer
Carl Faia 55
thread for the performance became the list of cues within the patch and the experi-
ence gained in rehearsals more than the traditionally notated modules created for the
performer. Figure 8 from the production period shows how the modules (numbered
squares) were not performed in order and could be (and would be) changed around,
while structural elements (the Bass Drum) were used to delineate the overall formal
structure. The ‘score’ in this case consisted of the traditionally notated modules for the
performer, as well as the processing within the patch and the unwritten performance
practice learned for the piece. Figure 9 Shows a version of the patch with some of the
cues and the clock source (bottom) visible during rehearsals and performance. The
interdependent and flexible nature of this kind of score works well during the creation
and first performances. It fails, however, when different performers and computer
music designers wish to perform these pieces. Without the oral confirmations of all
those involved in the creation, the continued performance of this work risks obsoles-
cence, or requires a modified, and possibly contrary, approach to the work by future
practitioners based on the existing patch, recordings and limited score.
Documentation, or archiving, as Laura Zattra recently reminded us26, is an impor-
tant aspect of the creative process for a better understanding of the work but also the
longevity of the music. This archival process should also be part of the score, especially
in the context of notating electronics. I have collaborated with many composers over
the years, all idiosyncratic in method and creation. I understand the importance of
oral history and tradition as pieces I have worked on and premiered are now being per-
formed by others. I sometimes receive phone calls or emails asking about the signifi-
Experimental Music? (EMS18 Conference – Electroacoustic Music Studies Network), Villa Finaly, Flor-
ence, 2018, oral presentation.
56 Notating electronics
Figure 9. Max patch in development showing the “clock system” programmed for process
synchronisation in La coupure.
cance of a certain sign in a score is supposed to mean, or if they could have a missing
sound file, or where to locate a subpatch, or instructions lost by the publisher, or if I
could rearrange a patch for a different performance configuration. Without clear nota-
tion, including descriptions and commentaries, the piece might never be performed
after the premiere. If that work’s electronics are not correctly notated, the piece will
not be played and may also be forgotten. Without this information available, Solo
would have been lost instead of being revived nearly 30 years after its premiere.
Figure 10. Text document with audio effects, treatments, and routings for The Summer Clouds
Awakening (2001).
patch. The Harvey collaborations had similar working processes, but produced nota-
tion practises stemming from the concert Max patch with representations of the audio
treatments and spatialisations.
We named the treatments used in each work: cutter designated an implementation
of granular synthesis designed for a rhythmic effect, conv (short for convolution) for
an implementation of vocoding, Harmos for harmonisation clusters, and Spat for the
spatialisation. Each effect has several settings in the patch. The patch has a matrix
allowing for complex audio routing. Finally, to trigger the various treatments and
sound files, a performer triggers the patch with a MIDI keyboard from the stage. We
needed notation that would be flexible and easy to use, clear and precise for rehearsals,
pertinent for the keyboardist, and, as a bonus, easy for the conductor to understand
if necessary. Once we had decided on the treatments to be used in the work, I created
a text document containing the exact processes in abbreviated form (cfr. Figure 10).
58 Notating electronics
This became useful for the composer to readjust, to correct, to change, but also to
understand each process. Once a simple protocol is set up, then the process should
coherent. For example, sound files are referred to by specific names prefaced by the
number of the section and order: “02-01-terraF-st”, is the first sound file in the second
section, named “terraF” (pertaining to the provenance and fundamental of the sound)
and is in stereo (other sound files are in mono or 8 channels). Abbreviations F and V
refer to flute and violoncello respectively.
Referring to section 10 and 11 in Figure 10, the text descriptions as sent to the
composer were then copied and pasted in the score (Figures 11 and 12). In Section 10,
soprano 1, tenor 2 and bass 2 are playing Damru/bells into their microphones. The
audio is then sent through to a series of delays and spatialised with a specially pro-
grammed treatment outside the normal Spat routing, but clearly noted in the score.
In section 11, sound files are triggered, voices are being routed through the matrix to
the clustered transpositions (harmos) which are then routed to the Spat treatment in
a setting of slow simultaneous rotation by azimuth (horizontal) and elevation (verti-
cal). The keyboard part is performed by the player on stage. Each note is a trigger of
some kind (sound file, start of the process, end of the process, program change). The
numbers pencilled in above each note refers to the cue within the patch and allows for
easy following (and control) of the process by the person behind the computer during
rehearsals and performances. The importance of this information became evident in
the practice of performing the piece and we decided it should be incorporated into
the score.
The score of Two Interludes for an Opera is similar in many aspects to the earlier
work, except that the cue numbers are now noted along with the keyboard notes being
played for triggers. There are a series of treatments, with similar naming, and a spe-
cially designed spatialisation with two independent Spats and a large array of presets
for each. There is an audio matrix with all 21 instruments as inputs allowing for any
combination of routing imaginable. The score contains information on instruments to
be treated, parameters or presets to be used and spatialisations as with the earlier work.
The composer has written in the exact routing and parameter configurations this time
(instead of the copy/paste of the text file as before) and there is more detail on the
page concerning interpretations of the electronics (Figure 13). The keyboard has been
placed in the centre for the score, a more traditional although debatable move, and
MIDI note numbers have been pencilled above the keyboard triggers in my score.
Of special note is the addition of controlled spatialisation we developed and added
to the existing protocol. There are a series of spatial movements designed with precise
rhythmic characters for the treating the audio sources: short complex, ritardando/ac-
celerando, strong character obtrusive, slow/fast moving contrasted, etc. (As this was
a preparatory work for an opera, there are thematic aspects of characters being ex-
plored throughout.) These rhythmic figures (cfr. Figure 14), labelled Rythm 1 through
Rhythm 6, were coded into the patch. They could then be notated in the score with a
number and a tempo designation (cfr. Figure 15).
In the examples shown in figures 13, 14 and 15, all the information we need to
perform the electronics of the work is included in the score. It is important to have the
Carl Faia 59
Max patch and the score in hand to understand everything, but there is no mystery as
to what is required or guesswork as to what the notation is representing. As beneficial
as it might be to have the original creators on hand when a complex composition is
performed, a correctly notated and presented score should be enough for the perfor-
mance and the transmission of the piece in the future. The notation of the electronics
in the scores provide information on the treatments, the attacks times, the durations,
the dynamics and, when possible, pitch information. In addition to the information
on the process and notation of the technology, there is an effort to provide interpre-
60 Notating electronics
tative notation for the computer performer including description of gestures, fader
control indications, and relative dynamics for competing electronic effects. Not only
does the score provide enough information to perform the work without the original
collaborators, but there is enough documentation or archival information to allow for
an eventual translation to newer technology when the time comes.
Carl Faia 61
Figure 13. Page 73 of Two Interludes for an Opera showing detailed electronics notation.
Accepting WYSI(not)WYG
The score is not the music, so the visual does not need to directly correlate to the
sound we hear. While some analysis systems allow for clearly marking musical ele-
ments and are useful for analysis, the same system should be avoided for the score. A
sonogram approach, like that used in Pierre Couprie’s EAnalysis, is extremely helpful
62 Notating electronics
Figure 14. Notes for the rhythmic spatialisations as developed for Two Iterludes for an Opera.
27 Pierre Couprie, EAnalysis, version 1 (Paris: Pierre Couprie Software, 2018), <http://logiciels.
pierrecouprie.fr/> (03/19).
Carl Faia 63
Figure 15. Routing and rythmic spat notation in Two Interludes for an Opera.
write or preview the document. As we have seen, music is not WYSIWYG. A note on
the staff will have a different meaning depending on the instrument, the player, the
musical context, the air, and so on. As musicians, we are trained to understand this
and to develop our internal ear, to endlessly practise eye/ear/finger (or voice) dexterity,
to see invisible connections within a score, to hear timbre when we see a black dot on
a staff. When a composer short circuits this process, performing practice needs to be
recalibrated and rethought. Is that helpful? Is it necessary? Do we really need that new
notation?
64 Notating electronics
Compared to the abundance of treatises on music and its notation over the last 15
centuries, notating electronics is a practice in its infancy. I would like to build upon
this rich and varied tradition instead of introducing anything new, unless «such and
such a detail requires to be, and can be, improved». There are a certain number of
common practices I believe are important and relatively straightforward concerning
the craft of notating electronics. These practices come from practical engagement with
performance and creation. Born out of necessity in places that specialise in electronic
music creation, I believe we do need to codify and publish and teach both the nota-
tion and the practice of documenting the electronics as much as, if not more than, the
traditional elements of the repertoire.
A simple graphic system based on five horizontal lines and four spaces, learning
music notation, however, is deceptively difficult skill to acquire. It is an expert system
that requires a period of training to learn and an even longer period to master. As this
is a system that works, however, we can add to the repertoire by codifying common
practice and the simplest of symbols.
There has always been and there will always be a need to explain and define pos-
sible interpretations of the symbols we use in notating music. The common practice
period might be seen as a moment when everyone agreed, more or less, on the many
parameters of music, including its notation. While utopian to imagine a common
practice period for electronic music notation, having an agreed upon code for no-
tating electronics is a worthy endeavour and one that could be developed over time
in regular meetings between practitioners, publishers, and musicologists. A possible
forthcoming project.
In the meantime, I have noted below a few basic tenants for approaching the nota-
tion of electronics. You might also be interested in a more recent, and highly regarded,
guidebook for notation by Elaine Gould, Behind Bars: The Definitive Guide to Music
Notation28.
1. Keep it simple and direct. Use a minimum of directions for any addition to a score:
‘M; h-s; R’ being abbreviations for a ‘Metallic, hard-struck, reverberated’ sound is
easy enough to remember and should be taken as a model.
2. Allow the performer into the process of interpretation, too much information de-
stroys that process. There is always something the performer will bring to the com-
position. How much or how little depends on how you notate the score.
3. Keep in mind that the score is the best place to add documentation on the technol-
ogy, machines, equipment and processing of the electronics. In the event that the
technology you used for the creation becomes obsolete, by providing this invalu-
able information, hopefully your music won’t.
28 Elaine Gould, Behind Bars: The Definitive Guide to Music Notation: (Faber & Faber, 2011).
Carl Faia 65
4. Providing as much information as possible about the technology and the process
used to create and/or perform the work is extremely important for understanding
and transmitting the work. Time should be allotted for this aspect of any creation
(adding time after the premiere for this is highly advisable).
5. If using a Max patch (or similar), comment the processes, clearly label the impor-
tant structural elements of the patch (DSP, control, cue systems) and provide a
glossary for all abbreviations. The score should contain the same information and
abbreviations.
6. Text descriptions are good, but don’t depend on words alone to explain the nota-
tion. There should be an organic base to the notation. If a notation exists in the
tradition form that approaches the effect, start with that (i.e. notating a transposi-
tion might be similar to the notation of a string harmonic with added detail in
cents if necessary).
7. All the above could be combined into a protocol peculiar to each work that is sim-
ple to implement and understand and folds neatly into a written score, as well into
a Max patch or other creative electronic music environment.
67
Introduzione
Il problema di che cosa sia una notazione musicale è, a livello teorico, decisamente
più complicato di quanto possa sembrare perché immediatamente apre, a catena, al
problema di cosa sia una notazione in generale e, di lì, alla definizione del segno in
quanto tale. Personalmente, ho provato in (Valle 2002) a discutere alcune prospettive
teoriche generali in relazione alla musica novecentesca, a cui mi permetto perciò di
rimandare. Assumerò invece qui di seguito una prospettiva per così dire etnografica,
discutendo un insieme di usi della notazione in relazione ad una congerie di progetti
da me sviluppati che includono sempre un soggetto umano e un soggetto macchinale.
Questa mossa indubbiamente circoscrive il problema introducendo un limite perime-
trale biografico e uno, certamente più interessante, di tipo tecnologico. La messa in
relazione tra umano e macchinale è uno snodo cruciale nello sviluppo e nella prolife-
razione dei linguaggi di programmazione, a partire dal COBOL (Ceruzzi 1998), e ha
portato alla distinzione fondamentale tra alto e basso livello in relazione ai linguaggi
stessi (Schneider e Gersting 2007). Nei linguaggi di programmazione, “alto livello”
indica la prossimità all’umano mentre “basso livello” segnala la prossimità alla mac-
china. Dunque, i linguaggi di programmazione costituiscono un luogo di mediazione
semiotica tra umano e macchinale, con tutta la complessità semiotica che consegue
da questa duplicità (Valle e Mazzei 2017). Il riferimento alla programmazione non è
accessorio o riduttivo in questo contesto, perché il perimetro biografico di cui si diceva
sopra limita l’insieme dei progetti che discuterò a tecnologie di tipo computazionale
nell’ambito del cosiddetto physical computing (O’Sullivan e Igoe 2004), e rende così
pertinente per la notazione musicale lo stesso problema di mediazione semiotica che
si presenta nei linguaggi di programmazione. Per questo motivo, almeno rispetto al
livello di controllo, i progetti che in seguito verranno discussi includono sempre una
dimensione computazionale. Ed è ovviamente a livello di controllo che la nozione di
notazione diventa utile. A tal proposito, è stato osservato come la notazione musica-
le, in generale, sia insieme “memoria” e “progetto” (Ambrosini 1979). La notazione
ha dunque una relazione strutturalmente ambigua, bifronte, con la temporalità: è
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 67-84
DOI: 10.13128/music_tec-11163 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
68 Notazioni elettromeccaniche, o forse no
insieme orientata all’indietro, verso ciò che in essa deposita (storicamente, e insieme
empiricamente in relazione a uno specifico lavoro di composizione), e in avanti, verso
ciò che essa rende possibile o almeno promette (la classe delle esecuzioni possibili).
Come per il segno in generale, per la notazione musicale vale il motto “et est et non
est” (Ferraris 1997). Da un lato, la notazione è espressione in praesentia, che si mani-
festa in una qualche natura sensibile (inchiostro su carta, pixel su uno schermo, ma
anche suono nel caso di indicazioni acustiche, ecc.), dall’altro questa sua stessa natura
materiale si cancella verso qualcos’altro, e nel caso della notazione musicale, come si
è detto, il suo contenuto include un plesso inestricabile di passato e futuro. Cercherò
nel seguito di discutere questa natura semioticamente biplanare di espressione/conte-
nuto e questa caratterizzazione temporale del secondo (passato/futuro) in relazione ad
alcuni progetti, presentati come case studies.
* g 1/4
1 77 h
@ 2/4 @
2/4 + 2/4 + 1/4 + 1/4 + 1/4 g 0
@ 88 5/4
3 1/4 1
7/4 g 1/4
h 101 0
@ 1/4 1/4
66 h #
2/4 110
Figura 1. Annotazione della partitura di Imaginary Landscape No. 4.
70 Notazioni elettromeccaniche, o forse no
71 103 70 56 54 144 56 87 141 63 142 73 66 67 61 95 70 93 134 124 9147 124 77 50 138 160 118 133
110 55 50 56 54 133 139 50 95 124 80 145 73 132 66 77 63 100 63 97 68 91 148 12447
100 124 77 50 136 160118 148 64
160
150
140
130
120
110
100
freq
90
80
70
60
50
40
30
20
10
tone 1
0
15
14
vol
13
12
11
10
9
8
7
6
5
4
3
2
1
time
0' 10'' 20'' 30'' 40'' 50'' 1' 10'' 20'' 30'' 40'' 50'' 2' 10'' 20'' 30'' 40'' 50'' 3' 10'' 20'' 30'' 40'' 50'' 4' 10'' 20'' 30''
Figura 2. Visualizzazione della parte di una delle 12 radio a partire dall’annotazione testuale di
Imaginary Landscape No. 4.
...
automaticamente per produrre la struttura dati di controllo che viene utilizzata per l’e-
secuzione in tempo reale sui dispositivi elettromeccanici. Si tratta dunque di una no-
tazione che media tra leggibilità (e scrivibilità, in alcuni casi) umana e formalizzazione
macchinale. Anche in questo caso tuttavia è stata approntata una partitura grafica
(Figura 3, destra), che serve come controllo compositivo a posteriori e come descrizio-
ne della forma complessiva che assume la componente macchinale. Dal punto di vista
tecnico, la partitura viene generata automaticamente sfruttando PostScript (Adobe
1999), un linguaggio di programmazione per la grafica vettoriale in forma testuale.
Come si vede, l’ambito mediale richiede costellazioni di software dedicati a svol-
gere compiti diversi: in questo contesto, il formato testuale è il perno intorno a cui
si reggono le procedure di integrazione, sia in termini di scambio dati (an/notazioni)
che rispetto alla loro elaborazione (linguaggi di programmazione). Dunque, a partire
dalle partiture testuali il programma di generazione scrive file che contengono codice
PostScript, i quali possono essere convertiti in formato PDF e inclusi nella partitura
complessiva che comprende anche gli strumenti. Secondo il modello presentato, cen-
trato sulla proiezione di dati in diversi domini, nei primi tre lavori le partiture testuali
vengono convertite in altre partiture grafiche per essere visualizzate nell’interfaccia
grafica per il controllo in tempo reale dell’esecuzione (un esempio è in Figura 4).
Nell’ultimo brano del ciclo, Fossilia, le partiture per oggetti vengono invece utiliz-
zate direttamente all’interno dell’interfaccia grafica che controlla l’esecuzione in tem-
po reale. In Figura 5, la partitura è caricata come immagine nella finestra di controllo
(che contiene, come in Figura 4, anche un cronometro, un campo di inserimento
e un pulsante di avvio/fermo dell’esecuzione) e ad essa viene sovrapposta una linea
verticale rossa che funziona da marcatore interattivo di avanzamento temporale. Si
assiste così in ambito digitale ad una permeabilità totale tra partitura “tradizionale”
e interfaccia grafica.
72 Notazioni elettromeccaniche, o forse no
Notazioni grafiche
Una via in qualche modo completamente speculare rispetto alla visualizzazione dei
dati è quella dell’utilizzo di partiture grafiche. Il progetto Rumentarium (Valle 2013)
è costituito da un ensemble di percussioni elettromeccaniche, costruite a partire da
oggetti di recupero eccitati da piccoli motori a corrente continua, secondo il modello
introdotto precedentemente. Una tra le modalità di controllo previste per l’ensemble
ha incluso un insieme di partiture grafiche disegnate a mano su carta. In questo caso
(18 elementi percussivi), la notazione prevede un rigo di 18 spazi, secondo il modello
del rullo del piano. Il livello del grigio controlla il parametro PWM. La notazione
grafica è pensata per sfruttare gli effetti di configurazione resi possibili dalla gestualità
grafica e la continuità di controllo attraverso la sfumatura. La procedura compositiva
comprende un insieme di passi. In primo luogo, allestimento del rigo (generato via
Nodebox) e disegno a mano della notazione (Figura 6).
Dopo l’acquisizione dell’immagine via scansione, questa viene ritagliata in modo
che i righi siano riassemblati in un’unica immagine che rappresenti linearmente l’in-
tero sviluppo temporale. Seguono il sezionamento in righe (una per ogni strumento),
il campionamento (che determina la risoluzione orizzontale in pixel a rappresentare le
unità temporali) e la quantizzazione (il livello dei grigi viene ridotto a 8 bit). Di fatto,
la partitura grafica in entrata è convertita in una matrice, le cui colonne rappresentano
le unità temporali, le righe i 18 dispositivi elettromeccanici, i livelli di grigio (i conte-
nuti delle celle) i valori di PWM. Il processo di esecuzione legge una colonna alla volta
e invia ai 18 dispositivi il segnale con il valore di PWM relativo alla cella. Si noti che la
discretizzazione in realtà si traduce tipicamente, per l’inerzia dei motori che “legano”
una cella alla successiva, in un comportamento continuo.
Figura 7. Partitura grafica importata in una interfaccia grafica (sopra) e rielaborata (sotto).
e progetto messo in esecuzione. La dimensione interattiva, per cui il codice può essere
modificato ed eseguito mentre è in esecuzione, non modifica il quadro. Anche nel
caso estremo del live coding, in cui le espressioni linguistiche vengono scritte durante
e costituiscono propriamente la performance (Collins, McLean, Rohrhuber, e Ward
2003, ma anche il numero monografico del Computer Music Journal, 38/1-2014, “Live
Andrea Valle 77
coding”), queste devono essere formalmente ben formate per essere eseguite: si assiste
dunque non a un cambio di logica, ma a una sorta di continua alternanza “in com-
pressione temporale” dei due momenti di notazione ed esecuzione. Infine, la notazio-
ne coincide in questo caso con l’interfaccia esecutiva tra uomo e macchina. La Figura
8 riporta un esempio di codice utilizzato dal vivo. Il blocco delle righe 3-29 contiene
definizioni di elementi che verranno utilizzati nel seguito. Le ultime righe (39-45)
contengono invece espressioni del linguaggio che lanciano la funzione “~speak̦”, defi-
nita sopra e usata per generare pattern Morse che, alla fine della catena, aprono e chiu-
dono gli altoparlanti di una serie di radio nel progetto Trilobiti. Queste istruzioni sono
scritte, modificate ed eseguite in tempo reale durante la performance. Esse rimangono
così nel programma-notazione come un deposito dell’esecuzione.
Live printing
alle forcelle dinamiche che indicano propriamente un processo continuo. Più gene-
ralmente, ogni dimensione che superi quella dell’evento deve essere anticipata nella
notazione proposta per non risultare problematica all’esecuzione. Questa separazione
di magnitudini temporali tra macchina ed esecutore è al centro del progetto Dispacci
dal fronte interno, scritto per archi, stampanti e live electronics. Il pezzo è basato sulla
nozione di retroazione, e prevede un insieme di microfoni che catturino il suono
dal vivo. Un processo computazionale si occupa dell’analisi del segnale in ingresso.
Questa stessa informazione è alla base della generazione della notazione per gli archi
che viene inviata alle stampanti (una per ogni esecutore). I microfoni captano il segna-
le ambientale complessivo, quello degli archi e quello risultante dal funzionamento
delle stampanti, e il processo computazionale genera il suono spazializzato (a partire
dal materiale sonoro complessivo) su 8 canali e la notazione musicale per gli archi.
Dunque il brano si produce come un unico grande anello di retroazione complessivo
in cui tutto il materiale sonoro è all’origine del suo sviluppo nel tempo. Questo anello
però comprende strati temporali che operano a tassi differenti. La sintesi del segnale
reagisce infatti a tasso di campionamento, gli esecutori prelevano il foglio e lo eseguo-
no a velocità strumentale, infine le stampanti operano con tasso temporale minimo,
poiché il processo di stampa richiede svariati secondi. Qui la macchina è dunque
insieme il più rapido e il più lento degli elementi di questa configurazione a tre. La
notazione in questo caso entra a far parte della configurazione complessiva non solo in
quanto oggetto precipuamente cognitivo ma anche, per il tramite del dispositivo che
materialmente ne genera il supporto, come componente acustica importante legata
alla processualità della sua costituzione.
Dal punto di vista tecnico, il software di controllo in SuperCollider, oltre a pren-
dere in carico l’elaborazione del segnale, genera, per ogni foglio di notazione, un file
PostScript. La notazione prende la forma di una sorta di intavolatura che specifica
rispetto al manico tecniche esecutive per le due mani. Il file PostScript viene inviato
direttamente in stampa attraverso il terminale, poiché le stampanti sono tipicamente
dotate di un interprete per il linguaggio PostScript. Un punto di rilievo è che lo statuto
della notazione come oggetto a priori dell’esecuzione è parzialmente ridiscusso. Essa
dipende evidentemente dalle condizioni acustiche complessive, non predeterminabili.
E tuttavia diventa possibile archiviare i file prodotti nella performance e ottenere una
notazione a posteriori del brano complessivo, ovvero una partitura di documentazione
della performance in forma tradizionalmente grafica. In Figura 10 è riprodotto uno
dei fogli (i “dispacci” del titolo) da una performance.
Astrazione procedurale
Dispatch no. 11
dynamics: pp tempo: Allegro
tuning
pegbox
position
strings: IV III II I
1 1 strings:
IV III II I
4 3m
left
2 2
+ hand
+
3 3
4 4
5 5
6 6
7 7
8 8
9 9
10 10
11 11
12 12
right
13 13
hand
14 14
IV III II I
15 15
to end of fretboard
Edua Amarilla Zadory & Ana Topalovic @ USO project Milano, Sat Dec 1 21:12:47 2012
Figura 10. Dispacci dal fronte interno: notazione per archi generata in tempo reale e archiviata.
2/2.5kHz 1kHz
SRC (sine)
sec 52 53 54 55 56 57 58 59 0
mm = 60
piano
f
Figura 11. Notazione mista per sinusoidi e piano in Orologio da rote.
puter di controllo, altri segnali orari vengono emessi dal pianoforte e dalle radio. La
durata complessiva (tra 2’48” e 3’40”) varia anch’essa in funzione dell’ora in cui viene
eseguito. Si tratta perciò di un brano che mette insieme una dimensione esecutiva e
installativa, e che non richiede esecutori. Presenta tuttavia una organizzazione com-
positiva formalmente descritta di tutti gli aspetti coinvolti (dalla modifica delle radio
alla generazione dei segnali, dalle procedure di analisi che controllano il pianoforte alla
forma temporale complessiva). Di qui la possibilità di una notazione dello stesso sotto
forma di un documento di 6 pagine che ne dettaglia l’allestimento (attraverso indi-
cazioni verbali, diagrammi, notazione tradizionale ecc., Figura 11). In altri termini,
il progetto, per quanto strettamente sviluppato a contatto delle tecnologie coinvolte,
guadagna uno statuto allografico. Si potrebbe osservare che in questo caso si arriva al
punto di dispersione tra notazione e documentazione.
Un passaggio astraente successivo consiste nel non prendere in considerazione
la dimensione macchinale tout court. Ad esempio, Minute di cronometria (2018) è
un lavoro scritto per due strati, uno che richiede di generare materiale sonoro dota-
to almeno approssimativamente di altezza, l’altro che invece prevede di gestire con
precisione l’informazione ritmica, organizzata in un pattern di base. Ognuno dei 60
pezzi che compongono la partitura consiste allora in una notazione di questi due
strati, che serve come indicazione per l’improvvisazione. In Figura 12, gli strati sono
distinti in verticale dalla linea orizzontale. Gli strati possono essere realizzati da un
numero non specificato di strumenti e/o esecutori. Nell’esecuzione realizzata, lo stra-
to ritmico, come si vede in Figura 12 notato in forma del tutto tradizionale, è stato
implementato attraverso un ensemble di 8 percussioni costituite da altoparlanti su
Music engraving by LilyPond 2.18.2—www.lilypond.org
cui sono stati posizionati oggetti, quattro delle quali impiegate per la realizzazione
del pattern notato, quattro invece dedicate a realizzare variazioni sullo stesso, come
previsto in partitura (il segnale audio inviato agli altoparlanti è di tipo impulsivo
e ha la sola funzione di sollecitare meccanicamente gli oggetti). Dal punto di vista
empirico, questo dispositivo a 8 elementi è stato in realtà il punto di partenza nella
composizione. Quest’ultima tuttavia, attraverso la notazione, si è poi completamente
astratta dall’implementazione che utilizza dispositivi elettromeccanici e ne ha realiz-
zato così solo una delle possibili esecuzioni. Ciò che si guadagna in generalità si perde
necessariamente in specificità.
82 Notazioni elettromeccaniche, o forse no
19 - Free -
dur.:
2'
_
sync.: piv.
--
reg. dyn.:
ff
= 79
perc 11
8
ff 3
Conclusioni
Visualizzazione dei dati, notazione come interfaccia, codice come notazione, nota-
zione come documentazione: nello sviluppo di progetti che includano configurazioni
di oggetti diversi intorno o insieme a un calcolatore si producono così situazioni nota-
zionali molto diverse in termini di statuto semiotico e di funzione, che si ibridano con
elementi certamente estranei alla notazione tradizionale. In questi casi, quello che si
potrebbe chiamare il rimosso della notazione tradizionale, cioè il supporto materiale,
ritorna prepotentemente in gioco, perché è esattamente il suo statuto di oggetto che
ne permette o impedisce l’integrazione con altri oggetti mediali. Se nella notazione
tradizionale si può tipicamente (anche se non sempre) fare a meno di prendere in con-
siderazione questa dimensione materiale (la carta, l’inchiostro), essa ridiventa invece
pertinente in un contesto di integrazione mediale. In maniera del tutto opposta, la
dimensione materiale fondante nei progetti presentati (che includono sempre – salvo
nel caso di GeoGraphy – dispositivi elettromeccanici) è a ben vedere totalmente irri-
levante nel determinare i tratti pertinenti della notazione. Una notazione infatti si
costituisce a partire dalla determinazione di una certa pertinenza (Prieto 1976): cioè,
da ciò che si può o si deve notare. Dunque, della natura fisica del dispositivo rimane
nella notazione soltanto la dimensione informazionale, cognitiva, legata al controllo di
quest’ultimo, cioè la sua interfaccia, come si dice sia in semiotica (Zinna 2004) che in
programmazione ad oggetti (Gamma, Helm, Johnson, e Vlissides 1995).
Riferimenti bibliografici
Adobe 1999, PostScript Language Reference, 3a ed., Addison-Wesley, Reading, Mass.
Ambrosini, C. 1979, ‘Musica contemporanea e notazione’, Studi Musicali VIII, pp. 303 ss.
Banzi, M. 2009, Getting started with Arduino, O’Reilly.
Andrea Valle 83
14th Sound and Music Computing Conference, Aalto University, Aalto University, Espoo,
pp. 391-398.
Valle, A., Mazzei, A. 2017, ‘Sapir–Whorf vs Boas–Jakobson. Enunciation and the semiotics of
programming languages’, Lexia. Rivista di semiotica 27-28, pp. 505-525.
Wilson, S., Cottle, D., Collins, N. (a c.) 2011, The SuperCollider Book, The MIT Press,
Cambridge, Mass.
Zinna, A. 2004, Le interfacce degli oggetti di scrittura, Meltemi, Roma.
85
1. Introduction
The first conference paper I ever wrote was a survey of electro-acoustic compos-
ers’ thoughts on notation published in the proceedings of the 1999 International
Computer Music Conference1. As a Master student in computer music composition
at Peabody Conservatory nearly twenty years ago, I was already aware that notation
for interactive music was problematic, and I continue to struggle with notation, par-
ticularly notation of interaction and timbre as a composer / performer / author and
professor of electronic music. This paper covers my history with notation, and ends
with a thought experiment about notating László Moholy-Nagy’s Light Prop for an
Electric Stage.
2. Background
Unlike most composers my age, my first compositions were for electronic sound
sources. I was fortunate enough to attend a summer program in computer music at
Oberlin College when I was sixteen, and my first composition was written there – a
piece for cello and tape, The Persistence of Memory (1990). Even then I wanted to no-
tate the tape part, and my instructors showed me Rainer Wehinger’s gorgeous score
for Ligeti’s Artikulation (1958). I attempted some cursory graphic notation but got
very frustrated with my own drawing ability (and didn’t think to use MacPaint) and
instead simply notated the cello part in Finale. I ended up drawing several cues for
the tape part for myself on the printed score. Years later I started a project of looking
at performers’ marginalia in the Peabody library’s copies of Davidovsky’s Synchronisms
– theorizing that as his notation of the electronics became more detailed, the number
* Margaret Schedel is the author of Sections 1-3 and 5; Federica Bressan is the author of Section 4.
1 Schedel, Margaret, “The Notation of Interactive Music: Limitations and Solutions”, Proceedings of
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 85-101
DOI: 10.13128/music_tec-11164 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
86 Notation for an Electric Stage
5 Schedel, Ibid.
pp. 9-34.
7 Hoffman, Elizabeth, “Animated Scores for Electro-acoustic Tape/Live Performer Compositions”,
at SUNY Buffalo studying with Cort Lippe I wrote my first piece for acoustic in-
strument without electronic sounds, Ov rla s: A Time Canvas (2000) for Lujon8 and
Interactive Score, which I described as having «elements [that] appear and disappear
on the score as the performer plays. The audience never hears the entire work, but
gains a holistic view through repetitions of the material as heard through different
overlays». I originally wanted to create a score using transparent overlays inspired by
Cage’s Plexigrams, but I couldn’t get the speed of changes I wanted in the notation.
Instead I used a Max patch with the lcd object that added and removed notes, mal-
let, dynamics, duration, and articulation changes in real time randomly. The speed
of change was related to the volume—the louder the performer played, the faster the
notation changed. In my thesis I included the entire score (which the performer never
saw), as well as three variations once the algorithm had been running. Sometimes this
meant that there were two mallet changes with no note played in between—creating a
performance art element to the piece that I enjoyed and insisted that the percussionist
perform, though there was no sonic result. Now animated scores have become fairly
common, and I’m particularly inspired by Cat Hope & Lindsay Vickery9, and Ryan
Ross Smith’s10 contributions to this arena.
Looking back at my thesis, I could easily recreate this work based on my extensive
notes about its history, compositional focus, influences, formal structure, and my per-
formance notes as well as the pages containing (terribly pixelated) screen shots of the
whole score and the punched out versions once the algorithm had been running. For
my thesis, I had been tempted to include print-outs of the texts of my Max code for
each piece, but my teachers wisely told me it would be too long; instead I focused on
describing what was important to me about the pieces, something they thought would
be much more valuable than pages of outdated code.
Moving scores do not necessarily have to have patches, but patches can «serve
as both production interfaces and de facto notation, as knowledge of the program-
ming environment enables one to ‘read’ them like a score»11. On the other hand,
software quickly becomes outdated. When Miller Puckette developed his open source
language, Pure Data (PD), the original idea was to make a real-time computer music
performance environment like Max, but somehow to include also «a facility for mak-
ing computer music scores with user-specifiable graphical representations»12. Puckette
8 A metallophone with individually-pitched thin metal plates that are attached to a resonant wooden
box.
9 Hope, Cat - Lindsay Vickery, “Screen scores: New media music manuscripts”, Edith Cowan Uni-
tional Conference on Technologies for Music Notation and Representation, 2015, <http://tenor-conference.
org/proceedings/2015/06-RossSmith-AtomicAMN.pdf> (03/19).
11 Grigore, Burloiu-Cont, Arshia and Poncelet, Clement,. “A visual framework for dynamic mixed
Conference, 2002.
88 Notation for an Electric Stage
13 Puckette,Miller, “New Public-Domain Realizations of Standard Pieces for Instruments and Live
Electronics”, ICMC. Proceedings of the International Computer Music Conference, 2001.
14 <http://msp.ucsd.edu/pdrp/latest/files/doc/> (03/19).
16 Schedel, Margaret, Alison Rootberg, and Elizabeth de Martelly, “Scoring an Interactive, Multimedia
Performance Work”, Proceedings of the New Interfaces for Musical Expression Conference, 2008.
17 Groves, Rebecca, Norah Zuniga Shaw, and Scott DeLahunta. “Talking about scores: William
Forsythe’s vision for a new form of ‘Dance literature’ ”, in Transmission in Motion: The technologizing of
dance, Bleeker M (ed.), New York, NY: Taylor & Francis, 2016.
18 Schedel, Margaret, Nick Fox-Gieg, and Kevin G. Yager. “A Modern Instantiation of Schillinger’s
Dance Notation: Choreographing with Mouse, iPad, KBow, and Kinect.” Contemporary Music Review 30.2,
2011, pp. 179-186.
19 Bourriaud, Nicolas, et al. Relational aesthetics, Dijon, Les presses du réel, 2002.
Margaret Schedel 89
have a strong phenomenological streak due to the influence of Don Idhe and his book
Listening and Voice20. I am indebted to the musicologist Elizabeth de Martelly, who
bravely volunteered to work with me when I was a new composition faculty member
and introduced me to many new concepts and authors.
My interest in the combination of philosophy and music continues; at the 2017
ICAD conference I convinced Dr. Idhe to oversee a specific call on the philosophy of
sonification asking specifically for articles on the philosophical and aesthetic develop-
ments.21 I have also become very interested in embodied cognition. With dancer/cho-
reographer Emily Beattie, I developed and wrote about a trivially simple interactive
gestural system consisting of one point of control and a memory system, from a phi-
losophy of embodiment22. Notation itself can be studied from a cognitive viewpoint;
score reading can be seen as a technical representational practice23 where «contingent
surface-level features [are] leveraged by an underlying map-like representational struc-
tured […] scores are seen to be highly conventionalized maps, and the notational
symbols of scores constitute just one of multiple modes of representation and depic-
tion harnessed by this framework»24. Scores are a types of map, and what is included
can be just as important as what is left out.
I have begun to consistently use the word reperformance instead of sustainability be-
cause of a conversation I had after presenting a talk “Documentation vs. Notation in
Computer Music” at the Bone Flute to Auto-Tune conference25. Reperformance is a
much more specific term, and does not contain the environmental connotations of the
word sustainability. In fact, when coming up with titles for the Organised Sound issue,
we did worry that someone might write about the environmental impact of computer
music. In studying embodied cognition, I am even more convinced that reperfor-
mance engages our embodied selves more strongly than video documentation. This
year my artist collective arts.codes will curate and produce videos of scores for Score
Follower26, a website that creates videos of contemporary music scores that turn pages
along with the accompanying recordings. We hope to encourage artists who do not
usually score their work to create notations for the site, and encourage composers who
use electronics to push the boundaries of what they are able to represent in a score.
Sonification, Georgia Institute of Technology, 2017; Alirezaee, P., Girgis, R., Kim, T., Schlesinger, J. J.,
& Cooperstock, J. R., “Did you Feel that? Developing Novel Multimodal Alarms for High Consequence
Clinical Environments”, Georgia Institute of Technology, 2017; Landry, S., & Jeon, M.. “Participatory
design research methodologies: A case study in dancer sonification”, Georgia Institute of Technology, 2017.
22 Beattie, E., & Schedel, M., “Inscribing Bodies: Notating Gesture”, in International Symposium on
Computer Music Multidisciplinary Research, Springer, Cham, 2017, September, pp. 273-283.
23 Penny, Simon, Making Sense. Cognition, Computing, Art, and Embodiment, MIT Press, 2017.
24 Miller, Daniel, “Are Scores Maps? A Cartographic Response To Goodman”, in Proceedings of the
Notation and the score are separate concepts, but are intertwined with cultural,
ontological and semiotic inferences, all of which impact the material fabrication we
call the score27. I like the very open definition of a score as a «coded tool in the arts…
a two-dimensional […] artefact that allows for multiple performances […merging]
the fixed and the dynamic, space and time»28.
Within the simple three roles of notation: recording, analysis and generation29,
there are an infinite variety of solutions (much like computer programming). Good
notation provides means for transcribing music, can (with training) be read and
played (and ideally can be accessed, read and played over long periods of time), and
is extensible30. More specifically Anne Veitl specifies that a score must be 1) material;
2) visible; 4) performative; 5) systemic; and 6) causal31. Although I find the word vis-
ible problematic as it is not inclusive of the blind community who certainly can read
and interpret scores, I think “sensible out of time” might be a better phrase, when
approaching a new score I now keep these concepts in mind.
I believe that any non-fixed artistic event that takes place over time can benefit
from studying dance and music notation, and even stage directions. In my opinion,
documentation of an event is not sufficient for a living practice. If we think of nota-
tion as a system that «provides a medium for the exchange of information, and facili-
tates the negotiation of shared goals among those who may be involved in the creation
of space [or sound]»32, it is easy to expand this to complex installations. Notation,
along with performance practice, «stabilizes the ontological identity of the works they
are intended to articulate»33. There is a mapping from sound to notation that is de-
coded by the performer/reconstructor. Moreover, the function of a score varies from
composer to composer. «For Stockhausen, the performance is made in his service; the
piece remains his and the performers should divine his intention even when it is not
written down. For Cardew, the score is the responsibility of the performers once it is
composed»34. There cannot be a simple prescriptive practice for scoring, it will depend
27 Blackburn, Andrew, Jean Penny, “Timbral Notation from Spectrograms: Notating the Un-
Notatable?”, Proc. of the Int. Conf. on New Tools for Music Notation and Representation TENOR, 2015.
28 Coessens, Kathleen, “The Score beyond Music” in P. de Assis, W. Brooks, K. Coessens (eds.), Sound
and Score: Essays on Sound, Score and Notation, Leuven University Press, Ghent. p. 178, 2014.
29 Wiggins, Geraint et al., “A framework for the evaluation of music representation systems”, Computer
system for scratching and sample music derived from ‘Theory of Motions’ ”, TENOR, in Proceedings of
the International Conference on Technologies for Music Notation and Representation, 2016.
31 Veitl, Anne, “Musique, causalité et écriture: Mathews, Risset, Cadoz et les recherches en synthèse
numérique des sons”, Musique, Instruments, Machines, Paris, OMF-Paris IV Sorbonne, 2006, pp. 235-251.
32 Westby, Syuko Kato - Ruairi Glynn, “Fabricating Performance: Reciprocal Constructs of Dance
of the International Conference on Technologies for Music Notation and Representation, 2016.
34 Anderson, Virginia, “ ‘Well, It’s a Vertebrate…’: Performer Choice in Cardew’s Treatise”, Journal
on the artist and the work, becoming a «symbolic representation […] an aggregate
of many parameters, functioning through abstract, contextual implications for how
it should be interpreted»35. What the «creator chooses to represent, omit or stylize»36
becomes a blueprint for the performance or reperformance itself.
In recent years I’ve become intrigued by the fact that an instrument itself can be-
come a type of score. As Enrique Tomás writes musical work can be seen as «not only
defined by the instrument, but more importantly, by the act of playing the instrument.
The performer’s role [is] to reveal instances of the musical work inherently integrated
in the circuitry»37 Tomás is writing about his own electronic instruments, but it is easy
to see that the statement «affordances are fully mediated by the embodied relation-
ship between instrument and performer»38 can apply equally to acoustic instruments.
I had the pleasure of premiering Mark Applebaum’s Metaphysics of Notation (2010)
on electric cello with percussionist Corey Fogel. The 72 foot hand-drawn score with
two corresponding mobiles was installed at Cantor Arts Center at Stanford. We were
instructed to perform the score non-linearly and to interpret the notational shapes in
sound however we wished. At one point Fogel bent long metal strips into shapes he
saw in the notation – using the affordances of his instrument to create a primarily vi-
sual experience with the sonic result as secondary. This embodied notation synthesizes
dance and music in a compelling manner, and pleased Applebaum who had never
expected that particular physical interpretation of his drawing.
In both the arts and the sciences there is a need to «communicate ideas or
concepts»39 by creating a reduction of the complete work, and the two fields are not
as different as many practioners believe. The arena of human computer interaction
(HCI) gives us valuable insight into scoring. Alan Blackwell used Thomas Green’s
cognitive dimensions of notation (computer languages as information structures)
– Visibility, Comparability, Dependencies, Cognitive Load, Liveness, Conciseness,
Sketchability, Marginalia-ability, Consistency, Mutability, Role, Commitment, Error-
Prone, Mapping, Abstraction, Virtuosity, and Learnability40 – to explain why musical
notation has persisted. When designing notation of interactive systems for creative
purposes, I think that it is useful to consider these properties. I’m especially inter-
ested in virtuosity vs. learnability. I often create installation versions of my interactive
systems for the public to engage with before (or after) experiencing a virtuosic per-
formance of the work: Beat Patterns (2003), Corporealization of Mictrophone (2004),
35 Gottfried, Rama, “SVG to OSC Transcoding: Towards a platform for notational praxis and elec-
tronic performance”, in Proceedings of the International Conference on Technologies for Music Notation and
Representation, 2015.
36 Miller, Daniel, Ibid.
37 Tomás, Enrique, “Musical Instruments As Scores: A Hybrid Approach”, in Proceedings of the Inter-
39 Bacon, Benjamin, “Tufte Design Concepts In Musical Score Creation”, in Proceedings of the Inter-
[…] the separation of rhythm and symmetry from each other and the division of
the arts into temporal and spatial is more than a misapplied ingenuity. It is based on a
principle that is destructive, so far as it is heeded, of aesthetic understanding. Moreover,
it has now lost the support from the scientific side it was once supposed to have. For
physicists have been forced in virtue of the character of their own subject-matter to see
that their units are not those of space and time, but of space-time. The artist made in
action if not in conscious thought this belated scientific discovery from the very begin-
ning. For he has always dealt perforce with perceptual instead of conceptual material,
and, in what is perceived, the spatial and temporal always go together. It is interesting
to note that the discovery was made in science when it was found that the process of
conceptual abstraction could not be carried to the point of excluding the act of obser-
vation without destroying the possibility of verification43.
I turn now to a thought experiment about how to notate a work of twentieth cen-
41 J.
Ho, M. Schedel, M. Blessing, “Women’s Labor: an installation and concert of new and old “fe-
minine” instruments”, Alliance of Women in Media Arts and Technology Conference University of California,
Santa Barbara, CA, 2019.
42 Park, So Jeong, “Sound and Notation: Comparative Study on Musical Ontology”, Dao 16.3,
44 Salter, Chris, Entangled: Technology and the Transformation of Performance, MIT Press, 2010.
Margaret Schedel 93
tury time-based art: László Moholy-Nagy’s Light Prop for an Electric Stage. It might
seem odd to choose a work where sound is not a main component of the experience
to write about in a chapter ostensibly about music notation. I chose this piece because
I think multi-media artists can learn much from studying music notation, and visa-
versa. By starting with a work where sound is not the primary component, and indeed
might not even be worth notating at all, we free ourselves from the burden of the
legacy of music notation and can approach the thought experiment with more liberty.
I am not trained in visual art, but I have a sense of form over time and enjoy creating
time-based visuals without the spectre of former teachers questioning and influencing
my choices. I think approaching a thought experiment about notation without a sonic
focus will yield more creative results.
Light Prop for an Electric Stage was conceived in 1922-30, built in 1929-30, and
refined throughout the artist’s lifetime. Edit Tóth eloquently called this piece a «light-
generating kinetic device rooted in a multiplicity of cultural practices, including jazz,
theater, cinema, optical toys, and architecture… offer[ing] an inventive example of
modern design and a challenging phenomenological experience»45. The purpose of this
kinetic sculpture was to create moving lights and shadows, and it is now seen as a key
work in the history of twentieth century art as an important pre-cursor to video arts/
abstract cinema. The mechanism itself is a 4 foot cube with an aperture on one side
with an assortment of different colored light bulbs that are programmed to turn on and
off in a two minute sequence. Between the aperture and the lights are a variety of gears
set on a rotating base connected to materials with various hues, opacities, perforations/
frets and albedos that cast shadows, reflections, and colored light fields onto the sur-
rounding walls (and audiences). An unnamed architect and a machinist built the origi-
nal sculpture to Moholy-Nagy’s specifications46, with additional help from the German
electrical company AEG; the artist subsequently refined the mechanism himself.
Moholy-Nagy produced a “score” for the work, which is merely a chart dictating
when each light should come on, but could we create a score for the work that would
allow a reperformance of Light Prop for an Electric Stage without access to the original
sculpture? I’m deliberately posing a more difficult problem than David Wetzel’s rec-
reation of Thea Musgrave’s Narcissus (1987) where he had access to the original equip-
ment, a Vesta Koza DIG-411. Similar to the light chart, the Musgrave’s score indicates
dial positions of the original hardware47.
There have been many copies made of the sculpture because the original work is
owned by Harvard University, and due to its fragile construction is only activated
once a month and it cannot travel. Indeed the original work has «suffered damage,
45 Tóth, Edit, “Capturing Modernity Jazz, Film, and Moholy-Nagy’s Light Prop for an Electric Sta-
news.harvard.edu/gazette/2007/07.19/00-modulator.html>.
47 Wetzel, David Brooke, “Analysis and Reconstruction of Interactive Electroacoustic Works for
Obsolete Technology: Thea Musgrave’s Narcissus”, in Proceedings of the International Computer Music
Conference, 2004.
94 Notation for an Electric Stage
48 Henry Lie, “Replicas of László Moholy-Nagy’s Light Prop: Busch-Reisinger Museum and Harvard
50 Ibid.
51 Ibid.
52 Benjamin, Walter, “The work of art in the age of mechanical reproduction”, Visual Culture: Expe-
55 An open source software language developed in 2001 for learning how to code within the context
direct connection to contemporary software designers, like John Maeda, Ben Fry and
Casey Reas, who studied in the visual design program founded by his protégé, Mr.
Kepes, at the Massachusetts Institute of Technology»56.
Does the “work” consist of only the resultant light and shadows, or does the physi-
cal presence of the sculpture impact the artistic experience? Would the humming of
the digital projector be the only sound, or should we also try and capture the «the
repetitive noises (the flipping of the ball, the rocking of connected planes and switch-
ing circles, meshing gears, and the subdued mechanical humming of the motor) that
constitute the acoustic dimension»57 of the work?
If we decide that the physical presence of a sculpture is necessary for an accurate
reperformance, could we use updated materials or would we want a “period reperfor-
mance.” Originally applied to older classical music, period performance attempts to
recreate the music of the past as closely as possible, with period instruments and the
study of stylistic and technical aspects of performance. I hear debates today in elec-
tronic music concerts about if we should playing pieces off the original magnetic tape
vs. a computer. Could the “best possible play of shadow formations” include smart
materials that bend and change opacity with and electric current? I think everyone
would agree that a recreation should adhere to Moholy-Nagy’s three distinct sections
with a playful character as designated in his description, but what about the idea of
“countless optical conclusions”? Would a reperformance in virtual reality that allows
avatars to place different materials beyond the physical limitations of gravity, friction,
and light be true to the spirit of the work? What about a future when humans have
cybernetic implants that allow sensation beyond our current capabilities? Light Prop
for an Electric Stage is a fairly simple mechanism, yet it can help us hypothesize about
the best practices for notating immersive work.
There are distinct differences between notation, reperformance, recording and ar-
chiving. Thus far I have touched on notation and reperformance; recording is a fairly
straightforward preservation technique, while archiving includes much more data
than a simple recording. Archiving Light Prop is a completely different task to notat-
ing it, and one that I am not an expert in. Ideally notation should work with archiving
so there is a way to access as much as possible of the initial work through documents
while allowing for a reinterpretation to be experienced fully. A reperformance of Light
Prop would depend on the archival materials included with the object itself. I turn
now to my colleague Federica Bressan, an expert in the field of multimedia installation
preservation. When I was researching the next section on archiving installations I kept
turning to her articles, and when I looked at her sources the quotes and references she
chose elucidated the points I wanted to make. I decided to go to the source, and she
generously agreed to write the following section.
56 Rawsthorne, Alice, “A Life of Light and Shadow”, New York Times, Oct 18, 2009.
57 Tóth, Edit, “Capturing Modernity Jazz, Film, and Moholy-Nagy’s Light Prop for an Electric Sta-
ge”, Modernism/modernity, 22.1, 2015, pp. 23-55.
96 Notation for an Electric Stage
With the blurred line between installations and performances, those who are in-
terested in the preservation of the former must be also concerned with the preserva-
tion of the latter. Despite the challenges that are specific to one or the other, there is
a fundamental overlap that resides in the live, transitory nature of these works, often
dependent on – as they have been called – “unstable” media58. From the viewpoint
of preservation, this “instability” is well captured in the expression “un-archivable”59.
Something “archivable” is understood to be stored “as is”, and this is not the case with
installations and performances, for obvious reasons related for example to their scale,
the moving parts, and the participation of humans as part of the work.
In the new perspective imposed by these works, the concept of “as is” is radically
challenged: the work of art is no longer a «unique piece created by an artist but a pro-
cess of cultural participation involving the public, the work itself, and the museum»60.
If these elements are recognized to constitute the work, they should all be reflected
in the complex object, or package, that is the “archive master”. The idea of “archive
master” is taken from the field of audiovisual preservation61, where the awareness
that the physical carriers will eventually degrade to the point where their content is
irrecoverable has informed preservation practices almost from the beginning, roughly
speaking in the late 1990s. Since then, the preservation of audiovisual documents has
been predicated on the dichotomy between content and container, and mostly seen
as content migration. In general terms, an archive master is an organized data set that
groups all the [relevant] information represented by the source document [both con-
tent and container], as well as the process of content migration62. This is an important
observation because even if the same dichotomy cannot really be found in installations
and performances, they share, in a way, the fate of audiovisual carriers, except their
degradation happens differently and much faster: it can be argued that most works
“disappear” every time the exhibition or performance is over.
Considering the lessons learnt in the audiovisual field can be useful63, especially
in the light of the fact that the traditional approach of museums has maintained itself
58 Capturing Unstable Media project (2003) led by the V2_ Lab for the Unstable Media in Rotterdam,
“Netpioneers 1.0. Contextualizing Early Netbased Art”, Berlin (Germany), Sternberg Press, 2010, pp. 81-99.
60 Barbuto, Alessandra - Barreca, Laura, “Maxxi pilot tests regarding the documentation of installa-
tion art”, in “Preserving and exhibiting media art”, Amsterdam (NL), Amsterdam University Press, 2013,
pp. 181-195.
61 Preservation copy or master in: IASA-TC 04, “Guidelines on the Production and Preservation of
Methodology and Software Tools”, Journal of Electrical and Computer Engineering, 2013, p. 21.
63 Bressan, Federica “A Philological Approach to Sound Preservation”, in Levenberg L., Neilson T.,
Rheams D. (eds.), Research Methods for the Digital Humanities, Palgrave Macmillan, Cham, 2018, pp.
342-261.
Margaret Schedel 97
diametrically opposed, and it still influences current preservation policies and prac-
tices: the focus is on “things” (rather than processes and intangibles), the concept of
“original” still applies (along with its aura), and many conservators attempt to «fix the
processual and fluid nature of these works»64 to fit established cataloguing standards
first designed for traditional beaux arts. Identifying what can be preserved and what
should be preserved is not an easy task. Installations and performances require a fun-
damental re-thinking of documentation modelling, one based on events and processes
rather than on fixed objecthood.
For the hardware (in the broad sense, every tangible component of the work) and
software components of the work, a useful approach is to assign functional «signifi-
cance to display equipment, its relation to the worlds identity based on conceptual,
aesthetic and historical criteria, and the role the equipment plays in the work»65. For
each component, we can ask: is the equipment functional or is it (also) conceptually
important? Is the equipment visible or hidden from view? The decision tree developed
by the DOCAM Conservation and Preservation Committee66 «allows stakeholders to
identify the problems and potential solutions associated with preserving works that
incorporate technological components», and can guide the decision making process at
the time when problems with the maintenance of the equipment arise. Depending on
the work and its specific problems, a simple replace with identical or equivalent parts
might be the best solution. However, the long-term problems of preserving the work
and the experience remain open.
Current documentation strategies are still grappling with these open problems,
but to their credit it should be said that the joint efforts of researchers and curators
has contributed to a significant advancement in this field, both theoretically and in
practice. Documentation is seen as a process, that spans across different stages of the
work’s life cycle: it includes information about the work’s «condition, its content, its
context, and the actions taken to preserve it»67. It is widely accepted that in most
cases, it is only the documentation that will survive the work, thus acquiring a new
importance as the [only] source of knowledge about the work, though not necessarily
in competition with the work.
Besides the work in and of itself, the idea, the concept or [conceptual] model can
be the object of preservation. The Variable Media Network (VMN) proposed a strat-
egy where artists are encouraged to define their work independently from medium
so that the work can be translated once its current medium becomes obsolete68. The
artist’s intent is considered by a number of international museums as the guiding
64 Dekker, Annet “Methodologies of Multimedial Documentation and Archiving”, in Preserving and
exhibiting media art, Amsterdam (NL), Amsterdam University Press, 2013, pp. 149–169.
65 Laurenson, Pip, “The management of display equioment in time-based media installations”, Studies
in Conservation, 2004, 49:sup2, 49-53, DOI: 10.1179/sic.2004.49.s2.011.
66 DOCAM’s Decision Tree: <http://www.docam.ca/en/restoration-decisions/a-decision-making-
model-the-decision-tree.html> (03/19).
67 Dekker, Ibid.
68 Ibid.
98 Notation for an Electric Stage
principle for their documentation69, and extensive audiovisual interviews are thought
to optimize the process of capturing his or her intention (often based on the interview
model proposed by the Forging the Future project70). When the artist is uninterested,
deceased, or unavailable for any reason, someone else is burdened with the responsi-
bility of making decisions about the work’s presentation and preservation with partial
information at hand. Sometimes the restorer’s domain needs to extend into the cura-
torial one. The decision tree mentioned above might give a sense of direction in situ-
ations of doubt, and shared (ideally standard) practices are preferable over individual
efforts to reinvent the wheel under the virtuous name of “adapting existing practices.”
Multi-layered models have also been devised to capture the complexity of these
works in documentation. Rinehart’s Media Art Notation System (MANS)71 has three
layers of implementation: the conceptual model of documentation, the preferred expres-
sion format (vocabulary) for the model, and the score, which serves as a record of the
work that is database-processable. The core concepts form a “broad strokes” descrip-
tion of the work that can be used by the artist or museum at the time the work is
created or collected. Further details can be filled in later in the life of the work, in line
with the idea of documentation as a process.
A different model for preservation, that does not prescribe a model of the work,
was introduced by one of the authors72 in collaboration with the University of Padua,
Italy. The model is organised in four layers, each of which serves as a container for spe-
cific types of documents. The layers are not in a hierarchical relation and were inspired
by a methodological framework for the preservation of scientific data. They adopt the
conceptual tools and the terminology of computer science: four levels of abstraction
from the bits (any part of the original installation that can be preserved “as is”), to
data (technical notes, comments about the realisation of the installation, including
high level descriptions of algorithms used), to record (any element that was modified
or updated in respect of original installation in order to re-interpret the installation),
to experience (any document that bears witness to some aspect of the human-machine
interaction).
Summarizing, the problems of preservation and maintenance of installations and
performances, and their re-interpretation, can be formulated as follows:
1. Preservation and maintenance: whether the replacement of an element violates or
“decreases” the authenticity of the piece, is a philosophical question. As such, it has
no right or wrong answer. This does not legitimize us to inaction, on the contrary
it calls us to take responsibility for our (informed, reasoned) choices, which should
always be declared, owned, and documented.
69 Hummelen, Ijsbrand “Conservation strategies for modern and contemporary art: Recent develop-
ments in the Netherlands”. CR: interdisciplinair vakblad voor conservering en restauratie (2005).
70 Variable Media Questionnaire, <http://variablemediaquestionnaire.net> (02/19).
71 Rinehart, Richard “The Media Art Notation System: Documenting and Preserving Digital/Media
level approach”, International Journal of Arts and Technology, 2014, 7(4), pp. 294-315.
Margaret Schedel 99
5. Conclusion
My first piano teacher was a Glenn Gould scholar who had studied with Nadia
Boulenger. I had trouble memorizing pieces, and she would ask why I had so much
73 Manovich, Lev, The Language of New Media, Cambridge, Mass., The MIT Press, 2002.
74 Ibid.
100 Notation for an Electric Stage
trouble if Gould could bring a score for a Bach fugue into a room without a piano, and
come out able to play it by memory. Musically I grew up in the shadow of this great
pianist, and yet I have a soft spot for him, even more so since I discovered he gave up
performing live and focused on creating work in the recording studio. Recently the
score Glenn Gould used when creating his second landmark recording of Aria mit
verschiedenen Veränderungen (known as the Goldberg Variations) has come up for auc-
tion. I use the word “create” very deliberately: this 1981 recording is famous because
Gould used extensive studio techniques to fashion the recording changing his own
timing, microphone placement, and recording levels, and finally splicing together
many different takes to create an interpretation that he most likely would not have
come to by performing the piece straight through, and might not be even be possible
to perform live without robotic intervention. Pianists can now use Nicholas Hopkins
transcription of the recording to recreate a performance that never occurred75. Gould’s
first recording of the Goldberg Variations was in 1955 and it launched his career, and
the popularity of this stunning work. As shown in Sony’s 2017 release “The Goldberg
Variations - The Complete Unreleased Recording Sessions June 1955” Gould also
recorded an astonishing number and variety of takes in his original release, but this re-
cording didn’t have nearly the number of splices as the second. The newly found man-
uscript for the 1981 session contains «minute detail of his assembly of the recording»76
and shows how «the performer’s once sacrosanct privileges are merged with the re-
sponsibilities of the tape editor and the composer»77.
I’m almost the opposite of Gould—while I understand the value of recordings I
have never felt comfortable with my works being recorded. I try to create pieces that
can be dramatically different each time they are performed, and I do believe that
composer-endorsed recordings become a type of urtext (an urklang perhaps) and an
immediate arbiter of what is an “authentic” performance of a piece78. If as Takemitsu
says the measure of the ‘only performance’ is the music each time it is heard, and that
continues to be the measure for every performance79, then I believe it is crucial to
create notation of works so that they can be re-performed. James Joyce may have said
he took credit for all the interpretations by every Ulysses scholar in the world, whether
any of them had occurred to him personally or not80. With music notation it is much
easier to trace interpretations back to the source, except perhaps with open/aleatoric/
graphic scores such as The Metaphysics of Notation. Bach could not have conceived of
75 Hopkins, Nicholas (ed.), Glenn Gould’s Goldberg Variations: A Transcription of the 1981 Recording
of the Goldberg Variations by Johann Sebastian Bach, New York, NY Carl Fischer Music, 2016.
76 Bonhams Books and Manuscripts, “A Holy Grail Of Glenn Gould Manuscripts”, 2018. <https://
www.bonhams.com/press_release/26779/> (02/19).
77 Gould, Glenn, “The prospects of recording”. High Fidelity, 16.4, 1966, pp. 46-63.
78 Shafer, Seth, “Performance practice of real-time notation”, Proceedings of the 2016 International
80 Holland, Bernard, “Debussy’s Ghost Is Playing, So What Can a Critic Say?”, New York Times,
a studio recording of his piece played on modern piano and streaming over the in-
ternet into headphones, yet he would be able to recognize his work. We should strive
for notation that allows recognition of the work in future interpretations, rather than
forcing increasingly improbable perfect reconstructions on period software/hardware,
or relying on frozen recordings.
103
1. Introduction
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 103-118
DOI: 10.13128/music_tec-11165 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
104 The aesthetics of notation in Japanese Electroacoustic Music
Let’s start with ICON as the early notation of electronic sound. In ICON, the no-
tation was created as the musical idea of the composer as well as the technical indica-
tions for sound realization.
In the score of ICON3, three parameters are graphically notated along with the
time scale (Figure 1). Frequency bands are indicated in the shape of rectangle in rela-
tion with time and frequency. Intensity from pppp to ffff is notated in relation with
time and decibel. Spatialisation is indicated as the position change regarding the five
speakers signed as A, B, C, D, E. The position change is written in two different ways;
the positioning in a pentagonal shape and the crossfade volume in each channel. The
1 Joji Yuasa’s idea of white noise composition is now programmed on Max/MSP by Akihiko Matsu-
moto. His patch visualizes the process of FFR by cross synthesis of graph and noise and enables realtime
composition through depicting the graph. <http://akihikomatsumoto.com/maxmsp/joji.html> (02/19).
2 Moroi Makoto, “Denshi ongaku no tenmatsu”, in Ongakugeijyutsu (Japanese music magazine),
1957, n. 8.
3 The graphic notation of ICON was published in 1968 in the additional volume of a Japanese music
magazine Ongakugeijyutsu.
Mikako Mizuno 105
pentagonal indication gives direct image of sound movements and the crossfade indi-
cation gives the technical procedure to realize the image.
ICON begins with a sound mass in the middle register, a narrow frequency band
between 700 and 875 Hz. This sound comes from channel B. Six-tenths of a second
later, a lower-middle register mass sound of wider bandwidth (80-875 Hz) starts from
a sound surface created by channels A, B, and C.
From the 20th second several pulse sounds and echoes are diffused. Various bands
of pulse sounds come from channel D and the echoes are diffused from channels A and
B. -- From the 29th second another group of pulse sounds and the echoes are diffused.
The pulse sounds come from channel A and the echoes are diffused from channels C
and D4.
In the latter half of ICON the relationship between the basic sound and the ech-
oes or the gradual movements from one plane to the other become more complex
and multi-layered. Yuasa described the movements in the terms of «following, catch-
ing up, passing» or «crossing» and the graphic notation gives a clear visualization of
each part.
In 1967 Yuasa had made several experiments with white noise5. Filtering the low
frequencies or other bands of frequencies, he recorded the sounds onto the tapes in
various speed in collaboration with NHK sound engineers. Before then, Yuasa was
deeply influenced by Daisetsu Suzuki and he took Suzuki’s philosophy of One imme-
diately Multi, Multi immediate One. Yuasa made several sounds by cutting off several
groups of frequencies depending on Suzuki’s philosophy because the situation of «one
equals to multi» presents itself in a white noise in the literally sense of words.
After Yuasa’s process of composition with several cut off methods on white noises,
he started to write graphic notation for the instrument part.
Putting the scale of frequency and pitch on the paper of logarithmic graph, I wrote
down the graphic score along with the time and the frequency change. Depending on
my graphic notation, the engineers worked to realize the sounds6.
In the process of notating ICON, Yuasa started to integrate the notation of elec-
tronic sounds into the instrumental music score. Since ICON Yuasa’s instrumental
music has been notated firstly on the grid paper then depending on the graphic nota-
tion the score was written on the musical staff7.
“Live electronic music” means in general live performance with electronic ma-
chines. In 1960s the term “live electronic music” indicates the electronic music in
which electronic sounds are produced or modulated by human actions in front of the
audience. Minao Shibata and his colleague Koji Sano used sometimes the phrase «a
sort of live electronic», and they did not give a decisive definition.
Sano used this term for Toshi Ichiyanagi’s APPEARANCE (1967) for three instru-
ments, two oscillators and ring modulation8. Sano explained the term “live electron-
ic” simply as «performing the electronic machine». Shibata also defines Mayuzumi’s
5 “Interview with Joji Yuasa in 2000”, in Koji Kawasaki (ed.), Japanese Electronic Music second edition,
7 Ibidem.
8 The first performance of this noisy piece of graphic notation was realized in US with John Cage
(electronic equipment), David Tudor (bandoneon) and others. The piece has been recently released in the
CD Obscure Tape Music of Japan, Edition Omega Point, Catalog n. opa 005, 2019.
Mikako Mizuno 107
Campanology for multi-piano (1966)9 as «a sort of» live electronic music. It is clear that
there is no decisive definition of live electronic music, but they admitted various type
of performances.
In the 1960s the term was mostly used for the performance of “tape + instruments”
or for the sound performance using electric gadgets. It should be remembered that the
activity of live electronic performances was developed at the same time of indetermi-
nacy. Also, it should be noted that these Japanese live electronic performances were
developed with both indeterminate improvisation and with graphic score. Ichiyanagi
himself talked about his understanding of live electronic performance as follows:
Live electronic music has non-studio-based style. The stage is the place both for
composition and for representation. There are no corrections, editing or re-takes that
had been the main operation in the electronic studio. Each operation should be the
stage performance. Composition and performance are inseparable because listening
leads to creating and responding causes finding10.
As a result, we have no notation for live electronic music in the 1960s other than
“tape + instrument” style. However, there were produced several documents concern-
ing the objects or the space design, in which the composers designed for performance.
These documents give us information about the performance environment.
Group Ongaku is said to be the first experimental music performance group in the
world. The group uninterruptedly realized live electronic music in the early 1960s.
This was the first time when Japanese composers were integrated in the Euro-American
avant-guarde scene.
Though Mayuzumi had written a short article about Cage in 1950, most Japanese
discovered Cage’s indeterminacy directly in January of 1961 during the concert of
Ichiyanagi and Yoko Ono. In October of the same year, Yuji Takahashi, composer and
pianist, gave a recital with Cage’s Winter Music, Ichiyanagi’s Music for piano No.2 and
other pieces. In November of the same year, several indeterminate pieces by Ichiyanagi
were performed, including IBM Event and musique concrète. The first public concert of
Group Ongaku was held before these two experimental concerts.
9 In a NHK radio program (1966), Mayuzumi explains about multi-piano in the following terms.
«Multi-piano is invented by inserting some objects inside the piano in order to create sounds similar to
electronic sounds. The microphone catches directly the waves of the piano strings and the waves are modu-
lated through the electric circuit. The timbre is more varied by filtering. So the output sounds from the
speakers are completely different from the piano sounds. This is the first piece for multi-piano, which was
realized through several experiments in collaboration with the engineers of NHK. Thanks to this instru-
ment system we can get easily electronic sounds, so human musicians can control the electronic sounds».
10 Toshi Ichiyanagi, “Possibilities of live-electronic music”, Ongakugeijyutsu (Japanese music maga-
-,!#/1'1*#+./-3'01'-,,"- (#100-,-/#0
#,2#-%#102'),**
1##.1#+ #/
!-+.-0#/.#/$-/+#/0 1'1*#-$1&#.'#!#
/-2. #1.*0+
)#&'0-02%'
#,,'!&'02%# +20'!$-/1.#
02,--,# ',--2,"4'1&%,#1'!.#$-/.','014'1&&#".&-,#
02,--,# ',--2,"4'1&%,#1'!.# $-/.','010
02,--,# ',--2,"4'1&%,#1'!.#
50
Group Ongaku included several non-genre members; Yasunao Tone (visual artist),
Takehisa Kosugi (performer), Mieko Shiomi (performer), Mikio Tojima (composer),
Shuko Mizuno (composer), Gennnichi Tsuge (musicologist, performer), and Yoshio
Tsukio (architect, performer). They gave repeated improvisational performances at the
Tokyo University of Arts and Tokyo University. That was before they knew Cage. The
name Group Ongaku was adopted in September 1961, when they gave a concert ti-
tled “Improvisation and objets sonores” in Sogetsu Kaikan (Diagram 1). Kosugi played
violin, sax and tape. Tone played sax and tape. Mizuno played cello, drums and tape.
Shiomi, Tojima and Tsuge played the piano, the cello and the guitar respectively.
It should be noted that the term objets sonores in the concert title meant physical
objects like electric cables, microphones, cans, boxes, instruments etc. With these
physical objects they could produce sounds. This term was used differently from that
of Pierre Schaeffer, because objets sonores were defined as the sound quality itself which
is correlative to reductive listening in the theory by Schaeffer and Michel Chion. For
the members of Group Ongaku, the body or the shape of the physical objects were
more important than the sound itself.
Kuniharu Akiyama, music critic, reported about this concert that
I think these pieces should get more sharpen-eyed criticism and high tension to
penetrate to the chaotic foundation before they fixed sounds on tape. These improvi-
sational pieces were rather interesting because the performers directly presented actual
questions without elaboration.11
This concert is important from two points of view. The first one is that the main
concept is the idea of improvisation, which appeared independently from the influ-
ence from Cage. The second point is that they accepted the notion of objets sonore
11 Kuniharu Akiyama, concert review of “Improvisation and objets sonores”, Ongakugeijyutsu (Japanese
from Pierre Schaeffer, but their ways to performance was quite different from his, and
the making-alive or the spatialization by Schafferian and similar works at GRM.
I don’t like notation and fixed design of electronic music. I was in the opposite side
of composition with pre-fixed design of sounds. Music is accepted not only through the
audible elements. The traditional concept of European composition is to fix and keep
the sound in figure. My concept was apart from that kind of composition.
Musique concrète is interesting but the sounds are fixed on tape. The element of
being concrete is pretty important but the concretization can’t be realized by playing
the tape. So John Cage and David Tudor selected live electronic performance.13
12 Even though Takehisa Kosugi and the members of Group Ongaku often performed with tape,
tape is not only a fixed media of pre-recorded sound material but functions as a totally new instrument.
13 Interview with Takehisa Kosugi (2000) by Koji Kawasaki, in Koji Kawasaki (ed.), Japanese Electronic
Kosugi denied notation both in the process of creating music and in the process of
producing sounds during the performance. For Kosugi, using tape as fixed media was
unacceptable because the process of sound producing was invisible even though the
tape machine was used as a physical object producing sounds. It is music notation that
Kosugi denied. In place of time-based music notation, Kosugi made texts descriptions
and sometimes graphical illustrations about how to install the objects or equipment
and in what type of space. The notes and graphs give information about the environ-
ment where the performer should make sound. These representations can be called
“environmental notation”.
Kosugi prepared the objects and the space with great elaboration, but the process
of producing sounds are free from fixed structure of composition. The notated perfor-
mance settings are designed as environments or as an instrument for the performance
with/without timeline.
Notation has been one of the controversial theme for Japanese composers. Japanese
composers were on the “ground zero” just after WWII. The new movements started
in the 1950s, when composers discussed the serious problem about the identity of
Japanese music. We find several important arguments about “Japanese” features com-
pared to Western music among Toshiro Mayuzumi, Makoto Moroi, Minao Sshibata
and Joji Yuasa in the journal Ongakugeijyutsu during the 1960s. The controversial top-
ics were timbre-pitch relation and notational strategies. Both topics concern deeply
the cultural differences between the two worlds, and are taken as a common problem
to Japanese traditional music and to live-electronic music.
In an article concerning ethnicity in modern music, Mayuzumi claimed that his
mentality was similar to the post-serial music by Stockhausen and Boulez, in the
sense that they were standing on the border line between the Western and the Eastern
worlds, in view of their philosophical identities14.
Compared to the situation of the 1940s, the aesthetic concept of extremism and
rationalism is becoming weaker today (in the latter half of the 1950s). The most impor-
tant problem for us concerns the philosophically serious dilemma between the Western
and the Eastern. But the dilemma is now becoming ambiguous. ----- If European cul-
ture be cut off from the modern rationalism, the difference between the Western and
the Eastern has no meaning because both of them seek irrationalism and relativism15.
Figure 2. Rokudan and OSAE technique in Koto in the traditional repertoire Rokudan (written
in musical notation) and the playing style.
The symbolic and serious problem for the composers concerning irrationalism and
relativism is how to create notation for Japanese traditional music. Japanese traditional
music called Hogaku does not have notation’s systems like that in European style. It
can’t be signified as the correlation of parameters such pitch, duration, intensity and
timbre. In the performing technique of Koto and Shakuhachi, for example, slight
pitch changes are mostly perceived as timbre and are identified by their original tra-
ditional names. Here I take the example of OSAE, one playing technique of KOTO.
The already mentioned Minao Shibata exemplified indivisibility between pitch and
timbre realized by OSAE. OSAE cannot be signified as pitch change in the European
style notation, because it identifies Japanese ethnicity of the timbre perception.
OSAE means originally the action of pushing something. Pushing the Koto string
makes the pitch higher, but the upper pitch does not function as the pitch itself but
should be heard as the nuances or change of timbre, like a modified resonance in live-
electronics including both pitch and amplitude changes.
The notated B signed with the array in (Figure 2) does not only signify the pitch
but it should be interpreted as a performing pattern for timbre of pushing the string to
higher the next note. Shibata pointed out the basic problem of notation for Japanese
traditional music.
European style of staff had been developed for the systematic scale of semi-tone
and whole-tone. In Japanese music the basic interval is the forth and mostly the forth
accompanies the complementary notes either upwards or downwards. The interval
between the basic tone and the additional tone is less than a half tone and changes
depending on the context of the phrase16.
That’s why one note, which is regulated by pitch and intensity, should be realized
with several microtonal or noisy nuances.
Timbre as a slight pitch change is also discussed by Joji Yuasa.Yuasa certified the
Japanese cultural singularity concerning timbre and the representation of the timbre
change that relates inseparably with microtonal pitch change. Yuasa also stressed the
style differences between European music and Japanese music. Pitch in European mu-
sic has been stabilized, while that of Japanese traditional music is always vibrating and
changing as well as timbre.
Toru Takemitsu wrote paradoxically about the Japanese sound and notation, as
follows.
Especially in the case of Japanese sound, one sound is not one sound. I am intere-
sted in what was abandoned as redundancy in the process of development of European
rational notation system17.
Shibata remembered the experience at the NHK electronic studio and said:
As I used to think music as some unstable fluid which is changing itself into various
forms, I enjoy creating electroacoustic music which can reveal the images of the spirit
of a dead person18.
• extremely high or extremely low register, which are used in contemporary music;
• Syo and Hichiriki in Gagaku are human voices which have been used as natural
sounds;
• Sprechstimme in Pierrot Lunaire by Arnold Schoenberg and the other rapid pitch
changes which are described «Soon after aiming at the specified pitch, the voice
flees up or down»19;
• noise, as sound events, which have no relation with the harmonic structure, after
short and momentary attacks of voice. The voice runs to the upper, or to the lower
range.
17 Ivi,
p. 4.
18 Minao Shibata, Nippon no Oto wo kiku (Listening the Japanese Sounds), Tokyo, Seidosha, 1983.
19 Shibata uses the rapid sound change in Phaedrus, for baritone and recorder (1978) and The Story of
Figure 3. 18 diagrams showing the bow movements of Ko-kyu in the notation for Minao
Shibata Leap Day’s Vigil (1972).
• japanese traditional instruments have both adjusted harmonic structure and noise.
In those last instruments Ne-iro20 is defined as non-regulated harmonic pitch, con-
trary to the regulated harmonic structure in the European instruments.
4.3. Notation in Shibata’s live electronic piece Leap Day’s Vigil (1972)
20 Ne-iro is another pronunciation of the same Japanese letters of the word which means timbre. A
Japanese word which means timbre has two different pronunciations, Ne-iro and Onshoku. Shibata uses
Ne-iro for Japanese traditional music.
114 The aesthetics of notation in Japanese Electroacoustic Music
tape
live
instrument
tape effect
modulation
0’0” 0’0”
1’30”
2’30”
3’00”
3’00”
4’00”
4’30”
5’00”
5’30
7’00”
8’00”
8’30”
9’00” 9’00”
10’30”
11’30”
12’00”
Figure 4. Time chart for a sample performance indicated in the notation of Minao Shibata’s
Leap Day’s Vigil (1972).
formers, which make unique timbre as heterophony. Keiji Azech, a Ko-Kyu player who
played Leap Day’s Vigil several times, says that Ko-Kyu has a dazzling timbre, it appeals
to the primitive humane emotion, and the feature of timbre seems could be produced
by irrational systems with indeterminate relations between pitch and timbre.
This notation (shown in figures 3 and 4) for instrument does only indicate how to
move the bow and to control the pitch change as timbre nuance but the precise pitch
is not shown as it needs continuous pitch change, live-performing and modified tape
echo etc. It is a kind of hybrid electroacoustic music of the 1970s.
This notation is rooted on the Japanese traditional sense, which has been conceived
as Ne-iro, that can be translated as tone color and/or timbre, but that includes also
register change, microtonal pitch change, and diversified resonance.
music. After the Osaka World Expo of 1970, which represented the great chance
for Japanese composers to realize their avant-guard concepts and especially to create
unique spaces, the conflict between Japanese traditional music and the European style
contemporary music got into the next phase, called «Re-thinking and Re-creation
of the Traditional Japanese Music»21. The age after Osaka Expo sees a growing of
international activities, above all in three prominent festivals at the end of the 1960s:
Nichi-Doku Gendai Ongakusai (1967-72, Festival of Japan-Germany Contemporary
Music), Cross-Talk (1967-71) and Inter-Media Art Festival (1969).
Masanori Fujita, one of the pioneer of musical integration between Japanese and
Western instruments, composed Dimension for shakuhachi, harp, percussions and
tape in 1973. This piece was premiered in the world tour of TOKK-Solisten-Ensemble
Tokyo22.
The score of Dimension has no notation of a unified timeline, which can show one
integrated time process. The score includes the outline of the entire structure (Figure
5), the three parts for each instrumentalist (Figure 6, 7, 8) and textual comments for
each player which explain how to read the signs on the score and how to make sounds
from each instrument.
The timeline of each part is partially indeterminate. The pitch of Shakuhachi is
sometimes indicated but mostly it is the player who decides the pitches. The timbre
and the length of each sound is indicated by seconds and by the breath amount.
The harp part starts at 35th seconds from the beginning. The harpist should follow
the arrowed direction and four axes (A, B, C, D) for several seconds (20secs, 25secs,
16secs, 27secs each). The pitches are not indicated by the composer. The length of
each note is not fixed but each axis should be played in the indicated time.
The percussion score is shaped in a big round in which timbre signs can be read
not only vertically and horizontally but also diagonally or helicoidally. There should
be 7 different percussions, including 3 Tam-tams, 3 Beckens, 3 Triangles, 5 antique
Cymbals,, 5 Temple blocks, glockenspiel and others. These percussions have different
timbres and the composer shows 9 timbres derived from 9 different ways of playing
21 Nihon Sengo Ongakushi (Japanese contemporary music after WWII), two volumes, Sengo Ongakushi
They realized a lot of concerts in order to introduce Japanese avant-garde music with excellent perfor-
mance. 34 musicians of TOKK ensemble travelled around from Iran, Germany, Italy, France, Belgium,
USA, Canada with Japanese Buddhist monks and a Biwa player. During the tour, Dimension was played
by Shizuo Aoki, Ayako Shinozaki and Yasunori Yamaguchi.
116 The aesthetics of notation in Japanese Electroacoustic Music
Tam-tams and Beckens, for example, beat the margins of the instrument, beat the center,
rub quickly around the centre with hand, tremolo on the centre notating electronics etc.
Concerning the intervals between two notes, three sections are indicated. In the first
section (0-4’30), the intervals are possible in the range from 0.5 second to 6 seconds,
and the range gradually narrows until the point of 4’30. From 4’30 to 5’00, the range
is limited from 0.5 to 1 second. In the third part, the range is broadened in the range
from 0.5 to 3 secs. Because irregularity is extremely important, the percussionist is
required to compose the rhythm himself before the performance.
5. Conclusion
Abstracts
M. Mazzolini
Musica elettronica e scrittura: appunti di un editore
Electronic Music and Writing: Notes from an Editor
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 119-122
DOI: 10.13128/music_tec-11167 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
120 Abstracts
M. Angius
Tra il segno e il suono, intervista a Marco Angius
Between Sign and Sound, Interview with Marco Angius
In this interview with Marco Angius, the music conductor was asked about the role
of technology in musical performances, the problems in the use of technological me-
dia and the evolution of his artistic-professional trajectory in electro-acoustic musical
productions. Mr. Angius offers insight into a number of topics that stem from his
interaction with technology, the splitting of the “sign” from sound and the resulting
notational and interpretational problems. He also focuses on his work during the re-
performance of Prometeo. Tragedia dell’ascolto by Luigi Nono in Parma in 2017. His
thoughts come from a privileged point of view, the person who has at the same time
the highest “control” over score and performers, and who embodies the medium be-
tween the latter and the electronic instruments.
C. Faia
Notating electronics
While we have always had the need to represent music — ephemeral and abstract in
every sense of those adjectives — a special need has been more recently, and acutely,
expressed in notating electronics and electro-acoustic music. This has presented com-
posers and copyists with a certain number of problems, including how to notate these
new sounds in the context of adapting a preexisting notational system, or with a pur-
pose designed scheme to respond to the perceived needs of the medium. After an over-
view of the history of notation in the context of contemporary needs, the article pre-
sents the merits of using the traditional system compared to creating new system(s).
In conclusion, moving towards a different system of notation is pitched against using
what we already know and use with some suggestions on moving forward towards
a common practice in notating electronics. Solutions are illustrated with real-world
Abstracts 121
examples taken from collaborative projects with composers Jonathan Harvey, James
Dillon and others over the last 20 years.
A.Valle
Notazioni elettromeccaniche, o forse no
Electromechanical Notations, or maybe not
The paper discusses some aspects of musical notation when including both a hu-
man component and a computationally controlled mechanical one. The main themes
taken into account in relation to musical notation are information visualization, code
writing, procedural abstraction. To this end, some of the author’s projects, developed
between 2008 and 2018, are presented, mostly scored for electromechanical devices.
This paper is a sprawling document covering practical issues about music notation
with more theoretical implications of notation. A distinction between reperformance
and preservation is elucidated, and a thought experiment of how to notate a time-
based light sculpture (László Moholy-Nagy’s Light Prop for an Electric Stage) en-
courages readers to think about notation as removed from sonic content. It is vital
for composers to create notation that goes beyond the notes, so that pieces involving
media can be re-performed in addition to creating an informed archive of the initial
state(s) of the work as mediated by the composer themselves.
M. Mizuno
The aesthetics of notation in Japanese Electroacoustic Music
This paper deals with the Japanese contemporary notation whose strategies are in close
relation with the aesthetic search for Japanese identity. It focuses on Japanese electroa-
coustic music of the 1960s and 1970s, with particular attention for live electronic mu-
sic. In this period Japanese composers are struggling for their musical identity which
122 Abstracts
has to have different language and different notation systems from those of Europe.
“Live electronic” develops in a unique style in the 1960s in Japan (incidentally, in the
same era when Japanese traditional music starts a new phase called Shin-Hogaku) in
a different way from that of Western cultures, even though some composers are af-
fected by Fluxus or Cagean aesthetics. Prescriptive notation of Japanese sound making
(much different from the hearing-based graphic visualization like the graphic repre-
sentation of musique concrète) is discussed in the first part. Chapter 2 focuses on the
notation of ICON by Joji Yuasa. Ch. 3 discusses Japanese live-electronic music as in-
determinate performance, while ch. 4 discusses notation in the new trend of Japanese
traditional music called Shin-Hogaku.
Keywords: Japanese live electronic music, Joji Yuasa, Minao Shibata, Takehisa Kosugi,
Masanori Fujita, Group Ongaku.
123
Biographies
Federica Bressan is a Fulbright scholar and Marie Curie alumna. Currently she is
a postdoctoral researcher at Ghent University, Belgium, and appointed Professor of
Digital Humanities at the University of Nova Gorica, Slovenia. She holds an MD in
Musicology and a PhD in Computer Science. The vision underlying her research con-
Musica/Tecnologia, 13 (2019), ISSN online 1974-0050, ISSN print 1974-0042, pp. 123-125
DOI: 10.13128/music_tec-11168 – http://www.fupress.com/mt
© 2019 Firenze University Press e Fondazione Ezio Franceschini
124 Biographies
cerns the co-evolution of technology and culture. Her main expertise is in the field of
multimedia preservation, with a special attention for audio and interactivity. She is a
member of the Steering Committee of the Ghent Center for Digital Humanities. She
was Guest Editor for the Special Issue on “Digital Philology for Multimedia Cultural
Heritage” of the Journal of New Music Research (2018), and General Chair for dif-
ferent international scientific events. She is active in science popularization, and she is
the host of the podcast Technoculture (http://technoculture-podcast.com/).
Marco Mazzolini is the Managing Editor of Casa Ricordi s.r.l. (Milan), in charge
for contemporary and classical music (catalogues of Milan, Berlin and London). Since
2014, he is artistic consultant for Milano Musica Festival and is the author of several
musicological writings, with a special interest in contemporary music. He is the su-
pervisor of the complete edition of Luigi Nono’s live electronic works in collaboration
with André Richard (among them: Prometeo. Tragedia dell’Ascolto, forthcoming).
In her spare time, she curates exhibitions focusing on the intersection of art, science,
new media, and sound and runs www.arts.codes, a platform celebrating art with com-
putational underpinnings.
Alvise Vidolin is sound director, computer music researcher, and live electronics
interpreter. He has given his services to several important Italian and foreign institu-
tions and has worked for several composers on the electronic realization and per-
formance of their works. He held the Chair of Electronic Music at “B. Marcello”
Conservatory of Music in Venezia from 1975 until 2009. He is co-founder and staff
member of Centro di Sonologia Computazionale (CSC-University of Padova) where
he is conducting his researching activity in the field of computer assisted composition
and performance, publishing various scientific works in the field of sound and music
computing and multimodal systems. He is a member of the scientific committee of
Fondazione Archivio Luigi Nono and a member of the Istituto Veneto di Scienze
Lettere e Arti.
Finito di stampare presso:
Logo s.r.l. Borgoricco (PD)
19,90 €
Poste Italiane spa - Tassa pagata - Piego di libro
Aut. n. 072/DCB/FI1/VF del 31.03.2005