Academia.eduAcademia.edu

Special Issue on Ubiquitous Music

2020, Journal of Digital Media & Interaction

https://doi.org/10.34624/jdmi.v3i5.3720

This paper outlines and documents a new metaphor for creativity support, creative semantic anchoring (ASC). Creative semantic anchoring involves the verbal grounding of sonic materials to achieve collective aesthetic decisions or to facilitate the transfer of musical knowledge. The strategy is especially useful for sonic classes linked to the daily experiences of the stakeholders – ranging from environmental events (e.g., biophonic or mechanical sounds) to instrumental renderings of everyday sounds. The present study proposes the evaluation of instrumental emulations of everyday sounds by means of semantic descriptions. Highlighting the subjective and technical aspects of the musical materials, we aimed to identify minimal requirements for the semantic content. Through a standardised procedure, fifty eight adult university students with intermediate musical knowledge evaluated seven musical excerpts. The results highlight two creative factors: the originality of the product and the subjects’ familiarity with the sonic material. The descriptors agradável [pleasant] - linked to strongly subjective aspects – and bemfeito [well done] - which refers to the technical aspects of the material – yielded the highest scores. We discuss the contributions and the limitations of the study, seeking to place the results within the context of the semantic-oriented design proposals for creative action in ubiquitous music research.

Journal of Digital Media & Interaction, Vol.3, No.5 Title Special Issue on Ubiquitous Music, Vol.3, No.5 Guest Editors Damián Keller, Marcello Messina and Francisco Z. N. de Oliveira Editorial Board Adérito Marcos, Álvaro Sousa, Ana Carla Amaro, Ana Isabel Veloso, Ana Jorge, André Neves, António Coelho, Bruno Giesteira, Carlos Santos, Cristina Ponte, Drew Davidson, Emília Duarte, Esteban Clua, Eva Petersson, Fernando Zamith, Francisco Providência, Guido Lemos, Guilherme Santa Rosa, Heitor Alvelos, Helena Pires, Janet C. Read, Joana Quental, João Canavilhas, Jorge Ferraz, Jorge Hidalgo, Jorge Martins Rosa, José Azevedo, Leonel Morgado, Luís Pedro, Lynn Alves, Maite Soto-Sanfiel, Manuela Penafria, Margarida Almeida, Mário Vairinhos, Miguel Carvalhais, Miguel Sicart, Miriam Tavares, Nuno Dias, Oscar Mealha, Patricia Dias, Paulo Nuno Vicente, Pedro Almeida, Pedro Branco, Penousal Machado, Rui Prada, Ruth Contreras, Valentina Nisi, Vania Baldi, Vasco Branco, Jussara Borges, Angeliki Monnier, Federico Tajariol, Jean-François Diana, Pierre Humbert, Xabier Rólan, André Lemos, Walter Lima, Roberto Duarte, Pablo Parra Valero, Rita Maia, Vania Ribas Ulbricht, Soledad Ruano López, Cassia Cordeiro Frutado, Raquel Recuero, Claudio Xavier, Rosario Fernándes Falero, Raimunda Ribeiro, Aurora Cuevas-Cerveró, Annamaria Jatobá Palácios Logo and Cover* Joana Beja Publisher University of Aveiro Support DigiMedia – Digital Media and Interaction SBIDM – Serviços de Biblioteca, Informação Documental e Museologia Copyright Information All work licensed under Creative Commons Attribution License that allows others to share the work with an acknowledgement of the work's authorship and initial publication in this journal. Copyrights to illustrations published in the journal remain with their current copyright holders. It is the author's responsibility to obtain permission to quote from copyright sources. Mailing Address Universidade de Aveiro Departamento de Comunicação e Arte 3810-193 Aveiro - Portugal E-mail: [email protected] Publication Date May 2020 ISSN 2184-3120 * Background photo created by sid4rtproduction - br.freepik.com 3 Table of Contents Special Issue on Ubiquitous Music | Volume 3 | Number 5 | 2020 Second Wave Ubiquitous Music: Collaboration, Automation and Knowledge Transfer for Creativity (Editorial)……………………………............................................................................. 5-20 Damián Keller, Marcello Messina and Francisco Z. N. de Oliveira Segundo Ciclo da Música Ubíqua: Criatividade na Colaboração, Automação e Transferência de Conhecimentos (Editorial)............................................................................. 21-37 Damián Keller, Marcello Messina and Francisco Z. N. de Oliveira ARTICLES Interação Timbrística em Música Ubíqua: A Ecologia de Metáforas da Esfera Sonora......... 38-59 Brendah Freitas, Damián Keller, Willian Ramon Barbosa Bessa, David Ferreira da Costa and Flávio Miranda de Farias A Metáfora da Esfera Sonora desde a Perspectiva WYDIWYHE.............................................. 60-88 William Ramon Barbosa Bessa, Damián Keller, Brendah Freitas, David Ferreira da Costa Internet das Coisas Musicais Aplicada a Instrumentos Musicais Robóticos ....................... 89-101 Higor Camporez, Anilton Garcia, Jair Silva, Leandro Costalonga e Helder Rocha Live Patching e Interação Remota: Uma Abordagem Prática Intercontinental com Kiwi...... 102-116 Marcello Messina, João Svidzinski, Deivid de Menezes Bezerra and David Ferreira da Costa Embasamento da Ancoragem Semântica Criativa: Estudo Exploratório com Emulações Instrumentais................................................................................................................................ 117-132 Damián Keller, Marcello Messina, Carlos Eduardo da Silva and Leonardo V. Feichas On Ecocomposition: An interview with Damián Keller.............................................................. 133-142 Tate Carson 4 International Journal of Digital Media and Interaction Special Issue on Ubiquitous Music, Vol.3, No.5, (2020) Second Wave Ubiquitous Music: Collaboration, Automation and Knowledge Transfer for Creativity (Editorial) 1 Damián Keller1, Marcello Messina2, Francisco Z. N. de Oliveira3 Amazon Center for Music Research (UFAC / IFAC), 2 (UFPB), 3 Federal University of Rondônia 1 [email protected], [email protected], [email protected] Summary This volume features a diversity of proposals gathered around the current efforts in ubiquitous music (or ubimus) research. Three papers provide contributions to timbre interaction involving lay participants. Two proposals target the development of network-based music making, one case features synchronous exchanges of visual code and another case proposes the implementation of musical robots within the context of the Internet of Musical Things. The volume wraps up with an interview on ecocomposition, one of the lines of research that has been nourished by ubimus initiatives. Bessa et al. outline the strategies within the WYDIWYHE perspective (what you do is what you hear), a new strand of interaction design based on ecologically grounded creative practices. This approach involves the use of visual aids to represent actions targeting sonic results, while encompassing touching, seeing and listening. The authors propose six strategies within this framework: space-time proportionalities, flexible temporalities, isomorphisms, direct manipulations, semantic abstractions and the use of relational properties. Messina et al. report on an intercontinental live-patching session based on the software Kiwi. This experience involved two groups from three different universities located in Brazil and France. According to the authors, this proposal has implications on the presence or absence of the human components in ubimus practices, on the patterns of territorialisation, on the operative actions and the related mnemonic-support processes within the group practice of live algorithms for music making. Freitas et al. describe an exploratory study of the Sound Sphere Metaphor. A group of undergraduate music students with no prior training on audio tools was invited to engage in creative activities in everyday settings. Despite yielding successful sonic outcomes, the results of the study highlighted the need for improvements in the experimental procedures. Targeting the infrastructure for ubimus activities, Camporez et al. suggest the use of sensors, actuators and connectivity for musical purposes within the context of the Internet of Musical Things (IoMusT). The paper discusses key concepts in ubimus for IoMusT-based activities, providing examples of the implementation and usage of musical robots (RoboMus). The authors focus on the development of robotic resources for synchronization. Their proposal features a mechanical delay-compensation system by means of a neural network. The authors also discuss the implementation of a precision time-protocol (PTP) and apply it in a clock for a musical robot. Creative semantic anchoring or ASC is a metaphor for creative action that uses verbal strategies to ground aesthetic decision making. Creative semantic anchoring involves the verbal contextualization of sonic materials to facilitate aesthetic decisions involving the transfer of musical knowledge. Complementing previous proposals on ASC, Keller et al. present a study that applies semantic strategies for the selection of sound sources. The study focuses on the evaluation of emulations of everyday sounds using semantic descriptors. The stimuli consisted of excerpts of violin solo works, based on imitations of everyday events. Seeking to obtain a quantitative picture of the relevance of the descriptors, the experimenters gathered responses from 58 university students with basic or intermediate musical knowledge. The results highlight ISSN: 2184-3120 CC 2020 DIGIMEDIA International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) the originality of the products and the subjects’ familiarity with the sonic material. The descriptor pleasant – linked to strongly subjective aspects – and the descriptor well-done – targeting the technical aspects of the materials – also got consistent scores. Carson furnishes a thorough interview with Damián Keller on the origins of the ecologically grounded perspectives on music making, including some of the recent developments within the ubimus field. The discussion unveils several aspects of the artistic and research projects that have not been previously addressed in the literature, encompassing topics such as ecocomposition, the function of everyday sounds in ubimus and the relationships between ecologically grounded music making and environmental activism. Art, technology and reflection Keller and Barreiro (2018) provide an overview of various trends within ubimus, highlighting two avenues of research that gathered increased attention during the last few years. They suggest that part of the ubimus research efforts have gone into the inclusion of a broader variety of participants in creative endeavors with a strong emphasis on untrained subjects and the participation of casual stakeholders. Casual participation presents very stringent demands, not only because of the lack of preparation for the musical activity forfeiting domain-specific training or extended periods of familiarization with the materials - but also because of the peculiar and unpredictable characteristics of the settings where many ubimus activities take place, such as transitory or leisure environments not projected as artistic venues. Another line of research has addressed the advancement of the extant musical knowledge based on the convergence of technological support, innovative artistic practices, complemented by the socially aware deployment of ubimus resources. This triad of technology, art and reflection is not exclusive of ubimus initiatives but points to potential crossovers with the related fields of ethnomusicology (Quiñones et al. 2013), sonic studies (Truax 1984), participatory design (Ehn 1988), computational creativity (McCormack and D’Inverno 2012) and the emergent ecological approaches to education and creativity (Malinin 2013; Pata 2009). Ubimus researcher Helena Lima has pioneered the development of a socially aware approach to music making, dialogics, involving intense collaborations and group-oriented activities. Mostly deployed in educational contexts, dialogics targets the creative engagement of participants in longitudinal and collective creative activities. The objectives of this approach entail the community-based construction of knowledge through reflective practices. The activities do not aim to yield genre-specific musical products but target selfreflection as a key component of the artistic engagements (Donald 2006). Everyday music making This volume provides a contribution to a decade-long effort toward the development of strategies for music making in everyday settings, targeting the inclusion of non-musicians as creative partners. These motivations are not new. They stem from a tradition of artistic practices that can be traced back to concepts such as that of furniture music – music that does not demand a special talent or specialized training to be experienced – proposed by composer Eric Satie at the beginning of the previous century. But a major difference of the proposals contained in this volume with the artistic trends that date back to the 20th century can be observed in the availability of a technological infrastructure that can be repurposed for creative endeavors. Furthermore, an expanded conception of music – from a static entity or a formal structure, to a dynamic self-organized process; and from an autonomous phenomenon to a socially constructed set of 6 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) relational properties firmly anchored in a specific material context – has led to the emergence of the multilayered research field called ubiquitous music (Keller et al. 2014a). According to Keller and Lazzarini (2017a), the increased reliance of current musical practices on social interaction, everyday settings and open-ended, exploratory activities have underscored the limitations of the existing toolset for creativity support. Social interaction has been brought to the forefront through the anthropology-oriented initiatives pioneered by Blacking (1973). For Blacking, the study of music – rather than the study of a fixed representation of instrumental actions on a score, or the study of the sonic byproducts of music making collected in recordings – entails the documentation and analysis of the musical activity during the act. This view is later condensed by Small (1998) in his verbalization of the musical processes as the act of musicking. The verb ‘musicking’ emphasizes the dynamic properties of creating, deploying and listening to musical products. Small’s proposal underscores the implicit hierarchies and contradictions of the stereotyped rituals of instrumental music, exemplified by the model of the orchestra, which enforce a separation between doers and receivers during the aesthetic decision-making processes. Ubiquitous music (or ubimus) has been defined as the study of systems of (1) human agents and (2) material resources that (3) afford musical activities through (4) creative support tools. This four-component definition encompasses the human factors, the material resources and the properties that unfold during the creative activities, combined with the design strategies that foster creative outcomes – targeting both the processes and the byproducts of the activities. It is interesting to note that the emphasis on the creative aspects of music making was not a consensual feature of the initial ubimus initiatives. During a first exploratory phase (2007-2014), the ubimus definitions placed a strong emphasis on the technological infrastructure – highlighted by the adoption of the term ubiquitous – hinting at a subset of issues related to ubiquitous computing (Weiser 1991). This perspective shows some limitations when faced with the diversity of social and cognitive factors triggered by the deployment of musical activities in everyday settings. In particular, the support for casual participation presents challenges that go beyond the focus on the musical performance targeted by a currently hegemonic approach to musical interaction (for an example of the latter, see the concept of virtuosic performance1 in Wessel and Wright 2002). Distributed musical resources Moving beyond the approaches centered on isolated tools, Lazzarini et al. (2015) propose the ubiquitous music ecosystem as a replacement for the fourth component of the ubimus definition (i.e., the creative support tools). The motivations are manifold. The implementation of isolated instruments or tools - as exemplified in NIME proposals - does not meet the demands for the relational and emergent characteristics of the casual participation and the opportunistic strategies observed in creative practices in everyday settings (cf. ubimus examples in Keller et al. 2013; Keller et al. 2015; Lima et al. 2017). While the adoption of traditional venues – such as the concert hall or the electroacoustic studio – ensures a material context and a set of social expectations geared toward professionally oriented music-making, casual participation in everyday musical activities exposes the stakeholders to acoustic and social factors that are seldom accounted for in the design of digital musical instruments. According to Keller and Lazzarini (2017a), ubimus support needs to be grounded on strategies that address not only the issues related to interaction and audio. 1 This view is found in the works targeting New Instruments for Musical Expression (NIME). Without dropping the emphasis on the implementation of isolated devices, this area has recently changed the word instruments for interfaces. As it will become clear in the discussion below, the undue focus of NIME on the device, the instrument or the interface does not necessarily help in the advancement of the support of creative practices. 7 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) It also needs to account for factors based on the relationships among the materials and among the agents, that emerge during the activity. Hence, a diversified perspective on ubimus ecologies is better equipped to tackle the dynamic processes that underlie everyday music making. The present volume features proposals that contribute to the advancement of musical knowledge through the deployment of support technologies (Camporez et al.), through group-oriented artistic practices targeting an intermediate level of technical expertise (Messina et al.) and through new approaches to knowledge transfer adopting design strategies grounded on ecological cognition (Bessa et al., Freitas et al,, Keller et al.). These contributions provide a healthy complement to some of the recent advances of the ubimus field, especially regarding the application of semantic strategies for knowledge transfer (Keller and Feichas 2018; Stolfi et al. 2019), ecologically grounded improvisation (Aliel et al. 2015; Messina and Aliel 2019) and the proposals that target development of the internet of musical things (Keller et al. 2019; Keller and Lazzarini 2017; Turchet et al. 2018). Let us take as an example the deployment of the Internet of Musical Things (IoMusT). Despite remaining mostly a theoretical construct, this proposal has gathered partial embodiments and contributions from various projects. According to Keller et al. (2019), there is a strong resemblance between the initial definitions of ubiquitous music and the recent conceptualizations of the IoMusT2. These two fields of study are complementary. While the development of the IoMusT targets the infrastructure needed for musical activities, current ubimus research focuses on the creative processes of music making linked to sustainability and more flexible forms of participation. Consequently, over the last decade ubimus has expanded its horizons to include aspects of music making that reach beyond the issues directly related to tool development and usage. Sometimes ubimus endeavours take advantage of local resources and available technologies through opportunistic design strategies involving repurposing. Hence, they do not necessarily demand new infrastructure (Flores et al. 2010; Keller et al. 2013). Other times ubimus projects call for custom, network-based professional audio technology aligned with the objectives of the IoMusT initiatives (Lazzarini and Timoney 2019; Zawacki and Johann 2012). Thus, Keller and coauthors envision a dynamic of mutual enrichment between ubimus and IoMusT. Ubimus experiences trigger the development of new IoMusT technology and as the IoMusT resources become available, they open fresh opportunities for applications in ubimus contexts. Given the potentially massive presence of the internet of things in everyday settings, the requirements and the affordances of the IoMusT components demand a careful consideration to clear the ground for an effective and, most importantly, ethical ubimus practice. Part of these issues are addressed by Camporez et al. in this volume. Keller et al. (2019) describe the development of a metaphor for creative action involving the use of hand gestures, Handy. The Handy Metaphor relies on body movements, targeting the use of both hands to enhance the creative potential of IoMusT-based sonic resources. The authors gathered feedback on the control capabilities and on the limitations of two prototypes through informal sessions with artists and musicians. The two implementations were based on very different technological platforms but shared a common interaction method. Both prototypes use hands and torso movements to drive synchronous audio synthesis and processing algorithms. While one prototype replicates the parametric approach featured in the design of the electronic instrument Theremin, the other implementation targets an exploratory usage of the relationships between body movements and sonic outcomes. The results point to a good potential for deployment in public areas. 2 See Pimenta et al. (2009) for an early definition of ubimus that focuses mostly on the technological infrastructure for music making. 8 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Another interesting strand of hardware development is proposed by Lazzarini and Timoney (2019). These leading ubimus researchers demonstrate the usefulness of an analogue-computing approach to electronic and computer music practices. They provide a general introduction to analogue technologies for music making, while tracing a historical parallel to the implementation of modular voltage-controlled synthesisers. The examples provided are relevant for the implementation of analogue audio signal-processing, pointing to practical applications in research and music production. Furthermore, their survey of state-of-the-art analogue computing highlights feasible candidate technologies that can be readily put to use in ubimus practices. Regarding the deployment challenges, the current quality of the analogue sonic renditions presents some constraints, including low signal-to-noise ratios and unreliable pitch/voltage stability. Synchronization may also be an issue to be addressed, which may seriously limit the scalability of these technologies. Assessing these issues and providing the necessary tools to correct eventual system malfunctions comprise key targets for future research. Despite the current technical caveats, the ubimus perspectives on analogue computing may yield new possibilities for musicological endeavors. For instance, this technology may be used to reproduce some of the early electronic musical practices. This avenue of research addresses an important aspect of ubimus, centered around the sustainability of cultural endeavors (Bernardini and Vidolin 2005), while reducing the ecological footprint of the current creative practices (Pereira et al. 2018). Regarding programmability - also a cornerstone of ubimus practices (Keller et al. 2014b) - Lazzarini and Timoney’s proposals give musicians and researchers flexible tools to manipulate sound through analogue means. This technology is not prescriptive in terms of musical genres or aesthetic approaches. Its open-endedness can be translated into components of digital-analogue devices for IoMusT usage both for professional practitioners (Turchet et al. 2018) and for everyday usage (Keller et al. 2019). Human components of ubimus ecologies Through the incorporation of the current perspectives on evolutionary theory, ubimus highlights the impact of the factors involved in hominid evolution on musical creative practice. Ubimus proposals have considered two approaches in this area: the social-brain hypothesis (Dunbar and Schultz 2007) and the nicheconstruction theory (Odling-Smee et al. 2003). The social-interaction mechanisms for survival comprise a central core of the first perspective. According to Dunbar and Schultz, the prediction of intentions has led to the development of the higher cognitive abilities of our species. Hominids that managed to predict the behaviors of other hominids had better chances to survive. Somewhat complementary, the approach proposed by Odling-Smee and coauthors explores the mutual relationship between the features of the local environment and the development of human cognition. As a response to uncertain environmental conditions, increasingly refined cognition mechanisms are adjusted to the characteristics of the local habitat. Simultaneously, the actions of the hominid groups shape the material resources to fit the group’s needs. These processes of mutual determination trigger the formation of ecological niches. Thus, the ecological niches do not only shape the access to material resources, they also shape the behaviors of the hominid groups. The two evolutionary theories just described provide the overarching theoretical context for multiple design choices in ubimus research. But what does a research program with music-making as its prime objective have to do with biology or evolution? The answers could fill an encyclopedia, but let us pick only a few major points featured by recent research. Evidence of music-making has been found in most Homo Sapiens populations (Honing et al. 2014); Furthermore, some researchers - based on archeological findings - believe that music-like behaviors 9 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) were also present in Homo Neanderthalensis (Mithen 2007). The pervasiveness of music making across cultures hints that the ability to make music may have been an evolutionary feature of the hominids. Music-like behaviors have also been observed in other species (Patel 2014) - for instance, the drumming patterns produced by some chimpanzees (Arcadi et al. 2004; Babiszewska et al. 2015; Dufour et al. 2015). Other authors question essentialized visions of music as a phenomenon that is necessarily associated with human agency (Mori 2017). Whether the ability to make music is an adaptive evolutionary trait or just a byproduct of previously existing neural circuitry repurposed through exaptation is an interesting question, though this issue is removed from the focus of this volume (cf. Pinker 1997). Recently gathered neurological evidence points to a reconfiguration of the neural paths through music training (Herholz and Zatorre 2012). This observation reinforces the idea that performative activities – such as musicking – may have played a big role in shaping human cognition, maybe acting in tandem with the adoption of cooperative group strategies (Dunbar and Schultz 2007; Mithen 2007). Various lines of investigation converge in musicking as a key element of socially grounded human cognition. Given the mounting evidence, it seems reasonable to push the definition of music a bit further. Current creative practices indicate that Varèse’s notion of musical material as organized sound is aligned with genrefree approaches to creative music-making (see Keller and Budasz 2010 for examples of contrasting approaches to musical creation). The instrument, the note, the rhythm, the melody or the harmony are all concepts that stem from the acoustic-instrumental music tradition, strongly biased toward metric and pitchcentered forms of sonic organization. Hence, these concepts imply choices that restrict the creative strategies to a narrow set of options. Despite being applicable to music made with acoustic instruments, they present serious limitations when applied to music based on volatile, distributed, ametric or pitch-free resources. If musicking is to be taken seriously as a phenomenon to be grounded in evolutionary theories, and/or contextualized within a complex web of human and non-human agencies, then its mechanisms for knowledge transfer cannot be restricted to a single occurrence of a cultural manifestation within a narrow historical time-frame that entails multiple racial, geographical and economic biases. Messina and coauthors address several of these issues in their contribution to this volume. Ecologically grounded creative practice Three of the papers in this volume are based on ecologically grounded perspectives to interaction design and creative sound making. These include the development of two metaphors for creative action: Sound Sphere and Creative Semantic Anchoring (abbreviated ASC from the Portuguese initials). Bessa et al. outline a new ecologically based interaction approach to design (Keller and Lazzarini 2017), the WYDIWYHE perspective. This method targets the relationships between doing (touching), seeing and listening. It features at least six design strategies: space-time proportionalities, flexible temporalities, isomorphisms, direct manipulations, semantic abstractions and the exploration of relational properties. 1. Space-time proportionality is exemplified in SoundSphere by representations that explore direct proportionality between timing and the visual space. This strategy can be extended to other modalities, including the use of material resources (within the field of tangible interaction) or the support for gesture interaction. 2. The adoption of flexible temporalities allows for the coexistence of various forms of temporal organizations – leaving in the hands of the participants the choice of sonic resources and their temporal distribution. In the 10 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) case of SoundSphere, this freedom is guaranteed by the possibility of incorporating any kind of sonic material. However, there is no specific support for periodic events, as usually imposed by systems oriented toward the metric standard. So, SoundSphere's temporality tends to prioritize creative organizations based on the use of timbre, relegating rhythm or pitch to secondary functions. 3. Isomorphism is a complementary aspect to flexible temporalities and is exemplified by the structure of the metaphors that foster the distribution of sonic resources without imposing hierarchies. For instance, SoundSphere supports the application of various procedures to organize materials, including sound sketches (used for the initial attempts to establish sonic relationships) and modular structures (which can be freely combined or can adopt specific constraints). SoundSphere also supports processing techniques and the use of multimedia elements – a concrete example is described by Aliel et al. (2019). However, the latter aspects are best represented when longitudinal observations are undertaken. Therefore they were not explored in the two studies reported in this volume. 4. Direct manipulation provides support for interactions that resemble everyday behaviors while giving priority to action-perception relationships. This is a strong component of ecologically grounded creative practices. In SoundSphere, direct manipulation is used in the selection panel and in the event-insertion mechanism of the interaction panel. 5. Semantic abstraction entails accessing complex processes through the use of written or spoken language. This strategy enables timbre manipulation through the application of audio-operators associated with labels chosen by the users. 6. Relational properties emerge from the interaction between the stakeholders and the environment (Keller et al. 2015). These properties are strongly tied to the local resources. In transitional spaces, they may impact the level of cognitive effort and the creative profile of the sonic products fostering an increase in their originality (Keller et al. 2013). The two articles targeting metaphors for creative action involve a loose meshwork of techniques that explore the semantic relationships between natural language and sonic organizational processes. Several design solutions based on the semantic descriptions of audio events and audio processes are covered by the paper Timbristic Interaction in Ubimus (Interação Timbrística em Ubimus). Freitas et al. point to timbre as a ubimus topic that presents complex challenges, especially when it encompasses lay-oriented interaction. Timbre parameterization cannot be handled by simplistic or arbitrary mapping strategies. Furthermore, semantic abstractions may not be amenable to untrained stakeholders. To deal with casual usage of elaborate parametric configurations, the authors put forth a two-tier approach to an ecology of metaphors for creative action. Freitas et al. discuss a variety of approaches to timbre interaction, honing in on the demands for casual interaction (Borning and Travers 1991). Previous experiments with nonmusicians indicate that factors such as the time investment and the resource demands share a similar level of importance as the quality of the creative outcomes. Therefore, simplistic solutions enabled through arbitrary mappings or the uncritical adoption of acoustic-instrumental methods may not be applicable to timbre interaction involving lay participants. Timbre manipulations often happen in conjunction with other creative activities - including selection, mixing, editing or sharing of musical data. The experimenters asked a group of undergraduates to use - during creative open sessions - a tool ecology centered on the Sound Sphere Metaphor. Most participants successfully completed their tasks. However, a number of issues were raised regarding both the materials and the tool usage. The results indicated the need to improve the visual feedback on the soundprocessing type applied on each sonic event. 11 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) The study reported by Bessa et al. indicates that the Sound Sphere ecology presents a good potential for timbre interaction in everyday and educational contexts. The application of a semantic strategy fosters the rapid transfer of highly technical and specialized knowledge without requiring long periods of domain-specific preparation or training. In line with the results obtained in previous ubimus experiments (Keller et al. 2013), the transitional spaces have a positive impact on the originality factor but this effect is not present in the assessments of relevance of the creative products. In line with the results obtained with other metaphors for creative action (such as time tagging, spatial tagging, graphic-procedural tagging, or the use of creative surrogates), most subjects labeled the activities with the Sound Sphere Metaphor as being fun and enjoyable. They also reported a high potential for collaboration. Collaboration and temporality in ubimus Aligned with the second component of the ubimus definition, two contributions in this volume target the development of practices based on distributed resources. Since the beginning of the field, this area has been approached by multiple initiatives (Brown et al. 2014; Miletto et al. 2011). An early question is whether the networked environments for music making should be modeled after the extant acoustic-instrumental practices or whether they require new forms of social engagement. Related to this issue, we should also ask if there are built-in limits in the remote participation of multiple stakeholders or if the extant limitations are only related to the temporary lack of technological support. A case in point is the recent confluence of multimodal resources contributing to the formation of a tactile internet (Maier et al. 2016). In theory, this technology allows for multimodal forms of interaction that can be engaged in real time within a maximum radius of 300 kilometers. The tactile internet should enable ubimus participants to share haptic and visual data, thus enhancing the quality of their engagement in synchronous musical activities. Furthermore, virtual reality and robotic resources may become accessible through the network, minimizing the boundaries between colocated and remote resources. The increase in the speed, bandwidth and reliability of internet connectivity may impact positively the music practices that rely on synchronized timing, that depend on the immediate feedback from partners and on data-intensive cues. In particular the activities enabled by video-based scoring, haptic devices (Chafe 1993), smell-rendering devices (Kontukoski et al. 2015) and movement tracking (Rokeby 1986) may be further enhanced. But it is not yet clear if the tactile internet will provide support for key aspects of the creative cycle, such as the selection of massive audio resources or the ability to predict effective musical outcomes when the actual sonic resources are only partially known. These two issues may depend on creatively oriented strategies for design that do not rely exclusively on synchronous interaction. For instance, the current speed or the bandwidth of the internet is not a bottleneck for the musical activities that do not depend on acoustic musical instruments. Synchronization is a serious limitation in remote performances by acoustic ensembles (Barbosa 2010). But this caveat only applies to the acoustic-instrumental formats when 19th-century musical practices are adopted. If these issues are approached as musical opportunities rather than as technological caveats, then the requirements for tight synchronization are relaxed (Bhagwati 2013). Flexible approaches to the organization of musical time may be more effective than the solutions based on the adoption of new technologies for old musical genres. Given these challenges, Camporez et alii’s implementation and usage of robots may complement the existing initiatives to deploy ubimus resources through internet connectivity. The authors focus on the development of synchronization for robotic musical devices. Their proposal of a mechanical delay compensation though trained neural networks may push toward alternative solutions for device12 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) synchronization problems. The authors also discuss the implementation and usage of a precision time protocol (PTP) and apply it in a musical-robot clock system. According to the authors, the modified message format helps to compensate for the mechanical delays, bringing greater robustness to the platform. The physical wear of the mechanical components can interfere with delay timings. To handle this issue, the neural network can be retrained to learn the new configuration yielding an adjusted response. In addition, performance delays may occur due to the heating of the mechanical components. These variations may be predicted and corrected by the adaptive clock system. Building upon a growing trend on systems based on browser platforms, Messina et al. report on the usage of intercontinental live-patching sessions based on the visual language Kiwi. This creative activity is closely related to live coding (Sorensen and Brown 2007) and belongs to a family of initiatives that we could describe as network-based ubimus that target the use of remote resources for collectively shared creative outcomes (Miletto et al. 2011). Kiwi (Paris et al. 2017) is a port of the well-established visual language Pure Data (Puckette 1997). The advantage of Kiwi over its predecessor is its design tailored for browser platforms. Thus, collaboration and online usage are built-in characteristics. Furthermore, the integration of web-based components is also facilitated. Kiwi patches were developed by the Live/Acc/Patch group and the University of Paris 8 music-technology undergraduate class, each group adopting specific patching strategies. This intercontinental patching experience features a combination of small elements that interact dynamically as autonomous structures. The issue of temporality gains a dimension that encourages open, collaborative and non-hierarchical approaches. In Kiwi, all the participants retain the same, unrestricted rights. From a software engineering perspective, this may be considered a downside. In addition, the operations on each patch do not leave genealogical traces, thus it is not possible to establish the authorship of a specific object or comment on a patch. Consequently, potential hierarchical barriers - such as instructor vs. student or group a against group b - are erased. According to Messina et al., the group practices of live algorithms for music making has implications on the presence and/or absence of the human components in ubimus practices, on the patterns of territorialization, on the operative actions and on the required mnemonic-support. The live patching experience confirms the operativity of a common behavioral pattern in computer music practices: the development of new tools is intertwined with compositional and social issues that arise from musical creation. This approach could be expanded through two strategies. Firstly, to make up for Kiwi’s technical limitations on signal processing and audio tools, it may be possible to integrate the Faust language when involving intermediate or advanced users (see Lazzarini et al. 2014 for a discussion of ubimus usage of Faust). Secondly, live patching may be combined with concert practices based on improvisation or based on open works. This second proposal is aligned with the recent developments in ubimus comprovisation (Aliel et al. 2015). Surfing the second wave of ubimus proposals: Hints at future research avenues The papers featured in this volume encompass a range of topics linked to several major lines of research that emerged during the second wave of ubimus initiatives. These include: (1) support strategies for knowledge transfer that may enable laypeople to access complex creative musical processes; (2) live patching as a ubimus-oriented activity that incorporates live coding without inheriting the aura of a practice “just for the specialist” (typical of its source of inspiration); (3) the use of robotics as a component of ubiquitous music ecosystems, potentially contributing to the deployment of an Internet of Musical Things; and (4) two examples of metaphors for creative action: Sound Sphere, highlighting its deployments in everyday settings and Creative Semantic Anchoring (ASC), targeting the incorporation of semantic strategies 13 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) for music creation and performance. These last two examples are inserted within a research field that has received an increased amount of attention in ubimus during the last few years - ecologically grounded creative practices. This perspective has been applied in formal educational contexts (Lima et al. 2012; Lima et al. 2017), everyday settings (Ferreira et al. 2016; Keller and Lima 2016), music theory (Keller and Lazzarini 2017), comprovisation (Aliel et al. 2015; Aliel et al. 2018) and multimedia art (Connors 2015; Gomes et al. 2014; Keller et al. 2014b). The volume closes with an interview by Tate Carson that documents the first initiatives in ecologically grounded creative practice and discusses some of the recent contributions to this field. The five papers featured in this volume provide a sample of the diversity of applications that characterize ubimus initiatives. When placed within the context of the current definitions of ubimus, it becomes clear that the field has moved beyond an exclusively technological focus of a subcategory of ubiquitous computing towards a multidisciplinary endeavor. The political and ideological preoccupations addressed by Messina and partners are good counterparts to the educational and philosophical implications explored by Lima and coathors (2012) and (2017). The artistic and aesthetic consequences of the methods adopted in this paper are shared by the comprovisational proposals laid out by Aliel et al. (2015) and (2018). Furthermore, this proposal expands the ubimus practices based on browser platforms, pointing to issues that were not addressed by the initial ubimus projects (Miletto et al. 2011). Knowledge transfer. The three proposals that build on ecological creative practice provide fresh perspectives for this expanding field. Until recently, semantic strategies were not considered tools of the trade in ecocomposition (see Carson for a historical context). The multimodal aspects of the eco-based practices have pushed for an integration of verbal elements in knowledge transfer. An initial hint was given by the implementation of creative surrogates, digital resources that represent the source materials to enable fast transfers among participants (Keller et al. 2015). C-surrogates incorporated labels, hence the usage of verbal commands is just a further refinement of this proposal. While the results obtained by Keller and coauthors place the emphasis on the relationship between the semantic content of the musical excerpts and the listeners previous experiences through the quality of familiarity, they also point to the possibility of using semantic strategies to assess the originality of the sonic products. The metaphors for creative action proposed by Bessa et al. and deployed by Freitas et al. indicate the applicability of this proposal. Nevertheless, further studies are necessary to establish the limitations of these methods. For instance, the study by Freitas et al. indicates a complex relationship between the sonic characteristics of the sound sources and the timbre parameters. While it may be possible to attach a consistent label to a timbral procedure, the sonic outcome is both dependent on the sound being processed and on the type of audioprocessing in use. This means that simple recipes like “if you have this sound and you want this type of result, then you use this timbral operator” are not applicable. How can we enable reliable knowledge-transfer strategies for open-ended aesthetic decision-making? This issue will demand further iterations of design, implementation and assessment. Live patching. Regarding the approaches to group creativity, if we place the ubimus patching experience within the context of the ongoing ubimus collaborative practices on browser platforms, some interesting aspects come to light. Temporality seems to be a common design quality that cuts across all ubimus online practices. The volatility of the resources provided by Kiwi seems to reduce the window for negotiations among the participants. Furthermore, the immediate sonic outcome of live patching implies a reliance on an existing code base. As new code is added, all errors are immediately reflected by the sonic outcome. The unrestricted access to the shared patches implies that all participants may modify the code simultaneously. 14 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Destructive behaviors may sabotage the group’s sonic outcomes. Hence, other means of negotiations may be necessary. For instance, opportunistic strategies involving chatting or voice exchanges through browserready tools could be employed to overcome eventual misunderstandings. This approach presupposes a shared natural language among all participants. This was not the case in the reported experience, which featured French components that did not speak Portuguese and Brazilians that did not know French. Alternatively, destructive actions could be avoided through the implementation of selective sharing mechanisms. For instance, parts of the patches would be available for collective action while other parts would be reserved to individual actions or to a restricted group of individuals. In a sense, this approach is already adopted by ubimus comprovisational practices. Some resources are open to contingencies, while others are predetermined (Aliel et al. 2018). Complementarily, the dynamics of sharing could also be subjected to temporal constraints. For example, some resources could be persistent and accessible throughout the session while others remain accessible only within user-defined temporal windows. This temporal restriction would enable a more refined strategy of aesthetic decision-making. Persistent resources could ensure the structural stability of the sonic outcome, while volatile resources would still be available to enrich the experience through contingencies. This technique can be defined as time-sensitive or volatile ubimus patching. Robotic musical things. The example we just discussed highlights the centrality of the resources’ temporal qualities in ubimus activities. While a simplistic approach to musical interaction could adopt the computing labels of synchronous or asynchronous processes, second-wave ubimus designs demand a more subtle analysis. Ubiquitous music ecosystems involve material resources that encompass both the processes directly related to the sonic outcomes and the support mechanisms that enable decision-making but that do not impact the musical products directly. Consider, for instance, the design quality of volatility. Volatility may be tied to the social interactions fostered by the musical activity. Casual participation involves the engagement of stakeholders that may not be necessarily acquainted with the resources available for the activity. This limitation imposes very high demands on the usability of the support infrastructure, forcing the designs to target fast installation or configuration or preprocessing of resources. These requirements can be bypassed by interaction strategies that distribute the functionality among various groups of participants with specific profiles. By entering the creative cycle at different stages, these participants furnish pieces of knowledge that add value to the resources and enable a more intuitive interaction. For example, advanced users may provide complex parametric configurations that casual users can retrieve by means of meaningful semantic tokens (see Freitas et al.). Thus, the different levels of expertise are employed as assets for collaborative ubimus endeavors. Advanced users provide persistent resources. Subsequently. these resources are accessed by other participants through opportunistic usage. One of the many forms of temporality that are relevant to ubimus design is synchronicity. Synchronization mechanisms are available for most studio-based audio processes, but support becomes much more rare when the musical resources are not colocated. As suggested by Turchet et al., among other authors, one of the requirements for effective IoMusT deployments is the existence of standard protocols that enable message exchanges among musical things. The contribution by Camporez et alii may be applied to a range of resources that demand synchronization, including haptic, visual and sonic rendering devices. The adaptation of the Precision Time Protocol described by Camporez and partners may fill part of this gap. The proposed mechanisms of compensation of temporal delays could ensure synchronization and recovery from flaws in transmission. The authors also comment on the issues related to human-robot interaction which have not been addressed by the projects targeting the deployment of the IoMusT. The caveats are non- 15 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) trivial. Let us take as an example a simple four-node network with two nodes involving human participants and with robot partners in the remaining nodes. For a synchronous session that includes free contributions from the human nodes, the minimum information that has to be shared is the synchronized sonic output from all the nodes. This implies that the transmission timing accuracy and the fluctuations should remain within sample-accurate delays. This is feasible for local setups, similar to those exemplified by the authors. But as soon as we access nodes through wide-area networks, the tendency is to degrade the performance to a range of a few milliseconds. This degradation could be avoided by the use of the tactile internet. Though there are still several challenges to be overcome to make this proposal deployable. Another issue of concern is related to the concept of distributed creativity (Literat and Glaveanu 2018). Ubimus research has boosted the importance of distributed creativity through the incorporation of remote resources for musical activities and through the increased empowerment of lay participants in group-creative endeavors. While other approaches to music making rely on the creativity of the individual - including the virtuoso performer, the almighty director of the orchestra, the enlightened composer or the geeky studio technician - ubimus practices have given the casual participants (Pinheiro da Silva et al. 2013), the novices (Miletto et al. 2011) and the robots (Camporez et al. 2018) the center of the stage3. This raises the stakes. As discussed by Coelho de Souza and Faria (2011), autonomous machines may eventually provide highquality aesthetic experiences which may be enjoyed only by other autonomous machines equipped with the right perceptual capabilities. Despite sounding strange, if we turn this claim around it becomes clear that we are quickly approaching a point of no return. The amount of sonic garbage produced by everyday appliances (with a special note on the mobile telephones) is becoming ever-present in homes, offices, terminals, streets and even hospitals! What does it take to reduce the amount of unwanted audio? It takes noise-cancelling headphones. But these headphones, as well as the usage of portable sonic devices with regular headphones, come at the price of almost complete auditory isolation from the environment. The risk of distributing the decisions on how our soundscape behaves to the mobile-telephone, the microwave or the refrigerator industries4 is that we give up our right to choose our own soundscape. A similar problem is produced by the massive deployment of autonomous musical robots. If they are able to decide when and how to play music, how do we deal with the devices deployed in public spaces? Who decides how they behave? The robot factory? The government? A casual user? Furthermore, with the increased reliance on the robots’ higher functionalities by the human participants in IoMusT-based activities there is the danger of a general decline of the human creative abilities5. As Carr (2013) suggested, “relying on computers to fly our planes, find our cancers, design our buildings, audit our businesses is all well and good, but what happens when machines fail and humans have become increasingly deskilled due to automation?” We may want to rethink what kind of sonic world we want to inhabit. References Aliel, L., Keller, D., Alvim, V. R. (2019). A Soundtrack for Atravessamentos: Expanding Ecologically Grounded Methods for Ubiquitous Music Collaborations. In: M. Aramaki; O. Derrien; R. KronlandMartinet; S. Ystad. (Org.). 14th International Symposium on Computer Music Multidisciplinary Research. 1 ed. Marseille, France: PRISM, v. 1, 652-662. 3 To be accurate, ubimus has erased the symbolic hierarchy of stage vs. audience. 4 These are just the most pervasive items, with the popularization of the internet of things it is highly likely that all appliances will include sonic actuators and controllers. 5 This phenomenon has already been observed in several studies of mobile-telephone usage. The pure presence of the device has a negative impact on the subjects’ cognitive capabilities. 16 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Aliel, L., Keller, D., & Costa, R. (2015). Comprovisação: Abordagens Desde a Heurística Estética em Ecocomposição. XV Simpósio Brasileiro de Computação Musical (SBCM 2015) (pp. 169-180). Campinas, SP: SBC. (ISBN 2175-6759). Arcadi, A. C., Robert, D., & Mugurusi, F. (2004). A comparison of buttress drumming by male chimpanzees from two populations. Primates, 45(2), 135-139. Babiszewska, M., Schel, A. M., Wilke, C., & Slocombe, K. E. (2015). Social, contextual, and individual factors affecting the occurrence and acoustic structure of drumming bouts in wild chimpanzees (Pan troglodytes). American journal of physical anthropology, 156(1), 125-134. Barbosa, A. (2010). Performance Musical em Rede. In D. Keller, R. Budasz (eds.), Criação musical e tecnologias: Teoria e prática interdisciplinar, Goiânia: Anppom (Série Pesquisa em Música no Brasil, v. 2), pp. 180-200. (ISBN: 978-85-63046-01-7). Bernadini, N. & Vidolin, A. (2005). Sustainable live electroacoustic music, eContact 8(3). Blacking, J. (1973). How Musical is Man?. Seattle, WA: University of Washington Press. Borning, A., & Travers, M. (1991). Two approaches to casual interaction over computer and video networks. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 13-19). Brown, A. R., Stewart, D., Hansen, A., & Stewart, A. (2014). Making meaningful musical experiences accessible using the iPad. In Ubiquitous Music (pp. 65-81). Berlin and Heildelberg: Springer. Camporez, H. A. F., Neto, A. F., Costalonga, L. L., & Oliveira Rocha, H. R. (2018). Interface Computacional para Controle Musical Utilizando os Movimentos dos Olhos. Revista Vórtex, 6(2), Dossiê Música Ubíqua. Carr, N. (2013). All can be lost: The risk of putting our knowledge in the hands of machines. The Atlantic, 11, 1-12. Chafe, C. (1993). Tactile audio feedback. In Proceedings of the International Computer Music Conference (ICMC 1993) (pp. 76-79). Tokio: ICMA. Coelho de Souza, R. C., & Faria, R. R. A. (2011). Oito Reflexões sobre a Criatividade na Composição Auxiliada por Computadores. Proceedings of the 13th Brazilian Symposium on Computer Music (SBCM 2011), Vitória, ES: SBC. Costalonga, L. L., Pimenta, M. S., Queiroz, M., Manzolli, J., Gimenes, M., Keller, D. & Faria, R. R. A. (2011). Proceedings of the 13th Brazilian Symposium on Computer Music (Simpósio Brasileiro de Computação Musical - SBCM ).Vitória, ES: Brazilian Society of Computer Science (SBC). Donald, M. (2006). Art and cognitive evolution. In Mark Turner (ed.), The Artful Mind: Cognitive Science and the Riddle of Human Creativity. Oxford, UK: Oxford University Press, 3-20. Dufour, V., Poulin, N., Curé, C., & Sterck, E. H. (2015). Chimpanzee drumming: a spontaneous performance with characteristics of human musical drumming. Scientific Reports, 5, 11320. Dunbar, R. I., & Shultz, S. (2007). Evolution in the social brain. Science, 317(5843), 1344-1347. Ehn, P. (1988). Work-oriented design of computer artifacts. Stockholm, Sweden: Arbetslivscentrum. Flores, L., Miletto, E., Pimenta, M., Miranda, E., & Keller, D. (2010, September). Musical interaction patterns: Communicating computer music knowledge in a multidisciplinary project. In Proceedings of the 28th ACM International Conference on Design of Communication (pp. 199-206). Herholz, S. & Zatorre, R. (2012). Musical Training as a Framework for Brain Plasticity: Behavior, Function, and Structure. Neuron 76(3), 486 – 502. Honing, H., Cate, C., Peretz, I., & Trehub, S. E. (2015). Without it no music: cognition, biology and evolution of musicality. Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences, 370, 20140088. https://doi.org/10.1098/rstb.2014.0088 Keller, D., Gomes, C., & Aliel, L. (2019). The Handy Metaphor: Bimanual, touchless interaction for the internet of musical things. Journal of New Music Research, 48(4), 385-396. Keller, D., & Barreiro, D. (2018). Editorial Seção Temática Música Ubíqua: Forças de atração e desafios na pesquisa ubimus. Revista Vórtex, 6(2). 17 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Keller, D., Capasso, A. & Tinajero, P. (2015). Creativity-centered design from an ecologically grounded perspective: Activities and resources in Palafito 1.0. Journal of Cases on Information Technology 17 (4), 1-19. (Doi: 10.4018/JCIT.2015100101.) Keller, D., Flores, L. V., Pimenta, M. S., Capasso, A. & Tinajero, P. (2011). Convergent Trends Toward Ubiquitous Music. Journal of New Music Research 40(3), 265-276. (Doi: 10.1080/09298215.2011.594514.) Keller, D. & Lazzarini, V. (2017). Ecologically grounded creative practices in ubiquitous music. Organised Sound 22 (1), 61-72. Keller, D., & Feichas, L. (2018). Ecocompositional and Performative Strategies for Creative Usage of Everyday Sounds: Creative Semantic Anchoring. Leonardo, 51(2), 195-196. Keller, D. & Budasz, R. (eds.) (2010). Musical Creation and Technologies: Interdisciplinary Theory and Practice (Criação Musical e Tecnologias: Teoria e Prática Interdisciplinar), Vol. 2. Goiânia, GO, Brazil: ANPPOM Press. (ISBN: 978-85-63046-01-7). Keller, D., Lazzarini, V., & Pimenta, M. S. (Eds.). (2014a). Ubiquitous music. Cham: Springer. Keller, D., Timoney, J., Costalonga, L., Capasso, A., Tinajero, P., Lazzarini, V., Pimenta, M. S., Lima, M. H. & Johann, M. (2014). Ecologically grounded multimodal design: The Palafito 1.0 study. In Proceedings of the International Computer Music Conference (ICMC 2014). Ann Arbor, MI: MPublishing, pp. 1677-1684. Keller, D., Otero, N., Lazzarini, V., Pimenta, M. S., de Lima, M. H., Johann, M., & Costalonga, L. (2014). Relational properties in interaction aesthetics: The ubiquitous music turn. Electronic Visualisation and the Arts (EVA 2014), 207-214. Keller, D. & Lazzarini, V. (2015). Special Issue on Creativity-Centered Design and the Digital Arts. Journal of Cases in Information Technology 17 (4). Keller, D. & Lima, M. H. (2018). Applications in Ubiquitous Music (Aplicações em Música Ubíqua). Vol. 7. São Paulo, SP: Editora ANPPOM. (ISBN: 978-85-63046-08-6.) Keller, D., Queiroz, M., Pimenta, M. S. & Faria, R. R. A. (eds.) (2011). Special Issue: New Paradigms for Computer Music, Journal of New Music Research 40 (3). London: Taylor & Francis Group. Pinheiro da Silva, F., Keller, D., Ferreira da Silva, E., Pimenta, M. S., & Lazzarini, V. (2013). Everyday musical creativity: Exploratory study of ubiquitous musical activities (Criatividade musical cotidiana: Estudo exploratório de atividades musicais ubíquas). Música Hodie, 13, 64-79. Keller, D., Quaranta, D. & Sigal, R. (eds.) (2013). Special Volume Sonic Ideas: Musical Creativity, Vol. 10. Morelia, Michoacán: Centro Mexicano para la Música y las Artes Sonoras – CMMAS. http://www.sonicideas.org. (ISSN: 2317-9694). Kontukoski, M., Luomala, H., Mesz, B., Sigman, M., Trevisan, M., Rotola-Pukkila, M. & Hopia, A. (2015). Sweet and sour: Music and taste associations. Nutrition & Food Science 45(3), 357-376. Lazzarini, V., & Timoney, J. The Analogue Computer as a Voltage-Controlled Synthesiser. In 14th International Symposium on Computer Music Multidisciplinary Research (p. 663). Lazzarini, V., Keller, D., Kuhn, C., Pimenta, M. & Timoney, J. (2015). Prototyping of ubiquitous music ecosystems. Journal of Cases on Information Technology 17 (4), 73-85. (Doi: 10.4018/JCIT.2015100105.) Lima, M. H., Keller, D., Flores, L. V., & Ferreira, E. (2017). Ubiquitous music research: Everyday musical phenomena and their multidisciplinary implications for creativity and education. Journal of Music, Technology & Education, 10(1), 73-92. Lima, M. H., Keller, D., Pimenta, M. S., Lazzarini, V. & Miletto, E. M. (2012). Creativity-centred design for ubiquitous musical activities: Two case studies. Journal of Music, Technology and Education 5 (2), 195222. (Doi: 10.1386/jmte.5.2.195_1.) Literat, I., & Glaveanu, V. P. (2018). Distributed creativity on the internet: A theoretical foundation for online creative participation. International Journal of Communication, 12, 16 18 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Maier, M., Mahfuzulhoq, C., Rimal, B. and Pham Van, D. (2016). The Tactile Internet: Vision, Recent Progress, and Open Challenges, IEEE Communications Magazine 54. (DOI: 10.1109/MCOM.2016.7470948) Messina, M., & Aliel, L. (2019, October). Ubiquitous Music, Gelassenheit and the Metaphysics of Presence: Hijacking the Live Score Piece Ntrallazzu 4. In 14th International Symposium on Computer Music Multidisciplinary Research (pp. 685-695). Marseille, France: PRISM. Miletto, E. M., Pimenta, M. S., Bouchet, F., Sansonnet, J.-P. & Keller, D. (2011). Principles for Music Creation by Novices in Networked Music Environments. Journal of New Music Research 40 (3), 205-216. (Doi: 10.1080/09298215.2011.603832.) Malinin, L. H. (2013). Empowering the Creative Practitioner: Towards an ecological framework of creativity as embedded practice to inform environmental design. University of Colorado at Denver. McCormack, J., & d’Inverno, M. (Eds.). (2012). Computers and creativity. Berlin and Heidelberg: Springer. Mithen, S. J. (2007). The singing neanderthals: The origins of music, language, mind and body. Cambridge, MA: Harvard University Press. Mori, B. B. (2017). Music and non-human agency. In Ethnomusicology: A Contemporary Reader, Volume II (pp. 181-194). London: Routledge. Odling-Smee, F. John, Kevin N. Laland, and Marcus W. Feldman (2003). Niche Construction: The Neglected Process in Evolution. Princeton: Princeton University Press. Pata, K. (2010). Revising the framework of knowledge ecologies: How activity patterns define learning spaces. In Educational Social Software for Context-Aware Learning: Collaborative Methods and Human Interaction (pp. 241-267). Vancouver, BC: IGI Global. Patel, A. D. (2014). The evolutionary biology of musical rhythm: was Darwin wrong?. PLoS biology, 12(3). Paris, E., Millot, J., Guillot, P., Bonardi, A. & Sèdes, A. (2017), Kiwi : Vers un environnement de creation musicale temps reel collaboratif premiers livrables du projet MUSICOLL. In Actes de Journées d'Informatique Musicale 2017 (JIM 2017). Pereira, V. S., Silva, S. L., Bessa, W. R. B., Alcântara-Silva, T. R. & Keller, D. (2018). SoundSphere: Participatory design as a strategy to develop sustainable technologies in ubiquitous music (SoundSphere: O design participativo como estratégia para o desenvolvimento de tecnologias sustentáveis em música ubíqua), Sonic Ideas 10 (19), 7-44. Pimenta, M. S., Flores, L. V., Capasso, A., Tinajero, P. & Keller, D. (2009). Ubiquitous music: concept and metaphors. In Farias, R. R. A., Queiroz, M. and Keller, D. (eds.), Proceedings of the Brazilian Symposium on Computer Music (SBCM 2009), pp. 139-150. Recife, PE: SBC. Pinheiro da Silva, F., Keller, D., Ferreira da Silva, E., Pimenta, M. S., & Lazzarini, V. (2013). Everyday musical creativity: Exploratory study of ubiquitous musical activities (Criatividade musical cotidiana: Estudo exploratório de atividades musicais ubíquas). Música Hodie 13, 64-79. Pinker, S. (1997). How the mind works. New York, NY: Norton. Quiñones, M. G., Kassabian, A., & Boschi, E. (Eds.). (2016). Ubiquitous musics: The everyday sounds that we don't always notice. London: Routledge. Rokeby, D. (1986). Very Nervous System [Installation]. Arte, Tecnologia e Informatica, Venice Biennale, Venice, Italy. http://www.davidrokeby.com/vns.html Small, C. (1998). Musicking: The meanings of performing and listening. Wesleyan University Press. Sorensen, A. C., & Brown, A. R. (2007). aa-cell in practice: An approach to musical live coding. In Proceedings of the International Computer Music Conference (pp. 292-299). International Computer Music Association. Stolfi, A. S., Milo, A., & Barthet, M. (2019). Playsound. space: Improvising in the browser with semantic sound objects. Journal of New Music Research, 48(4), 366-384. Truax, B. (1984). Acoustic Communication. Norwood NJ: Ablex Publishing. 19 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Turchet, L., Fischione, C., Essl, G., Keller, D., & Barthet, M. (2018). Internet of musical things: Vision and challenges. IEEE Access, 6, 61994-62017. Weiser, M. (1991). The Computer for the 21 st Century. Scientific American, 265(3), 94-105. Wessel, D., & Wright, M. (2002). Problems and prospects for intimate musical control of computers. Computer Music Journal, 26(3), 11-22. Zawacki, L. F., & Johann, M. O. (2012). A system for recording analog synthesizers with the Web. In Proceedings of the International Computer Music Conference (pp. 128-131). 20 International Journal of Digital Media and Interaction Special Issue on Ubiquitous Music, Vol.3, No.5, (2020) Segundo Ciclo da Música Ubíqua: Criatividade na Colaboração, Automação e Transferência de Conhecimentos (Editorial) 1 Damián Keller1, Marcello Messina2, Francisco Z. N. de Oliveira3 Núcleo Amazônico de Pesquisa Musical (UFAC / IFAC), 2 UFPB, 3Universidade Federal de Rondônia 1 [email protected], [email protected], [email protected] Resumo O presente volume apresenta uma diversidade de propostas alinhadas em torno aos esforços atuais na pesquisa em música ubíqua (ubimus). Três artigos oferecem contribuições à interação timbrística envolvendo participantes leigos. Duas propostas direcionam-se ao desenvolvimento de atividades musicais em rede – uma envolve trocas sincrônicas de recursos visuais; a outra propõe a implementação de robôs musicais no contexto da Internet das Coisas Musicais (IoMusT). O volume conclui com uma entrevista sobre a ecocomposição, uma das linhas de trabalho impulsionadas pela pesquisa ubimus. Bessa et al. traçam estratégias dentro da perspectiva WYDIWYHE (acrônimo inglês de "o que você faz é o que você ouve"), uma nova vertente de design de interação baseada nas práticas criativas cognitivoecológicas. Essa abordagem envolve o uso do suporte visual para representar ações e resultados sonoros, abrangendo o toque, a visão e a escuta. Os autores propõem seis estratégias aplicáveis nesse âmbito: proporcionalidades no espaço-tempo, temporalidades flexíveis, isomorfismos, manipulação direta, abstrações semânticas e o uso de propriedades relacionais. Messina et al. relatam uma sessão intercontinental de live-patching com o software Kiwi. Essa experiência envolveu dois grupos vinculados a três universidades localizadas no Brasil e na França. De acordo com os autores, nas práticas musicais ubíquas essa proposta tem impacto na presença ou na ausência de componentes humanos a partir de padrões de territorialização, nas ações operativas e nos processos mnemônicos vinculados à prática coletiva da criação musical síncrona assistida por computador. Freitas et al. descrevem um estudo exploratório focado na Metáfora da Esfera do Som (Sound Sphere Metaphor). Um grupo de estudantes universitários de música sem treinamento prévio em ferramentas de áudio foi convidado a se engajar em atividades criativas em ambientes cotidianos. Apesar dos resultados sonoros satisfatórios, os autores do estudo apontam para a necessidade de aprimoramentos nos procedimentos experimentais. Com foco na infraestrutura para as atividades ubimus, Camporez et al. sugerem o uso de sensores, atuadores e conectividade para fins musicais no contexto da Internet das Coisas Musicais (IoMusT1). O artigo discute conceitos utilizados em ubimus para realizar atividades no contexto IoMusT, fornecendo exemplos de implementação e emprego de robôs musicais (RoboMus). Os autores focam a sincronização.dos recursos robóticos através de um sistema mecânico de compensação de atraso utilizando uma rede neural. Eles discutem também a implementação de um protocolo de sincronização precisa (PTP) aplicado na implementação de um relógio aplicado ao RoboMus. 1 Do inglês, Internet of Musical Things: IoMusT. Mantemos a sigla original na versão em português. ISSN: 2184-3120 CC 2020 DIGIMEDIA International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Ancoragem Semântica Criativa (ASC) é uma metáfora para a ação criativa que usa estratégias verbais para amparar decisões estéticas. A Ancoragem Semântica Criativa envolve a contextualização verbal de materiais sonoros para facilitar decisões estéticas que demandam a transmissão de conhecimentos musicais. Complementando propostas anteriores, Keller et al. apresentam um estudo que aplica estratégias semânticas na seleção de fontes sonoras. Os estímulos consistem em excertos de peças para violino solo, baseadas em imitações de eventos cotidianos. Buscando obter uma imagem quantitativa da relevância dos descritores, os autores juntaram respostas de 58 estudantes universitários com conhecimento musical básico ou intermediário. Os resultados apontam resultados originais e indicam que os sujeitos estavam familiarizados com o material sonoro. O descritor agradável – ligado a aspectos altamente subjetivos – e o descritor bem-feito – relativo aos aspectos técnicos dos materiais – tiveram escores consistentes. Carson realiza uma entrevista profunda e detalhada com Damián Keller sobre as origens das perspectivas ecológicas para a criação musical, abordando parte dos desenvolvimentos mais recentes no campo da música ubíqua. A discussão revela diversos aspectos de projetos artísticos e de propostas teóricas que ainda não foram discutidos na literatura, com destaque para os inícios da ecocomposição, a função dos sons cotidianos em ubimus e as relações entre as práticas criativas cognitivo-ecológicas e o ativismo ambiental. Introdução: Arte, tecnologia e reflexão Keller e Barreiro (2018) proporcionam um panorama das diversas tendências em ubimus, enfatizando duas linhas principais de pesquisa que vêm tendo destaque nos últimos anos. Eles indicam que parte dos esforços dessa pesquisa direciona-se à inclusão de uma maior variedade de participantes em atividades criativas, com forte ênfase nas pessoas sem treinamento específico ou com engajamento casual nessas atividades. A participação casual envolve demandas mais rigorosas, não apenas por causa da falta de tempo de preparação para a atividade musical – com limitações no treinamento e na familiarização com os recursos tecnológicos e sonoros –, mas também por conta das características peculiares e imprevisíveis dos espaços de realização das atividades ubimus, tais como os ambientes transitórios ou os espaços de lazer, que não foram projetados para o fazer artístico. Outra linha de pesquisa vem impulsionado o avanço do conhecimento musical a partir da convergência entre a disponibilidade de suportes tecnológicos e as práticas artísticas inovadoras, complementada ainda por um emprego socialmente consciente dos recursos. Esse trio de tecnologia, arte e reflexão não é exclusivo das iniciativas ubimus, mas aponta para potenciais cruzamentos com campos próximos, como a etnomusicologia (Quiñones et al. 2013), os estudos da paisagem sonora (Truax 1984), o design participativo (Ehn 1988), a criatividade computacional (McCormack and D’Inverno 2012) e as abordagens ecológicas emergentes aplicadas à educação e à criatividade (Malinin 2015; Pata 2009). A pesquisadora Helena Lima é pioneira no desenvolvimento de uma abordagem socialmente engajada dentro de ubimus – a dialógica –, envolvendo colaborações intensas em atividades coletivas. Aplicada sobretudo em contextos educacionais, a dialógica foca o engajamento dos participantes em atividades criativas longitudinais e coletivas. Por meio de práticas reflexivas, visa-se atingir uma construção comunitária do conhecimento. Mais do que um produto atrelado a um gênero musical específico, o alvo da atividade é a autorreflexão como elemento central do processo artístico (Donald 2006). 22 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Criatividade musical cotidiana O presente volume alinha-se à década de desenvolvimento de estratégias de criação musical em ambientes cotidianos, objetivando a inclusão de não-músicos como colaboradores criativos. Tais motivações não são novas. Elas decorrem de uma tradição de práticas artísticas vinculada a conceitos tais como o da música de mobiliário (musique d’ameublement) – música que não demanda qualquer talento especial ou treinamento especializado para ser realizada – idealizada pelo compositor Erik Satie no início do século passado. Uma diferença, contudo, entre as perspectivas apresentadas neste volume e as tendências artísticas originadas no século XX é a disponibilidade de uma infraestrutura tecnológica voltada para as atividades criativas. As concepções expandidas da experiência musical – de uma entidade estática ou de uma estrutura formal a um processo dinâmico e auto-organizado; e de um fenômeno autônomo a um conjunto de propriedades relacionais socialmente construídas e firmemente ancoradas em um contexto material específico – convergiram no campo de pesquisa multifacetado que hoje denominamos música ubíqua (Keller et al. 2014a). De acordo com Keller e Lazzarini (2017a), as práticas musicais cotidianas amparam-se em interações sociais intensas, ambientes cotidianos por vezes intrusivos e atividades livres e exploratórias que envolvem a utilização de recursos extramusicais. Isso traz à tona as limitações do conjunto existente de ferramentas de suporte à criatividade. Desde Blacking (1973), as iniciativas de cunho antropológico-musical colocam a interação social em primeiro plano. Para Blacking, o estudo da música – ao invés do estudo da representação das ações instrumentais em uma partitura, ou do estudo dos subprodutos sonoros registrados em gravações – envolve a documentação e a análise da atividade musical durante o ato de fazer música. Tal visão é posteriormente sintetizada por Small (1986) verbalizando os processos musicais enquanto “o ato de musicar”. O verbo musicar enfatiza as propriedades dinâmicas de criar, produzir e ouvir produtos musicais. A proposta de Small põe em evidência as hierarquias e contradições implícitas dos rituais estereotipados da música instrumental, exemplificados pelo modelo da orquestra, que reforçam a separação entre agentes produtores e receptores durante o processo de tomada de decisões estéticas. Música ubíqua (ou ubimus) tem sido definida como o estudo de sistemas de (1) agentes humanos e (2) recursos materiais que (3) promovem atividades musicais por meio de (4) ferramentas de suporte à criatividade. Essa definição subdividida em quatro componentes abrange os fatores humanos, os recursos materiais e as propriedades que emergem durante as atividades criativas, junto com as estratégias de design que expandem as possibilidades criativas – reportando-se assim tanto aos processos quanto aos subprodutos das atividades. É interessante notar que as primeiras propostas de ubimus não colocavam ênfase nos aspectos criativos do fazer musical. Durante a fase inicial exploratória de ubimus (2007-2014), as definições centravam-se na infraestrutura tecnológica – posta em destaque pela adoção do termo ubíquo –, aludindo a um subconjunto de questões relacionadas à computação ubíqua (Weiser 1991). Porém ao se deparar com a diversidade de fatores sociais e cognitivos que vêm a tona nos ambientes cotidianos, essa perspectiva apresenta limitações. Particularmente, os suportes para a participação casual colocam desafios que vão além do foco na performance musical, principal alvo da abordagem à interação musical mais citada dentro do campo da computação musical (como exemplo, ver o conceito de performance virtuosística2 em Wessel e Wright 2002). 2 Tal visão é encontrada nas propostas dos novos instrumentos para a expressão musical (New Instruments for Musical Expression: NIME). Sem abandonar a ênfase na implementação de dispositivos isolados, NIME substituiu recentemente a palavra “instrumentos” por “interfaces”. Como ficará claro na discussão adiante, a fixação de NIME no dispositivo, no instrumento ou na interface pode acabar atrapalhando o desenvolvimento de suportes flexíveis e sem vieses de gêneros musicais para as práticas criativas. 23 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Recursos musicais descentralizados Evitando as abordagens focadas em ferramentas ou instrumentos isolados, Lazzarini et al. (2015) propõem o ecossistema musical ubíquo em substituição ao quarto componente da definição de ubimus (i. e., as ferramentas de suporte à criatividade). Os motivos são diversos. A implementação de instrumentos isolados – exemplificado nas propostas NIME – não satisfaz as demandas relativas às características relacionais e emergentes da participação casual e às estratégias oportunistas 3 observadas nas práticas criativas em ambientes cotidianos (cf. exemplos ubimus em Keller et al. 2013; Keller et al. 2015; Lima et al. 2017). Se por um lado a adoção de espaços tradicionais – tais como a sala de concerto ou o estúdio eletroacústico – garante um contexto material e um conjunto de expectativas sociais direcionadas a um fazer musical profissionalizado, a participação casual em atividades musicais cotidianas, por outro lado, expõe os interessados a fatores acústicos e sociais raramente considerados durante o design de instrumentos musicais digitais. De acordo com Keller e Lazzarini (2017a), os suportes para a música ubíqua precisam adotar estratégias que atendam não apenas as questões relacionadas à interação e ao áudio, eles também devem levar em conta os fatores vinculados à atividade e às relações entre materiais e agentes. Portanto, as perspectivas das ecologias musicais ubíquas diversificadas têm melhores chances de lidar com os processos dinâmicos subjacentes à criatividade musical cotidiana. O presente volume contribui para o avanço do conhecimento musical ampliando o leque de suportes tecnológicos (Camporez et al.) para práticas artísticas coletivas voltadas a níveis diversos de expertise técnica (Messina et al.), propondo novas abordagens à transferência de conhecimento e adotando estratégias de design fundamentadas nas propostas cognitivo-ecológicas (Bessa et al.; Freitas et al.; Keller et al.2014b). Tais contribuições servem de complemento aos avanços recentes em música ubíqua, com destaque para: a aplicação de estratégias semânticas para a transmissão de conhecimentos musicais (Keller and Feichas 2017; Stolfi et al. 2019), a incorporação da improvisação nas práticas cognitivoecológicas (Aliel et al. 2015; Messina and Aliel 2019) e as propostas de desenvolvimento da Internet das Coisas Musicais (Keller et al. 2019; Lazzarini and Keller 2017; Turchet et al. 2018). Tomemos como exemplo o desenvolvimento da Internet das Coisas Musicais (IoMusT). Embora essa área ainda seja só um construto teórico, ela reaproveita realizações parciais e contribuições espalhadas em projetos ubimus anteriores. De acordo com Keller et al. (2019), há grande semelhança entre as definições iniciais da música ubíqua e as conceituações recentes da IoMusT4. Possivelmente, essas duas áreas de estudo sejam complementares. Se de um lado o desenvolvimento da IoMusT direciona-se à infraestrutura necessária para realizar atividades musicais, do outro lado, a pesquisa ubimus foca os processos criativos do fazer musical, ligados à sustentabilidade e às formas mais flexíveis de participação social. Consequentemente, durante a última década expandiram-se os horizontes das práticas ubimus, incluindo aspectos do fazer musical que vão além do desenvolvimento ou do uso de ferramentas. Por vezes, os esforços em ubimus aproveitam recursos e tecnologias já disponíveis, envolvendo adaptações baseadas em estratégias oportunistas adaptativas de design. Tais esforços evitam a implementação de infraestrutura nova (Flores et al. 2010; Keller, Pinheiro, da Silva, Ferreira et al. 2013). Em outros casos, os projetos ubimus exigem tecnologias customizadas de áudio profissional, baseadas na utilização da internet e alinhadas aos objetivos das iniciativas IoMusT (Lazzarini e Timoney 2019; Zawacki e Johann 2012). Com 3 Opportunistic strategies, opportunistic design: perspectiva iniciada por Visser (1994) e adotada em múltiplos projetos de design. Em português, a conotação negativa do termo oportunismo pode ser contornada acrescentando o adjetivo adaptativo. Dessa forma, para as características positivas aplica-se oportunismo adaptativo e para as negativas oportunismo mal-adaptativo. 4 Ver Pimenta et al. (2009) para uma dentre as diversas definições iniciais de ubimus, focada sobretudo na infraestrutura tecnológica para o fazer musical. 24 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) base nessas observações, Keller e co-autores vislumbram uma dinâmica de enriquecimento mútuo entre ubimus e IoMusT. Experiências em ubimus podem estimular o desenvolvimento de novas tecnologias IoMusT e o aumento na disponibilidade de recursos IoMusT pode fomentar novas oportunidades de aplicação em contextos ubimus. Dada a presença potencialmente massiva da Internet das Coisas nos ambientes cotidianos, os requisitos e as possibilidades de uso dos componentes IoMusT demandam estudos minuciosos para criar condições efetivas de prática e exigem, acima de tudo, o estudo dos aspectos éticos das atividades musicais ubíquas. Parte dessas questões é abordada por Camporez et al. no presente volume. Keller et al. (2019) descrevem o desenvolvimento de uma metáfora para a ação criativa envolvendo o uso de gestos manuais: Handy. A metáfora Handy baseia-se em movimentos corporais e no uso de ambas as mãos, e visa intensificar o potencial criativo dos recursos IoMusT. Após sessões informais com artistas e músicos, os autores reuniram opiniões a respeito da capacidade de controle e das limitações de dois protótipos. As duas implementações utilizavam plataformas tecnológicas diferentes, mas aplicavam métodos similares de design de interação. Ambos os protótipos baseiam-se nos movimentos das mãos e do torso para sintetizar e processar áudio através de algoritmos síncronos. Ao passo que um protótipo replica a abordagem paramétrica própria do design do instrumento eletrônico Theremin, a outra visa um uso exploratório das relações entre movimentos corporais e produtos sonoros. Os resultados desses estudos apontam para um bom potencial de uso em espaços públicos. Outra vertente de desenvolvimento de hardware é delineada por Lazzarini e Timoney (2019). Esses dois referentes da pesquisa ubimus demonstram a proficuidade da abordagem das práticas musicais eletrônicas e computacionais em rede através da computação analógica. Eles apresentam uma introdução geral às tecnologias analógicas voltadas para o fazer musical, traçando ainda um paralelo histórico com a implementação de sintetizadores modulares baseados no controle de voltagem. Os exemplos apresentados são relevantes para a implementação do processamento analógico de áudio e apontam aplicações práticas em pesquisa e em produção musical. A discussão do estado da arte da computação analógica põe em evidência a existência de tecnologias com potencial de uso imediato nas práticas ubimus. Quanto aos desafios concernentes à implementação, a qualidade dos resultados sonoros analógicos é limitada, incluindo uma proporção baixa entre sinal e ruído, e pouca estabilidade na relação altura/voltagem. A sincronização também é uma limitação a ser tratada, podendo comprometer seriamente a escalabilidade dessas tecnologias. Ao considerar essas questões e providenciar as ferramentas necessárias para corrigir erros, Lazzarini e Timoney estabelecem metas cruciais para o futuro da computação analógica em ubimus. Apesar das limitações técnicas atuais, a abordagem analógica ubimus tem potencial para render resultados interessantes em musicologia. Essa tecnologia pode ser empregada para reproduzir as primeiras práticas da música eletrônica5. A proposta foca um aspecto chave da música ubíqua, concernente à sustentabilidade das iniciativas culturais (Bernadini e Vidolin 2005), ao mesmo tempo em que minimiza o impacto ambiental6 das práticas criativas baseadas em tecnologia (Pereira et al. 2018). Quanto à programabilidade – um dos pilares das práticas musicais ubíquas (Keller et al. 2014a) –, Lazzarini e Timoney oferecem ferramentas flexíveis para a manipulação analógica do som voltadas para músicos e pesquisadores. A tecnologia 5 A música eletrônica é uma das vertentes históricas das práticas musicais embasadas em tecnologia. Surge na década de 1950, inicialmente na Alemanha. A característica principal é o uso de fontes sonoras sintetizadas, produzidas através de dispositivos eletrônicos analógicos. 6 Cabe aqui a inclusão do conceito de pegada ecológica, que ainda não foi incorporado amplamente à discussão dos desenvolvimentos culturais. De forma similar ao que acontece com os ecossistemas biológicos, acreditamos que a homogeneização das práticas musicais também pode ser prejudicial para a sustentabilidade das culturas humanas e para sua relação com os recursos ambientais. 25 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) analógica não estabelece gêneros musicais ou abordagens estéticas a priori. Portanto as ferramentas digitais analógicas podem ser aplicadas tanto nas práticas profissionais quanto no uso cotidiano. Componentes humanos nas ecologias ubimus Por meio da incorporação das perspectivas atuais sobre a teoria da evolução, a música ubíqua enfatiza o impacto dos fatores biológico-evolucionários sobre as práticas da criação musical. As propostas de ubimus abrangem duas abordagens: a hipótese do cérebro social (Dunbar and Schultz 2007) e a teoria da construção de nichos ecológicos (Odling-Smee et al. 2003). Os mecanismos de interação social voltados à sobrevivência compõem o cerne da primeira perspectiva. De acordo com Dunbar e Schultz, a predição das intenções de terceiros fomentou o surgimento das habilidades cognitivas mais refinadas da nossa espécie. Hominídeos capazes de prever os comportamentos de outros hominídeos tiveram maiores chances de sobrevivência. De modo complementar, a abordagem proposta por Odling-Smee e coautores explora a relação entre o ambiente local e o desenvolvimento da cognição humana. Em resposta a condições ambientais incertas, os mecanismos cognitivos ajustam-se às características do hábitat local. Simultaneamente, as ações dos grupos de hominídeos moldam os recursos materiais para atender as necessidades do grupo. A formação de nichos ecológicos decorre desses processos de determinação mútua. Desta feita, os nichos ecológicos não moldam apenas o acesso aos recursos materiais, mas também têm impacto nos comportamentos dos grupos de hominídeos. As duas teorias evolucionárias acima descritas estabelecem um contexto teórico amplo que embasa as múltiplas escolhas de design ubimus. O que um programa de pesquisa cujo principal objetivo diz respeito à criatividade musical tem a ver com a biologia ou a evolução? As respostas poderiam encher uma enciclopédia, mas selecionemos apenas alguns pontos de intersecção exemplificados em pesquisas recentes. A onipresença do fazer musical nas várias culturas sugere que a musicalidade pode ter sido um aspecto evolucionário dos hominídeos7. Há evidências da existência de musicalidade na maior parte das populações Homo Sapiens (Honing et al. 2014). Por outra parte, alguns pesquisadores – baseados em investigações arqueológicas – acreditam que o Homo Neanderthalensis também realizava atividades de cunho musical (Mithen 2007). Comportamentos musicais também foram observados em outras espécies (Patel 2014). Um exemplo são os padrões percussivos produzidos pelos chimpanzés (Arcadi et al. 2004; Babiszewska et al. 2015; Dufour et al. 2015). Alguns autores questionam a visão da música como fenômeno vinculado exclusivamente aos humanos (Mori 2017). Se as habilidades envolvidas na prática musical resultam de processos adaptativos e evolucionários ou se são apenas um subproduto de circuitos neurais previamente existentes (por meio da exaptação) é uma questão interessante (Pinker 1997), embora deslocada do foco deste volume. Evidências neurológicas obtidas recentemente apontam para uma reconfiguração dos padrões neurais através do treinamento musical (Herholz e Zatorre 2012). Essa observação reforça a ideia de que as atividades performativas – tais como o ato de musicar – podem ter tido um papel importante na formação da cognição humana, funcionando como mecanismos de sustentação das estratégias de cooperação (Dunbar e Schultz 2007; Mithen 2007). Diversas linhas de investigação convergem em direção a uma compreensão do ato de musicar enquanto um elemento central da dimensão social da cognição humana. Em face da evidência crescente, parece razoável ampliar um pouco a definição do que é música. As práticas criativas atuais indicam que a noção 7 Esse é um tópico de pesquisa que teve desenvolvimentos importantes a partir do início do século XXI. 26 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Varesiana de material musical enquanto som organizado 8 está alinhada com as abordagens ao fazer musical criativo que não se restringem a um gênero musical (ver Keller e Budasz 2010). O instrumento, a nota, o ritmo, a melodia ou a harmonia são todos conceitos derivados da tradição acústico-instrumental, fortemente enviesada para as formas de organização sonora metrificadas e centradas na altura. Esses conceitos implicam, portanto, em escolhas estéticas que vinculam as estratégias criativas a um conjunto fechado de gêneros musicais. Embora aplicáveis à música projetada para os instrumentos acústicos, quando aplicados à música baseada em recursos voláteis, descentralizados, amétricos ou livres de alturas eles apresentam sérias limitações. Se levarmos a sério o ato de musicar enquanto um fenômeno a ser embasado em teorias evolucionárias, e/ou o contextualizamos dentro de uma rede complexa de agentes humanos e não-humanos, então seus mecanismos de transferência de conhecimento não podem ser restringidos à ocorrência singular de uma manifestação cultural circunscrita em um período histórico e que implica em múltiplos vieses raciais, geográficos e econômicos. Messina e coautores abordam várias dessas questões em sua contribuição a este volume. Práticas criativas cognitivo-ecológicas Três dos artigos do presente volume baseiam-se em perspectivas cognitivo-ecológicas de design de interação aplicadas ao fazer musical. Inclui-se aí o desenvolvimento de duas metáforas para a ação criativa: a Esfera do Som (SoundSphere) e a Ancoragem Semântica Criativa (ASC). Bessa et al. definem parte das estratégias envolvidas como uma nova vertente de design de interação, fundamentada nos estudos da cognição ecológica (Keller e Lazzarini 2017; Pereira et al. 2018), a perspectiva WYDIWYHE. Essa abordagem implica no uso de auxílios visuais para representar ações que tenham impacto sobre os resultados sonoros, focalizando as relações entre fazer, ver e ouvir e envolve ao menos seis estratégias de design: proporcionalidades no espaço-tempo, temporalidades flexíveis, isomorfismos, manipulação direta, abstrações semânticas e o uso de propriedades relacionais. 1. A proporcionalidade no espaço-tempo é exemplificada no SoundSphere por representações que exploram a proporcionalidade direta entre a temporalidade9 e o espaço visual. Essa estratégia pode ser estendida a outras modalidades, incluindo o uso de recursos materiais dentro do campo da interação tangível ou no design da interação gestual. 2. A adoção de temporalidades flexíveis permite a coexistência de várias formas de organização temporal – dando aos participantes maior autonomia na escolha e disponibilização dos recursos sonoros. No caso do SoundSphere, essa liberdade é sustentada na possibilidade de incorporar qualquer tipo de material sonoro. Contudo, o protótipo atual não dá suporte específico para o uso de eventos periódicos, como acontece nos sistemas orientados ao padrão métrico. Desse modo, a temporalidade no SoundSphere tende a priorizar organizações criativas baseadas no uso do timbre, relegando ritmo e alturas a funções secundárias. 3. O isomorfismo complementa as temporalidades flexíveis e é exemplificado pelas metáforas que estimulam a distribuição dos recursos sonoros sem impor hierarquias. Como exemplo, o SoundSphere comporta a aplicação de diversos procedimentos de organização dos materiais, incluindo os rascunhos sonoros (usados nas explorações iniciais das relações sonoras entre eventos) e as estruturas modulares (combinadas livremente combinadas ou segundo restrições 8 Edgard Varèse, compositor francês radicado nos EUA, é o primeiro a articular a noção de música como som organizado. É surpreendente observar que um século depois, esse conceito ainda não é levado a sério pelas pesquisas atuais. 9 O conceito de temporalidade abrange estratégias diversas de representação e organização do tempo musical. A entidade tempo, na perspectiva ubimus, inclui tanto os aspectos vinculados aos produtos sonoros quanto as propriedades decorrentes da experiência musical. Portanto, essa entidade abrange mas não se esgota na organização métrica, no andamento ou nas indicações agógicas. 27 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) específicas). O SoundSphere também dá suporte parcial para técnicas de processamento e para o uso de elementos multimídia – um exemplo concreto é descrito por Aliel et al. (2019). Esse tipo de utilização está melhor representada em estudos longitudinais, de modo que não foi explorada nos dois estudos relatados neste volume. 4. A manipulação direta possibilita interações vinculadas a comportamentos cotidianos, priorizando a relação ação-percepção (componente importante das práticas criativas cognitivo-ecológicas). No SoundSphere, a manipulação direta é usada no painel de seleção e no mecanismo de inserção dos eventos sonoros do painel de interação. 5. A abstração semântica envolve o acesso a processos musicais complexos por meio do uso da linguagem escrita ou falada. Essa estratégia possibilita a manipulação timbrística aplicando operadores de áudio associados a rótulos escolhidos pelos usuários (os operadores semânticotimbrísticos). 6. As propriedades relacionais emergem da interação entre os indivíduos interessados e o ambiente (Keller et al. 2015). Essas propriedades estão fortemente ligadas aos recursos locais. Nos espaços de transição, elas podem ter impacto no nível do esforço cognitivo e no perfil criativo dos produtos sonoros, fomentando o aumento da sua originalidade (Keller et al. 2013). Os dois artigos que apresentam metáforas de suporte para a ação criativa envolvem uma trama versátil de técnicas que exploram as relações semânticas entre a linguagem oral10 e os processos de organização sonora. Diversas soluções de design baseadas em descrições semânticas de eventos e de processos de manipulação de áudio são tratadas no texto Interação Timbrística em Ubimus. Freitas et al. apontam para o timbre como um tópico que coloca múltiplos desafios no âmbito da interação envolvendo leigos. Em alguns casos ––– especialmente se são empregados termos do domínio específico – as abstrações semânticas podem não ser úteis para os participantes sem treinamento musical. Os autores também argumentam que não é aconselhável lidar com a parametrização do timbre utilizando estratégias de mapeamento simplistas ou arbitrárias. Para lidar com as configurações paramétricas complexas no uso casual, os autores propõem ecologias de metáforas para a ação criativa através do design em camadas múltiplas. Freitas et al. discutem a interação timbrística com foco nas demandas da interação casual11. Experimentos anteriores com não-músicos indicam que fatores tais como o tempo investido em se familiarizar com os procedimentos e as demandas cognitivas da atividade têm impacto na qualidade dos resultados criativos. Desse modo, soluções simplistas amparadas em mapeamentos arbitrários ou na adoção acrítica de métodos oriundos das práticas acústico-instrumentais podem não ser aplicáveis à interação timbrística envolvendo participantes leigos. As manipulações timbrísticas ocorrem frequentemente em conjunto com outras atividades criativas – incluindo a seleção, a mixagem, a edição e o compartilhamento de dados musicais. Os experimentadores pediram a um grupo de estudantes de graduação que usem – durante sessões curtas de criação musical – uma ecologia de ferramentas centrada na metáfora SoundSphere. A maior parte dos participantes completou com sucesso suas tarefas. Diversos problemas, contudo, foram suscitados tanto no que diz respeito aos materiais quanto ao uso dos protótipos. Os resultados indicaram a necessidade de aprimorar a informação visual do tipo de processamento sonoro aplicado. Como complemento, o estudo relatado por Bessa et al. indica que a ecologia SoundSphere apresenta um bom potencial de suporte para a interação timbrística em contextos cotidianos e educacionais. Segundo os 10 O termo adotado no campo da computação é linguagem natural, em oposição às linguagens codificadas utilizadas no desenvolvimento de algoritmos. 11 Casual interaction ou interação casual (Borning e Travers 1991). 28 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) autores, a aplicação de uma estratégia semântica favorece a transferência rápida de conhecimentos altamente técnicos e especializados, sem que para isso sejam necessários períodos longos de treinamento ou de preparação específica. Em consonância com os resultados obtidos em experimentos anteriores em ubimus (Keller et al. 2013), os espaços de transição têm um impacto positivo no fator originalidade, mas esse efeito não se faz presente na relevância dos produtos criativos. Em consonância também com os resultados obtidos com outras metáforas de suporte à ação criativa (tais como a marcação temporal, a marcação espacial, a marcação gráfica-procedimental, ou o uso de substitutos criativos), a maior parte dos participantes qualificou as atividades com a metáfora SoundSphere como sendo divertida e agradável, e apontaram um alto potencial de suporte para a colaboração. Colaboração e temporalidade em ubimus Alinhadas com o segundo componente da definição de ubimus, duas contribuições a este volume visam o desenvolvimento de práticas baseadas em recursos descentralizados. A música ubíqua tem sido abordada através múltiplas perspectivas (Brown et al. 2014; Miletto et al. 2011). Uma das primeiras questões levantadas foram os ambientes em rede para a criação musical. Esses sistemas devem ser modelados a partir das práticas acústico-instrumentais existentes, ou eles requerem novas formas de engajamento social?. Sobre essa questão, deve-se indagar se há limites inerentes à participação remota de múltiplos participantes, ou se as limitações existentes decorrem da falta de suporte tecnológico. Um caso a se examinar é a recente confluência dos recursos multimodais impulsionando a formação da internet tátil12 (Maier et al. 2016). Em tese, essa tecnologia permitiria que se estabeleçam formas multimodais de interação, com suporte para a interação tempo real em um raio máximo de 300 quilômetros. A internet tátil deve possibilitar que os participantes compartilhem dados hápticos e visuais durante as atividades ubimus, melhorando a qualidade do engajamento síncrono. Complementarmente, o acesso à realidade virtual e aos recursos robóticos pode tornar-se viável, minimizando-se os limites entre a interação presencial e a interação remota. O aumento da velocidade, da largura de banda e da confiabilidade da conectividade de internet pode impactar positivamente as práticas musicais dependentes da sincronização temporal, fomentando o feedback imediato de parceiros e a manipulação de um volume grande de dados. Em especial, podem ser viabilizadas as atividades baseadas na notação em vídeo, nos dispositivos táteis (Rovan 2000), nos dispositivos de síntese de odores (Mesz et al. 2012) e na captura de movimentos (Rockeby 1986). Não é ainda claro, contudo, se a internet tátil fornecerá suporte a aspectos centrais do ciclo criativo, tais como a seleção de recursos massivos de áudio, ou a habilidade de antever resultados musicais efetivos enquanto os recursos sonoros não estão disponíveis. Essas duas questões talvez dependam de estratégias de design criativo que não dependem da interação síncrona. Como exemplo, nem a velocidade de transmissão nem a largura de banda da internet são entraves sérios para as atividades musicais que não utilizam instrumentos musicais acústicos. A falta de sincronização é uma limitação para as performances de conjuntos musicais acústicos a distância (Barbosa 2010), mas essa ressalva aplica-se apenas aos casos em que se adotam práticas musicais típicas do século XIX. Ao abordar essas questões como possibilidades musicais (ao invés de tratá-las como limitações tecnológicas), as exigências da sincronização rigorosa desaparecem ou ficam em um segundo plano (Bhagwati 2013). Acreditamos, portanto, que as estratégias flexíveis de manipulação da temporalidade musical podem ser mais eficazes do que as soluções baseadas na adaptação das novas tecnologias para os velhos gêneros musicais. 12 Tactile internet: uma nova geração de desenvolvimento da Internet das Coisas, voltada para a incorporação de recursos multimodais. 29 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Dados os supracitados desafios, a implementação e o uso de robôs, por parte de Camporez e coautores, pode complementar as iniciativas existentes na disponibilização de recursos ubimus via internet. Os autores descrevem o desenvolvimento de um sistema de sincronização para dispositivos musicais robóticos. Sua proposta de um sistema mecânico de compensação do atraso por meio de redes neurais treinadas pode levar a soluções alternativas para problemas de sincronização de dispositivos. Os autores discutem também a implementação e o uso de um protocolo de sincronização precisa (PTP) que é aplicado no protótipo de relógio usado no RoboMus. De acordo com os autores, esse formato de mensagens ajuda na compensação de atrasos mecânicos, dando maior robustez à plataforma. O desgaste físico dos componentes mecânicos pode interferir nos tempos de atraso. Para lidar com esse problema, a rede neural é reorientada a aprender uma nova configuração. Além disso, outros problemas podem ocorrer em decorrência do aquecimento dos componentes mecânicos. Essas variações podem ser previstas e corrigidas vinculando, por exemplo, o sistema adaptativo de relógio a sensores de temperatura. Amparando-se no crescimento dos sistemas musicais baseados nas plataformas de navegação, Messina et al. relatam sessões intercontinentais de live patching realizadas com a linguagem visual Kiwi. Essa atividade criativa está ligada à prática de live coding 13 (Sorensen and Brown 2007) e pertence a uma família de iniciativas que poderíamos descrever como música ubíqua em rede14, baseada no uso de recursos remotos para a realização de atividades criativas compartilhadas (Miletto et al. 2011). Kiwi (Paris et al. 2017) é uma versão da amplamente utilizada linguagem visual Pure Data (Puckette 1997). A vantagem do Kiwi com relação a seu precursor é seu design adaptado para as plataformas de navegação, de modo que a colaboração e o uso online são funcionalidades inerentes. A integração dos componentes em rede é facilitada. Os patches de Kiwi foram desenvolvidos pelo grupo Live/Acc/Patch e por alunos de graduação da classe de tecnologia musical da Universidade de Paris 8, tendo cada grupo adotado estratégias específicas de elaboração dos algoritmos. Essa experiência intercontinental de live patching envolve uma combinação de pequenos elementos que interagem dinamicamente enquanto estruturas autônomas. A questão da temporalidade assume uma dimensão que estimula as abordagens abertas, colaborativas e nãohierárquicas. No Kiwi, todos os participantes têm os mesmos direitos de acesso. Do ponto de vista da engenharia do software, isso pode ser considerado negativo. Por outra parte, as operações em cada patch não deixam traços genealógicos, de modo que não é possível apurar a autoria dos objetos ou comentários disponibilizados no patch. Consequentemente, não há espaço para barreiras hierárquicas – como instrutor vs. aluno, ou grupo A vs. grupo B. De acordo com Messina et al., as práticas coletivas de criação síncrona de algoritmos musicais têm implicações na presença ou ausência de componentes humanos, nos padrões de territorialização, nas ações operativas e no suporte mnemônico necessário para a tomada de decisões no contexto ubimus. A experiência da realização de patches ao vivo confirma a operatividade de um padrão comportamental utilizado nas práticas da computação musical: o desenvolvimento de novas ferramentas é entrelaçado a questões composicionais e sociais fortemente atreladas à criação musical. Essa abordagem pode ser expandida aplicando duas estratégias. Primeiramente, a fim de compensar as limitações técnicas do Kiwi no processamento de áudio, é possível integrar a linguagem FAUST (porém, só para usuários intermediários ou avançados – Lazzarini et al. 2014). Em segundo lugar, a elaboração de patches ao vivo pode ser inserida nas práticas de concerto baseadas na improvisação. Essa segunda proposta alinha-se aos desenvolvimentos recentes no campo da comprovisação musical ubíqua (Aliel et al. 2015). 13 Criação síncrona de algoritmos musicais. 14 Network-based ubimus. 30 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Surfando a segunda onda ubimus: Rumos futuros da pesquisa Os artigos apresentados no presente volume abrangem uma gama de assuntos relacionados às principais linhas de pesquisa do segundo ciclo de iniciativas ubimus, incluindo: (1) estratégias de transferência de conhecimento que propiciem aos leigos o acesso a processos complexos de criação musical; (2) elaboração de patches ao vivo (live patching) enquanto uma atividade de ubimus que incorpora o live coding sem a aura de prática “só para especialistas”; (3) o uso de robótica enquanto componente dos ecossistemas musicais ubíquos, podendo vir a contribuir com a implementação de uma Internet das Coisas Musicais (IoMusT); e (4) dois exemplos de metáforas de suporte à ação criativa: a metáfora da Esfera do Som (SoundSphere), disponibilizada em ambientes cotidianos, e a Ancoragem Semântica Criativa (ASC), que incorpora estratégias semânticas para criação e performance musicais. Esses dois últimos exemplos inserem-se em um campo da pesquisa ubimus que tem atraído atenção nos últimos dois ou três anos – as práticas criativas cognitivo-ecológicas. Essa perspectiva foi aplicada em contextos educacionais (Lima et al. 2012; Lima et al. 2017), em ambientes cotidianos (Ferreira et al. 2016; Keller e Lima 2016), em propostas teóricas (Keller and Lazzarini 2017b), em comprovisação (Aliel et al. 2015; Aliel et al. 2018) e em arte multimídia (Connors 2015; Gomes et al. 2014; Keller et al. 2014b). O volume encerra-se com uma entrevista realizada por Tate Carson, que documenta as primeiras iniciativas nas práticas criativas cognitivoecológicas e discute algumas das contribuições recentes a esse campo de pesquisa. Os cinco artigos apresentados neste volume oferecem ao leitor uma amostra da diversidade de aplicações que caracterizam as iniciativas ubimus. Quando observado perante o contexto das definições atuais de ubimus, fica claro como essa perspectiva vai além do foco exclusivamente tecnológico de subcategoria da computação ubíqua, tornando-se uma empreitada multidisciplinar. As preocupações políticas e ideológicas abordadas por Messina et al. dialogam bem com as implicações educacionais e filosóficas exploradas por Lima e coautores (2012 e 2017). As consequências artísticas e estéticas dos métodos adotados por Messina et al. são afins às propostas comprovisacionais apresentadas por Aliel et al. (2015 e 2018). Além disso, essa linha de pesquisa expande as práticas ubimus baseadas nas plataformas de navegação, apontando para questões latentes mas não desenvolvidas nos primeiros projetos de ubimus (Miletto et al. 2011). Transferência de conhecimento. As três propostas baseadas em práticas criativas cognitivo-ecológicas oferecem perspectivas inovadoras. Até recentemente, as estratégias semânticas não eram utilizadas como ferramentas de troca na ecocomposição (ver Carson para uma contextualização histórica). Os aspectos multimodais das práticas cognitivo-ecológicas impulsionaram uma integração de elementos verbais na transferência de conhecimentos. Uma primeira pista dessa direção foi a implementação dos substitutos criativos, recursos digitais que representam os materiais de base possibilitando transferências rápidas entre os participantes (Keller et al. 2015). Os substitutos criativos incorporam rótulos, portanto o uso de comandos verbais é apenas um refinamento ulterior dessa proposta. Se por um lado os resultados obtidos por Keller e coautores se valem da familiaridade para enfatizar a relação entre o conteúdo semântico dos excertos musicais e as experiências prévias do ouvinte, por outro, eles apontam também para a possibilidade de usar estratégias semânticas para avaliar a originalidade dos resultados sonoros. As metáforas de suporte à ação criativa apresentadas por Bessa et al. e utilizadas por Freitas et al. indicam a aplicabilidade dessa proposta. Mesmo assim, fazem-se necessários estudos ulteriores focados nas limitações desses métodos. Nessa esteira, o estudo de Freitas et al. indica uma relação complexa entre as características sonoras das fontes e os parâmetros timbrísticos. Se por um lado é possível atrelar um rótulo a um procedimento timbrístico, por outro lado o resultado sonoro depende tanto do som a ser processado quanto do tipo de processamento de áudio. Isso significa que algumas fórmulas simplistas como “se você tem este som e deseja tal tipo de 31 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) resultado, use então este operador timbrístico” não são aplicáveis. Seria possível estabelecer estratégias de transferência de conhecimento aplicáveis a processos descentralizados de tomada de decisões estéticas? Essa questão demandará ainda novas iterações de design, implementação e análise de resultados. Live patching. No que diz respeito às abordagens da criatividade grupal, se situarmos a experiência ubimus de elaboração síncrona de patches no contexto das práticas colaborativas atuais baseadas nas plataformas de navegação, alguns aspectos interessantes vêm à tona. A temporalidade parece ser uma qualidade de design que atravessa todas as práticas de ubimus. A volatilidade dos recursos proporcionados pelo Kiwi pode comprometer o suporte para as negociações entre os participantes. Ademais, a imediatez do resultado sonoro das atividades de live patching pressupõe a existência e o conhecimento de uma base de código prévia. Conforme novos códigos são acrescentados, qualquer erro impacta imediatamente o resultado sonoro. O acesso ilimitado aos patches compartilhados permite que todos os participantes modifiquem o código simultaneamente. Os comportamentos destrutivos podem sabotar os resultados sonoros do grupo, de modo que outros meios de negociação são necessários. As estratégias oportunistas adaptativas envolvendo chats ou mensagens de voz via ferramentas já existentes nos navegadores podem ser empregadas para superar eventuais mal-entendidos. Essa abordagem pressupõe, contudo, uma linguagem oral compartilhada entre todos os participantes. Esse não era o caso na experiência relatada, já que envolvia participantes franceses que não falavam português e brasileiros que não sabiam francês. Alternativamente, as ações destrutivas poderiam ser evitadas implementando mecanismos seletivos de compartilhamento, permitindo que apenas certas partes dos patches fiquem disponíveis para as ações coletivas, enquanto que outras são reservadas para um grupo restrito de indivíduos ou para o autor do patch. De certa forma essa abordagem já é adotada nas práticas ubimus de comprovisação: alguns recursos estão abertos às contingências, enquanto outros são predeterminados (Aliel et al. 2018). Complementarmente, a dinâmica de compartilhamento também pode estar sujeita a restrições temporais. Nesse caso, os recursos persistentes ficam acessíveis ao longo de toda a sessão, enquanto que outros são disponibilizados apenas durante uma janela temporal definida pelos usuários. Essa restrição temporal impulsiona uma estratégia mais refinada na hora da tomada de decisões. Os recursos persistentes garantem a estabilidade estrutural do resultado sonoro, enquanto que os recursos voláteis que enriquecem a experiência introduzindo contingências. Essa técnica pode ser definida como patching ubimus volátil. Coisas musicais robóticas. O exemplo que acabamos de discutir põe em evidência a relevância das qualidades temporais dos recursos nas atividades ubimus. Se uma abordagem simplista poderia adotar as categorias computacionais de processos síncronos ou assíncronos, a perspectiva de design deste segundo ciclo ubimus exige uma análise mais sutil. Os ecossistemas musicais ubíquos envolvem recursos materiais que abrangem tanto os processos diretamente relacionados aos resultados sonoros, quanto os mecanismos de suporte que sustentam decisões mas não têm impacto imediato nos produtos sonoros. Considere-se, por exemplo, a volatilidade como qualidade de design. A volatilidade pode estar relacionada às interações sociais promovidas pela atividade musical. A participação casual envolve o engajamento de participantes que não estão familiarizados previamente com os recursos utilizados na atividade. Essa limitação coloca exigências altas na usabilidade da infraestrutura de suporte, forçando a instalação ou a configuração rápida, e em alguns casos envolvendo também o pré-processamento dos recursos. Essas exigências podem ser contornadas dividindo as funcionalidades entre grupos de participantes com perfis diversos. Ao se inserir no ciclo criativo em diferentes estágios, cada grupo fornece conhecimentos que agregam valor aos recursos e que podem propiciar uma interação mais intuitiva. Por exemplo, os usuários avançados podem oferecer configurações paramétricas complexas que os usuários casuais recuperam através de indicadores semânticos (ver exemplo em Freitas et al.). Desta feita, em ubimus os diferentes níveis de conhecimento 32 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) convergem nos esforços colaborativos configurando uma estratégia oportunista adaptativa voltada para as iniciativas comunitárias. Uma forma de temporalidade relevante no design de ubimus é a sincronicidade. Enquanto que no trabalho em estúdio os mecanismos de sincronização ficam disponíveis para uso, esses recursos são bastante mais raros nos suportes remotos. Conforme sugerido por Turchet et al. e outros autores, um dos requisitos para uma implementação efetiva da IoMusT é a existência de protocolos padronizados que permitam a troca de mensagens entre os agentes e as coisas musicais. A contribuição de Camporez et al. pode ser aplicada a uma gama de ferramentas que demandam sincronização fina, abrangendo dispositivos táteis, visuais e sonoros. A adaptação do protocolo de sincronização precisa (PTP) descrito por Camporez e coautores pode preencher parcialmente essa lacuna. Os mecanismos de compensação de atraso viabilizam a sincronização ou a recuperação (em casos de falhas temporárias de transmissão de dados). Os autores também abordam aspectos da interação homem-robô, ainda não contempladas nos projetos voltados à implementação da IoMusT. As ressalvas não são triviais. Consideremos o exemplo de uma rede simples que interliga quatro dispositivos, sendo que dois destes envolvem a participação humana e os outros dois são robôs. Para uma sessão sincrônica aberta a contribuições por parte dos dispositivos operados por humanos, o mínimo de informação a ser compartilhada é o resultado sonoro sincronizado entre todos os dispositivos. Isso implica que a acurácia temporal da transmissão deve permanecer dentro do âmbito temporal de uma amostra digital (1/44100 segundos). Isso é viável para algumas configurações locais semelhantes àquelas exemplificadas pelos autores; mas tão logo se tenta acessar dispositivos através de redes de grande extensão, a performance tende a se degradar progressivamente até atingir vários milissegundos. Em alguns casos, esse nível de degradação poderia ser evitado pelo uso da internet tátil, muito embora haja ainda diversos desafios a serem superados para viabilizar o uso musical dessa infraestrutura. Outra questão de interesse diz respeito ao conceito de criatividade distribuída (Glaveanu 2018). A pesquisa em ubimus alavancou a importância da criatividade distribuída por meio da incorporação de dispositivos remotos nas atividades musicais e através do aumento da participação de leigos em atividades de criação em grupo. Enquanto outras abordagens baseiam-se na criatividade individual – abrangendo o instrumentista virtuoso, o todo-poderoso regente de orquestra, o gênio-compositor e o técnico de estúdio –, as práticas de ubimus concedem aos participantes casuais (Pinheiro da Silva et al. 2013), aos novatos (Miletto et al. 2011) e aos robôs (Camporez et al. 2018) o centro do palco 15 . Isso eleva o nível de exigência do suporte. Conforme discutido por Coelho de Souza e Faria (2010), máquinas autônomas poderiam eventualmente proporcionar experiências de alta qualidade estética. Contudo, só seriam apreciáveis por outras máquinas autônomas equipadas com as devidas capacidades perceptivas. Embora soe estranho, se invertermos essa afirmação, torna-se claro que estamos nos aproximando rapidamente de um ponto sem volta. O volume de lixo sonoro produzido por equipamentos cotidianos (com destaque para os telefones celulares) está se tornando onipresente em casas, escritórios, terminais, ruas e mesmo hospitais! O que é necessário para reduzir a quantidade de som indesejado? Fones de cancelamento acústico. Mas o uso desse tipo de fones de ouvido, assim como o uso de aparelhos de som portáteis com fones sem cancelamento, implica em um isolamento auditivo quase completo do ambiente. O risco de conceder às indústrias de telefones celulares, de microondas ou de geladeiras16 as decisões sobre a nossa paisagem sonora cotidiana significa resignar nosso direito de escolher o nosso hábitat. Um problema semelhante está implícito na implantação massiva de robôs musicais autônomos. Se são eles que decidem quando e como farão música, como lidaremos com esses dispositivos nos espaços públicos? Quem decide como se comportam? A fábrica de robôs? O 15 Mais precisamente, ubimus elimina a hierarquia simbólica entre palco e plateia. 16 Esses são apenas os aparelhos eletrônicos mais disseminados; com a popularização da Internet das Coisas, é muito provável que todo tipo de aparelho venha a incluir atuadores e controladores. 33 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) governo? Um usuário casual? Todavia, com o aumento da dependência dos participantes humanos das funcionalidades sofisticadas dos robôs atrelados à Internet das Coisas Musicais, há o risco de ocorrer um declínio geral das habilidades criativas humanas 17 . Conforme apontado por Carr (2013): “confiar nos computadores para pilotar nossos aviões, diagnosticar nossos cânceres, desenhar nossos edifícios, auditar nossos negócios – tudo isso é muito bom; mas o que acontece se as máquinas falham e os humanos se tornam ineptos, graças à automação?” Talvez seja hora de refletir que tipo de mundo sonoro queremos. Referências Aliel, L., Keller, D., Alvim, V. R. (2019). A Soundtrack for Atravessamentos: Expanding Ecologically Grounded Methods for Ubiquitous Music Collaborations. In: M. Aramaki; O. Derrien; R. KronlandMartinet; S. Ystad. (Org.). 14th International Symposium on Computer Music Multidisciplinary Research. Marseille, France: PRISM, v. 1, 652-662. Aliel, L., Keller, D., & Costa, R. (2015). Comprovisação: Abordagens Desde a Heurística Estética em Ecocomposição. XV Simpósio Brasileiro de Computação Musical (SBCM 2015) (pp. 169-180). Campinas, SP: SBC. (ISBN 2175-6759). Arcadi, A. C., Robert, D., & Mugurusi, F. (2004). A comparison of buttress drumming by male chimpanzees from two populations. Primates, 45(2), 135-139. Babiszewska, M., Schel, A. M., Wilke, C., & Slocombe, K. E. (2015). Social, contextual, and individual factors affecting the occurrence and acoustic structure of drumming bouts in wild chimpanzees (Pan troglodytes). American journal of physical anthropology, 156(1), 125-134. Barbosa, A. (2010). Performance Musical em Rede. In D. Keller, R. Budasz (eds.), Criação musical e tecnologias: Teoria e prática interdisciplinar, Goiânia: Anppom (Série Pesquisa em Música no Brasil, v. 2), pp. 180-200. (ISBN: 978-85-63046-01-7). Bernadini, N. & Vidolin, A. (2005). Sustainable live electroacoustic music, eContact 8(3). Blacking, J. (1973). How Musical is Man?. Seattle, WA: University of Washington Press. Borning, A., & Travers, M. (1991). Two approaches to casual interaction over computer and video networks. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 13-19). Brown, A. R., Stewart, D., Hansen, A., & Stewart, A. (2014). Making meaningful musical experiences accessible using the iPad. In Ubiquitous Music (pp. 65-81). Berlin and Heildelberg: Springer. Camporez, H. A. F., Neto, A. F., Costalonga, L. L., & Oliveira Rocha, H. R. (2018). Interface Computacional para Controle Musical Utilizando os Movimentos dos Olhos. Revista Vórtex, 6(2), Dossiê Música Ubíqua. Carr, N. (2013). All can be lost: The risk of putting our knowledge in the hands of machines. The Atlantic, 11, 1-12. Chafe, C. (1993). Tactile audio feedback. In Proceedings of the International Computer Music Conference (ICMC 1993) (pp. 76-79). Tokio: ICMA. Coelho de Souza, R. C., & Faria, R. R. A. (2011). Oito Reflexões sobre a Criatividade na Composição Auxiliada por Computadores. Proceedings of the 13th Brazilian Symposium on Computer Music (SBCM 2011), Vitória, ES: SBC. Costalonga, L. L., Pimenta, M. S., Queiroz, M., Manzolli, J., Gimenes, M., Keller, D. & Faria, R. R. A. (2011). Proceedings of the 13th Brazilian Symposium on Computer Music (Simpósio Brasileiro de Computação Musical - SBCM ).Vitória, ES: Brazilian Society of Computer Science (SBC). Donald, M. (2006). Art and cognitive evolution. In Mark Turner (ed.), The Artful Mind: Cognitive Science and the Riddle of Human Creativity. Oxford, UK: Oxford University Press, 3-20. 17 Esse fenômeno já foi observado em diversos estudos do uso de telefones celulares. A simples presença desses dispositivos tem impacto negativo nas capacidades cognitivas dos sujeitos. 34 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Dufour, V., Poulin, N., Curé, C., & Sterck, E. H. (2015). Chimpanzee drumming: a spontaneous performance with characteristics of human musical drumming. Scientific Reports, 5, 11320. Dunbar, R. I., & Shultz, S. (2007). Evolution in the social brain. Science, 317(5843), 1344-1347. Ehn, P. (1988). Work-oriented design of computer artifacts. Stockholm, Sweden: Arbetslivscentrum. Flores, L., Miletto, E., Pimenta, M., Miranda, E., & Keller, D. (2010, September). Musical interaction patterns: Communicating computer music knowledge in a multidisciplinary project. In Proceedings of the 28th ACM International Conference on Design of Communication (pp. 199-206). Herholz, S. & Zatorre, R. (2012). Musical Training as a Framework for Brain Plasticity: Behavior, Function, and Structure. Neuron 76(3), 486 – 502. Honing, H., Cate, C., Peretz, I., & Trehub, S. E. (2015). Without it no music: cognition, biology and evolution of musicality. Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences, 370, 20140088. https://doi.org/10.1098/rstb.2014.0088 Keller, D., Gomes, C., & Aliel, L. (2019). The Handy Metaphor: Bimanual, touchless interaction for the internet of musical things. Journal of New Music Research, 48(4), 385-396. Keller, D., & Barreiro, D. (2018). Editorial Seção Temática Música Ubíqua: Forças de atração e desafios na pesquisa ubimus. Revista Vórtex, 6(2). Keller, D., Capasso, A. & Tinajero, P. (2015). Creativity-centered design from an ecologically grounded perspective: Activities and resources in Palafito 1.0. Journal of Cases on Information Technology 17 (4), 1-19. (Doi: 10.4018/JCIT.2015100101.) Keller, D., Flores, L. V., Pimenta, M. S., Capasso, A. & Tinajero, P. (2011). Convergent Trends Toward Ubiquitous Music. Journal of New Music Research 40(3), 265-276. (Doi: 10.1080/09298215.2011.594514.) Keller, D. & Lazzarini, V. (2017). Ecologically grounded creative practices in ubiquitous music. Organised Sound 22 (1), 61-72. Keller, D., & Feichas, L. (2018). Ecocompositional and Performative Strategies for Creative Usage of Everyday Sounds: Creative Semantic Anchoring. Leonardo, 51(2), 195-196. Keller, D. & Budasz, R. (eds.) (2010). Musical Creation and Technologies: Interdisciplinary Theory and Practice (Criação Musical e Tecnologias: Teoria e Prática Interdisciplinar), Vol. 2. Goiânia, GO, Brazil: ANPPOM Press. (ISBN: 978-85-63046-01-7). Keller, D., Lazzarini, V., & Pimenta, M. S. (Eds.). (2014a). Ubiquitous music. Cham: Springer. Keller, D., Timoney, J., Costalonga, L., Capasso, A., Tinajero, P., Lazzarini, V., Pimenta, M. S., Lima, M. H. & Johann, M. (2014). Ecologically grounded multimodal design: The Palafito 1.0 study. In Proceedings of the International Computer Music Conference (ICMC 2014). Ann Arbor, MI: MPublishing, pp. 1677-1684. Keller, D., Otero, N., Lazzarini, V., Pimenta, M. S., de Lima, M. H., Johann, M., & Costalonga, L. (2014). Relational properties in interaction aesthetics: The ubiquitous music turn. Electronic Visualisation and the Arts (EVA 2014), 207-214. Keller, D. & Lazzarini, V. (2015). Special Issue on Creativity-Centered Design and the Digital Arts. Journal of Cases in Information Technology 17 (4). Keller, D. & Lima, M. H. (2018). Applications in Ubiquitous Music (Aplicações em Música Ubíqua). Vol. 7. São Paulo, SP: Editora ANPPOM. (ISBN: 978-85-63046-08-6.) Keller, D., Queiroz, M., Pimenta, M. S. & Faria, R. R. A. (eds.) (2011). Special Issue: New Paradigms for Computer Music, Journal of New Music Research 40 (3). London: Taylor & Francis Group. Pinheiro da Silva, F., Keller, D., Ferreira da Silva, E., Pimenta, M. S., & Lazzarini, V. (2013). Everyday musical creativity: Exploratory study of ubiquitous musical activities (Criatividade musical cotidiana: Estudo exploratório de atividades musicais ubíquas). Música Hodie, 13, 64-79. Keller, D., Quaranta, D. & Sigal, R. (eds.) (2013). Special Volume Sonic Ideas: Musical Creativity, Vol. 10. Morelia, Michoacán: Centro Mexicano para la Música y las Artes Sonoras - CMMAS. http://www.sonicideas.org. (ISSN: 2317-9694). 35 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Kontukoski, M., Luomala, H., Mesz, B., Sigman, M., Trevisan, M., Rotola-Pukkila, M. & Hopia, A. (2015). Sweet and sour: Music and taste associations. Nutrition & Food Science 45(3), 357-376. Lazzarini, V., & Timoney, J. The Analogue Computer as a Voltage-Controlled Synthesiser. In 14th International Symposium on Computer Music Multidisciplinary Research (p. 663). Lazzarini, V., Keller, D., Kuhn, C., Pimenta, M. & Timoney, J. (2015). Prototyping of ubiquitous music ecosystems. Journal of Cases on Information Technology 17 (4), 73-85. (Doi: 10.4018/JCIT.2015100105.) Lima, M. H., Keller, D., Flores, L. V., & Ferreira, E. (2017). Ubiquitous music research: Everyday musical phenomena and their multidisciplinary implications for creativity and education. Journal of Music, Technology & Education, 10(1), 73-92. Lima, M. H., Keller, D., Pimenta, M. S., Lazzarini, V. & Miletto, E. M. (2012). Creativity-centred design for ubiquitous musical activities: Two case studies. Journal of Music, Technology and Education 5 (2), 195222. (Doi: 10.1386/jmte.5.2.195_1.) Literat, I., & Glaveanu, V. P. (2018). Distributed creativity on the internet: A theoretical foundation for online creative participation. International Journal of Communication, 12, 16. Maier, M., Mahfuzulhoq, C., Rimal, B. and Pham Van, D. (2016). The Tactile Internet: Vision, Recent Progress, and Open Challenges, IEEE Communications Magazine 54. (DOI: 10.1109/MCOM.2016.7470948) Messina, M., & Aliel, L. (2019, October). Ubiquitous Music, Gelassenheit and the Metaphysics of Presence: Hijacking the Live Score Piece Ntrallazzu 4. In 14th International Symposium on Computer Music Multidisciplinary Research (pp. 685-695). Marseille, France: PRISM. Miletto, E. M., Pimenta, M. S., Bouchet, F., Sansonnet, J.-P. & Keller, D. (2011). Principles for Music Creation by Novices in Networked Music Environments. Journal of New Music Research 40 (3), 205-216. (Doi: 10.1080/09298215.2011.603832.) Malinin, L. H. (2013). Empowering the Creative Practitioner: Towards an ecological framework of creativity as embedded practice to inform environmental design. University of Colorado at Denver. McCormack, J., & d’Inverno, M. (Eds.). (2012). Computers and creativity. Berlin and Heidelberg: Springer. Mithen, S. J. (2007). The singing neanderthals: The origins of music, language, mind and body. Cambridge, MA: Harvard University Press. Mori, B. B. (2017). Music and non-human agency. In Ethnomusicology: A Contemporary Reader, Volume II (pp. 181-194). London: Routledge. Odling-Smee, F. John, Kevin N. Laland, and Marcus W. Feldman (2003). Niche Construction: The Neglected Process in Evolution. Princeton: Princeton University Press. Pata, K. (2010). Revising the framework of knowledge ecologies: How activity patterns define learning spaces. In Educational Social Software for Context-Aware Learning: Collaborative Methods and Human Interaction (pp. 241-267). Vancouver, BC: IGI Global. Patel, A. D. (2014). The evolutionary biology of musical rhythm: was Darwin wrong?. PLoS biology, 12(3). Paris, E., Millot, J., Guillot, P., Bonardi, A. & Sèdes, A. (2017), Kiwi : Vers un environnement de creation musicale temps reel collaboratif premiers livrables du projet MUSICOLL. In Actes de Journées d'Informatique Musicale 2017 (JIM 2017). Pereira, V. S., Silva, S. L., Bessa, W. R. B., Alcântara-Silva, T. R. & Keller, D. (2018). SoundSphere: Participatory design as a strategy to develop sustainable technologies in ubiquitous music (SoundSphere: O design participativo como estratégia para o desenvolvimento de tecnologias sustentáveis em música ubíqua), Sonic Ideas 10 (19), 7-44. Pimenta, M. S., Flores, L. V., Capasso, A., Tinajero, P. & Keller, D. (2009). Ubiquitous music: concept and metaphors. In Farias, R. R. A., Queiroz, M. and Keller, D. (eds.), Proceedings of the Brazilian Symposium on Computer Music (SBCM 2009), pp. 139-150. Recife, PE: SBC. 36 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Pinheiro da Silva, F., Keller, D., Ferreira da Silva, E., Pimenta, M. S., & Lazzarini, V. (2013). Everyday musical creativity: Exploratory study of ubiquitous musical activities (Criatividade musical cotidiana: Estudo exploratório de atividades musicais ubíquas). Música Hodie 13, 64-79. Pinker, S. (1997). How the mind works. New York, NY: Norton. Quiñones, M. G., Kassabian, A., & Boschi, E. (eds.). (2016). Ubiquitous musics: The everyday sounds that we don't always notice. London: Routledge. Rokeby, D. (1986). Very Nervous System [Installation]. Arte, Tecnologia e Informatica, Venice Biennale, Venice, Italy. http://www.davidrokeby.com/vns.html Small, C. (1998). Musicking: The meanings of performing and listening. Wesleyan University Press. Sorensen, A. C., & Brown, A. R. (2007). aa-cell in practice: An approach to musical live coding. In Proceedings of the International Computer Music Conference (pp. 292-299). International Computer Music Association. Stolfi, A. S., Milo, A., & Barthet, M. (2019). Playsound. space: Improvising in the browser with semantic sound objects. Journal of New Music Research, 48(4), 366-384. Truax, B. (1984). Acoustic Communication. Norwood NJ: Ablex Publishing. Turchet, L., Fischione, C., Essl, G., Keller, D., & Barthet, M. (2018). Internet of musical things: Vision and challenges. IEEE Access, 6, 61994-62017. Weiser, M. (1991). The Computer for the 21 st Century. Scientific American, 265(3), 94-105. Wessel, D., & Wright, M. (2002). Problems and prospects for intimate musical control of computers. Computer Music Journal, 26(3), 11-22. Zawacki, L. F., & Johann, M. O. (2012). A system for recording analog synthesizers with the Web. In Proceedings of the International Computer Music Conference (pp. 128-131). 37 International Journal of Digital Media and Interaction Special Issue on Ubiquitous Music, Vol.3, No.5, (2020) Interação Timbrística em Música Ubíqua: A Ecologia de Metáforas da Esfera Sonora (Timbre Interaction in Ubiquitous Music: The Sound Sphere Ecology of Metaphors) Brendah Freitas1, Damián Keller1, Willian Ramon Barbosa Bessa2, David Ferreira da Costa1, Flávio Miranda de Farias2 Núcleo Amazônico de Pesquisa Musical (1 Universidade Federal do Acre /2 Instituto Federal do Acre) [email protected], [email protected], [email protected], [email protected]. [email protected] Abstract Timbre is among the topics of ubiquitous music research featuring some of the most difficult conceptual and methodological challenges, especially when targeting lay-oriented interaction. Timbre parameterization cannot be handled by simplistic or arbitrary mapping strategies. Also, semantic abstractions may not be amenable to untrained stakeholders. To deal with casual usage of complex parametric configurations, we developed a two-tier approach to an ecology of metaphors for creative action. An exploratory study of usage of the Sound Sphere Metaphor - by undergraduate music students with no previous training on audio tools - yielded successful creative outcomes but also left room for improvement in the experimental procedures. Keywords: ubiquitous music; sound sphere metaphor; everyday musical creativity Resumo Discutimos abordagens recentes de suporte assíncrono para atividades musicais online para vários perfis de participantes, incluindo os iniciantes. O timbre é um tópico emergente da pesquisa em música ubíqua que apresenta desafios conceituais e metodológicos para a interação musical orientada a leigos. Por um lado, o timbre envolve processos perceptuais complexos que não estão contemplados nas estratégias de mapeamentos diretos ou arbitrários de parâmetros sonoros. Por outro lado, o uso de termos abstratos também pode impossibilitar o acesso aos interessados que não dominam o arcabouço conceitual musical. Desenvolvemos uma abordagem em dois níveis desde um enfoque ecológico para a ação criativa para viabilizar o suporte para interação timbrística por parte de usuários causais. Realizamos um estudo exploratório dentro do contexto das atividades curriculares de um curso introdutório em tecnologia musical. Discutimos os resultados e as implicações do uso da ecologia de metáforas vinculadas ao conceito da Esfera Sonora para o desenvolvimento do suporte à criatividade musical cotidiana. Palavras chave: música ubíqua; metáfora da esfera sonora; criatividade musical cotidiana. 1. Introdução Uma questão abordada pela pesquisa em música ubíqua (Keller et al. 2014) é como lidar com decisões estéticas, evitando as barreiras para a participação vinculadas à exigência de treinamento musical. Atualmente, a pesquisa atual em interação musical enfatiza uma tendência à especialização embasada no conhecimento técnico-musical e voltada para o instrumentista virtuoso (Wessel e Wright 2002). Esse enfoque - denominado por diversos autores como o enfoque acústico-instrumental (cf. Bown et al. 2009; Keller et al. 2010) - envolve o uso de interfaces baseadas na emulação de instrumentos musicais acústicos e incentiva a adoção de formas hierárquicas de interação social, exemplificadas pelo modelo da “orquestra” (Trueman 2007). Enquanto que algumas dessas estratégias ISSN: 2184-3120 CC 2020 DIGIMEDIA International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) podem ser aplicáveis para as atividades dos músicos profissionais atuando em locais planejados para fins artísticos, os requisitos da criatividade musical cotidiana (Keller et al. 2013; Keller e Lima 2016; Lima et al. 2017) não são compatíveis com o design de interação musical baseado no modelo acústicoinstrumental. As metáforas para a ação criativa encontram-se no ponto de contato entre o conceito de metáfora de interação musical (Pimenta et al. 2012) e as soluções alinhadas com a estética da interação voltada para a criatividade musical (Brown et al. 2018; Keller et al. 2014b; Keller et al. 2015a). Elas envolvem o suporte sustentável da atividade criativa, abrangendo por um lado o objeto da atividade – o produto criativo – e por outro os procedimentos necessários para atingir esse objeto – o processo criativo. É este último aspecto que diferencia as metáforas de suporte à criatividade das metáforas de interação. Enquanto as metáforas de interação musical fornecem o apoio necessário para que leigos e músicos consigam atingir resultados musicais, as metáforas para a ação criativa visam aumentar o potencial criativo dos participantes. Esse potencial criativo pode ter impacto nos produtos intencionais e não intencionais da atividade musical. Porém, o objetivo principal do suporte não é o produto criativo em si, mas o aumento da capacidade de utilização dos recursos existentes no local da atividade, por parte dos agentes. Como exemplos de metáforas para a ação criativa podemos citar a marcação temporal (Keller et al. 2010; Radanovitsck et al. 2011), a metáfora da listra (Farias et al. 2015; Silva et al. 2016), a marcação espacial (Keller et al. 2011; Keller et al. 2013c) e os substitutos criativos (Keller et al. 2014c; Keller et al. 2015a). No presente projeto adotamos uma perspectiva ampla em relação ao timbre. Existem enfoques diversos voltados para a percepção, categorização e análise timbrísticas que abriram novas perspectivas sobre a utilização criativa do timbre. Recentemente, Coelho de Souza1 (2019) propõe a análise por modelagem como uma estratégia aplicável não só nas categorias tradicionais nos estudos do timbre (como os sons instrumentais acústicos), ele sugere que a análise por modelagem pode também abranger os sons sintetizados. Nessa esteira, seria natural ampliar as estratégias de design para incluir o processamento sonoro como forma de aproximação às organizações timbrísticas. Coelho de Souza sugere a adoção de descritores sonoros como forma de trabalhar criativamente com os fenômenos timbrísticos. Esse é a perspectiva aplicada neste trabalho, focando o problema da complexidade paramétrica envolvida na configuração de algoritmos de processamento sonoro. Neste artigo relatamos os procedimentos utilizados no desenvolvimento de uma nova metáfora para a ação criativa, a Esfera do Som ou Sound Sphere Metaphor. A Metáfora da Esfera do Som é um projeto em desenvolvimento no Núcleo Amazônico de Pesquisa Musical 2,3 (NAP), voltado para o suporte de atividades criativas em rede assíncronas (Bessa et al. 2015). O NAP é um grupo ativo desde 2003, com membros permanentes nas universidades federais do Acre, da Paraíba e no Instituto Federal do Acre. É o grupo de pesquisa em práticas criativas com maior produção e projeção da região Norte do Brasil. Na seção seguinte abordamos os trabalhos voltados ao uso de recursos semânticos, com potencial de contribuição para a interação musical. Na terceira parte do texto descrevemos a ecologia vinculada à Metáfora da Esfera Sonora4, dando destaque para uma estratégia de design que 39 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) permite a interação em duas camadas abrindo espaço para a inserção de leigos e de especialistas dentro dos processos criativos. Por último, apresentamos os resultados preliminares de um estudo exploratório envolvendo alunos de graduação em música, iniciantes no uso de ferramentas tecnológicas. 2. Trabalhos Relacionados: Estratégias semânticas para melhorar a usabilidade dos sistemas de processamento de áudio Nesta seção analisamos as estratégias empregadas para facilitar as operações de processamento de áudio nos sistemas voltados para usuários não especialistas. Independentemente de que o processamento de áudio não seja o foco específico dos sistemas projetados para manipular dados musicais, como é o caso dos sequenciadores e dos editores baseados em dados MIDI, existem aspectos comuns no suporte à interação que justificam o tratamento em conjunto de ferramentas de manipulação de dados musicais e de dados sonoros. Nossa abordagem baseia-se numa perspectiva ampla da interação musical, apoiada em avanços recentes na pesquisa em interação humanocomputador (Harrison et al. 2007; Shneiderman 2007) e na pesquisa em música ubíqua (Keller et al. 2014a; Keller e Lazzarini 2015; Pimenta et al. 2014). UJAM Studio é uma ferramenta comercial para mixagem online (UJAM 2017). O tipo de suporte está intimamente relacionado ao karaokê, ele inclui uma ferramenta de análise do som vocal monofônico e usa a informação extraída para sugerir presets de acompanhamento musical. Ao escolher uma opção entre os gêneros musicais comerciais disponibilizados, o sistema fornece gravações instrumentais acústicas pré-editadas para o estilo escolhido. Para compensar essa abordagem baseada em pacotes musicais prontos, o UJAM Studio fornece suporte para modificar os modelos. O editor de acordes exibe cifras em uma matriz, permitindo que os usuários editem as sequências harmônicas. Também tem ferramentas simples para edição de áudio. Um aspecto interessante da interface do UJAM Studio é o acesso direto a informações de nível estrutural intermediário (figura 1 (c) editar a estrutura formal). Os usuários podem definir blocos de dados musicais, atribuir um nome e uma cor, e modificar sua distribuição temporal através de um mecanismo de drag-and-drop. Esse tipo de abordagem gráfica para a manipulação de dados musicais foi proposto e investigado pela equipe de representação musical do IRCAM desde o final da década de 1990 (Assayag 1998). 40 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) a. Capturar a voz b. Aplicar presets instrumentais c. Editar a estrutura formal d. Editar as amostras de áudio Figura 1. UJAM Studio. O UJAM Studio tenta aumentar a usabilidade através da abstração dos dados musicais. Por exemplo, os acordes são substituídos por letras e as seções musicais são representadas por retângulos com cores diversas. Uma abordagem diferente é utilizada na ferramenta de apoio1 do sequenciador Neutron (Neutron 2018) (figura 2). Ao invés de investir no aprimoramento da usabilidade da interface gráfica, o sistema Neutron separa a interação em duas etapas. A primeira etapa fornece descritores simples que representam diversas opções paramétricas. Por exemplo, as opções de dinâmica são: baixa, média e alta (equivalentes a piano, mezzo forte e forte). Cada um dos termos corresponde a uma configuração paramétrica predefinida. A segunda etapa dá acesso à interface gráfica, permitindo que o usuário faça alterações finas nos parâmetros. Esse mecanismo é computacionalmente eficiente e bastante intuitivo para o uso em sistemas assíncronos. A limitação é que o usuário não tem um retorno sonoro imediato para aferir o impacto das suas escolhas. 1 Track assistant no original. 41 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 2. Neutron track assistant. Uma estratégia de suporte mais flexível é documentada em (Cartwright e Pardo 2013; Seetharaman e Pardo 2016; Stables et al. 2014). Esses autores utilizam descritores semânticos para o controle paramétrico do processamento de áudio. A ideia é semelhante ao procedimento implementado no UJAM, porém sem dividir a interação em dois estágios. A proposta é inserir os descritores semânticos diretamente nos controladores. Os usuários podem recuperar os termos utilizados anteriormente ou podem criar seus próprios adjetivos para descrever as qualidades timbrísticas resultantes das manipulações paramétricas. Audealize (Cartwright e Pardo 2013; Seetharaman e Pardo 2016) abrange dois sistemas: um permite o controle de parâmetros de equalização e o outro serve para configurar os parâmetros de reverberação. O objetivo da proposta é utilizar descritores percentualmente relevantes como ferramentas de controle de equalização e de reverberação, evitando a manipulação direta das magnitudes acústicas (e.g., tempo de reverberação ou nível de absorção, entre outros parâmetros). A interface Audealize exibe descritores criados pelo usuário para nomear configurações paramétricas (figura 3). A interface aplica a metáfora da nuvem de palavras (tag cloud). O conceito de nuvem de palavras foi introduzido pelo psicólogo social Stanley Milgram e sua equipe em um estudo da percepção grupal da geografia de Paris (Milgram e Jodelet 1976). Na visualização proposta por Milgram, o tamanho da fonte estava correlacionado à frequência com que cada lugar era mencionado pelos sujeitos. As nuvens de palavras podem ser usadas para diversos fins, mas sua aplicação mais comum é a representação visual das relações entre conceitos. As configurações paramétricas podem ser alteradas clicando no descritor ou, alternativamente, manipulando o slider correspondente à amplitude de cada faixa de frequência ou utilizando os knobs de controle de parâmetros de reverberação (no caso, tempo de reverberação, densidade de ecos, brilho, entre outros). 42 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 3. Audealize. Em vez de implementar um sistema baseado na web, Stables e coautores (2014) optam por aprimorar a funcionalidade das ferramentas de áudio digital (DAWs) através do controle semântico. Eles relatam o uso de tags semânticas para controlar os parâmetros de equalização, distorção, compressão e reverberação, através da implementação de plugins de áudio (agrupados sob o denominador Semantic Audio Feature Extraction - SAFE) (figura 4). Os plugins SAFE possuem ferramentas de controle e visualização (permitindo a exibição gráfica das mudanças de parâmetros) e fornecem um mecanismo de vinculação de um descritor (ou descritores) para cada configuração paramétrica. Desta feita, os usuários podem salvar e recuperar as configurações digitando ou selecionando uma palavra ou uma sequência de palavras. O sistema também aceita metadados do usuário e da amostra sonora - incluindo idade e localização, experiência de produção de música, escolha de gênero musical e instrumentos musicais utilizados. Figura 4. Plug-ins SAFE: Semantic Audio Feature Extraction. Uma análise dos termos coletados indicou que a equalização e a compressão compartilham um vocabulário comum, enquanto que a reverberação e a distorção apresentam termos descritivos diferentes (Stables et al. 2016). Os termos utilizados no compressor tendem a corresponder ao nível 43 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) de processamento do sinal. Alto, grosso ou achatado geralmente referem-se a configurações extremas de compressão, enquanto que sutil, leve ou suave descrevem ajustes pequenos no envelope de amplitude. As características da distorção ficam agrupadas pela magnitude da transformação sônica, com termos como distorcido e áspero (fuzz, harsh) claramente separados de sutil, afilado e rosnado (subtle, rasp, growl). A equalização compreende uma distribuição ampla de categorias, exceto nos termos que se referem a tessituras específicas do espectro, como baixo, médio ou agudo, que ocupam espaços conceituais independentes. Os termos da reverberação são agrupados pelo tamanho e pelas características dos espaços acústicos. Por exemplo, os descritores auditório e sala (hall, room) compartilham um espaço comum, enquanto que mole, úmido e natural (soft, damp, natural) pertencem a outra partição conceitual. Em contraste com os resultados positivos que acabamos de discutir, Seetharaman e Pardo (2014) apontam que os termos usados mais comumente para descrever os perfis dos reverberadores não correspondem com as diferenças paramétricas entre as diversas configurações de reverberação. Por esse motivo, eles concluem que operar um reverberador paramétrico usando as configurações acústicas permite obter resultados mais previsíveis do que utilizar os controles semânticos. Resumindo, as propostas recentes em interação baseada em descritores semânticos para o processamento de áudio apontam caminhos promissores de desenvolvimento, porém precisam de mais estudo. Embora os trabalhos realizados foquem a validação de descritores definidos pelos participantes, não é claro se os termos espontâneos podem ser aplicados a uma gama ampla de casos e de contextos de uso ou se é preferível adotar abordagens que limitem o número de categorias disponíveis. A questão torna-se particularmente problemática quando é levado em consideração o perfil dos participantes. Os estudos listados parecem indicar que a base de usuários inclui somente músicos especializados com experiência considerável na manipulação de equipamentos de estúdio e de ferramentas de produção de áudio. Aparentemente, nessa população-alvo seria possível substituir a interação com GUIs pelo o uso de termos técnicos descritivos. Mas essa estratégia não é consistente com o objetivo de expandir a base de usuários. Se, por um lado, espera-se que os interessados na produção de áudio invistam tempo para se familiarizar com um conjunto de ferramentas específicas, por outro lado, não é óbvio que a adoção de um vocabulário técnico proporcione uma melhoria na interação em comparação com o uso de interfaces gráficas. Para alguns novatos, a experiência pode se tornar exasperante. Dependendo do controle paramétrico escolhido, um conjunto vasto de resultados sonoros corresponderia a outro conjunto amplo de conceitos (abrangendo desde noções cotidianas familiares até o uso de jargão exótico ou altamente especializado). Levando em conta esses fatores, a abordagem de Stasis e co-autores (2017) parece razoável. Eles aplicaram apenas dois descritores de equalização de uso frequente - quente e brilhante - e tentaram desvendar as implicações. Curiosamente, descobriram que o uso do adjetivo quente é 100% confiável (dentro do contexto limitado da experiência), enquanto que o uso de brilhante atinge apenas 90% de precisão. O melhor desempenho - quando comparado a tarefas que lidam com um conjunto ilimitado de descritores - indica que houve uma redução da demanda cognitiva dos processos de decisão. Pode-se fornecer inicialmente uma ampla gama opções - normalmente no âmbito de dezenas de descritores. Nas 44 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) iterações subsequentes pode-se aplicar o processo de refinamento progressivo, com categorias amplas primeiro, e mais restritas depois, até atingir mudanças paramétricas pouco significativas. Ao interpretar esses resultados desde uma perspectiva mais abrangente, centrada na criatividade, devem ser considerados outros aspectos. As ferramentas de processamento sonoro raramente são usadas de forma isolada. Frequentemente, são empregadas no contexto de uma ampla gama de atividades (incluindo a edição e a mixagem de áudio), dando suporte para um conjunto de tarefas que alguns autores chamam de cadeia de produção de áudio (Tatlas et al. 2003). Nesse contexto, fatores como o investimento temporal na atividade e as demandas de recursos materiais tornam-se tão importantes quanto a avaliação do produto criativo. Os métodos aplicados na pesquisa ubimus podem ajudar a avaliar o impacto do suporte à interação focando os fatores criativos (Pimenta et al. 2014). Por exemplo, ferramentas como Audealize e SAFE podem ser usadas em conjunto com plataformas de mixagem (SoundSphere ou Audacity) para avaliar o investimento temporal na geração de recursos sonoros, a relação entre o uso de recursos e os resíduos criativos produzidos, e o perfil criativo dos produtos obtidos em função do perfil dos participantes. Investimentos temporais altos junto com níveis baixos de originalidade nos produtos criativos podem indicar demandas cognitivas inadequadas para o perfil das partes envolvidas. Esse tipo de enfoque permite aferir o impacto das opções de design nos produtos criativos e ao mesmo tempo impulsiona a ampliação da base de usuários. Tabela 1. Resumo das características dos sistemas revisados e propostos. Ferramenta Contexto De Uso Arquitetura UJAM Studio Online fixo Neutron track assistant Neutron sequencer plugin fixo SAFE DAW plugin fixo Objetivo Recursos De Interação karaokê, acompanhamento instrumental escolha de préconfigurações de fábrica para seqüências de dados musicais equalização, reverberação, compressão, distorção acordes representados como letras; dados musicais representados como rotulados; blocos coloridos Audealize Online fixo equalização, reverberação TOE SoundSphere modular equalização abordagem em dois níveis: predefinições escolhidas por meio de sucessivas perguntas de múltipla escolha; controles de GUI paramétricos padrão operadores representados como descritores definidos pelo usuário; controles de GUI paramétricos padrão operadores representados como descritores definidos pelo usuário; exibição de nuvem de palavras dos operadores; design orientado para a comunidade abordagem em dois níveis: os operadores representados como descritores são definidos pelo usuário; os músicos projetam os operadores e os novatos carregam os projetos gerenciados pela comunidade 3. Uma metáfora em duas camadas para a interação timbrística A Metáfora da Esfera do Som envolve a visualização de um usuário sentado no centro de uma esfera ou globo, enquanto os eventos sonoros são projetados na superfície da esfera. O eixo vertical corresponde às faixas de mixagem e o eixo horizontal corresponde ao layout temporal dos eventos. Mover o eixo para cima ou para baixo permite exibir eventos que serão renderizados simultaneamente. 45 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Movimentos ao longo da linha do tempo em direção à esquerda descobrem eventos passados enquanto os movimentos à direita dão acesso ao conteúdo sonoro futuro (tabela 3). Durante a reprodução, o globo se movimenta a uma velocidade angular fixa. Todas as amostras dispostas no eixo vertical são executadas quando atingem o tracker (ou linha de referência temporal). O número de faixas é limitado apenas pela memória disponível no dispositivo. O tipo, quantidade e tamanho do conteúdo sonoro são abertos. A versão 1.3 do protótipo fornece três grupos de ferramentas (tabelas 2 e 3): o painel de mixagem, o menu de ferramentas e a biblioteca de amostras de áudio. Para identificar as amostras no painel de mixagem, o sistema cria um ícone com uma cor específica, com base na ordem alfanumérica dos arquivos carregados. Ao passar o mouse sobre cada item, os usuários podem reproduzir trechos do conteúdo de áudio. A seleção do evento é feita via clique (ou toque). O sistema cria um círculo para indicar a seleção. Depois desse procedimento, o usuário pode inserir o item selecionado no painel de mixagem clicando (ou tocando) no local desejado. O painel é indicado pela seta 2. Os números na borda superior representam o tempo em segundos. A borda esquerda apresenta os números das faixas. O usuário pode navegar pelo painel clicando e movendo o mouse sobre ele. A funcionalidade loop quando ativada, reinicia automaticamente a reprodução; play inicia a reprodução; pause interrompe a reprodução; stop interrompe a reprodução e coloca o tracker no tempo zero; enable options dá acesso à manipulação de parâmetros sonoros. Ao clicar em um evento, ele pode ser excluído ou alterado. As opções são: amplitude e mudo ou solo. O botão restart apaga tudo no painel de mixagem; upload insere um ou mais arquivos de áudio para uso no aplicativo; e download permite mixar e baixar o resultado imediatamente. Um protótipo do SoundSphere recém implementado forneceu a oportunidade de investigar a aplicação da metáfora envolvendo o uso de operadores semântico-timbrísticos. A construção dos operadores semântico-timbrísticos é realizada com uma ferramenta on-line implementada para viabilizar a composição de um banco de filtros de resposta finita com arquiteturas e parâmetros definidos pelo usuário: o Editor de Operadores Semântico-Timbrísticos (ou TOE). A ferramenta TOE permite a construção rápida de bancos de filtros baseados na biblioteca Web Audio e anexa um rótulo fornecido pelo projetista, por exemplo brilhante ou escuro, quente ou frio. A ferramenta fornece retorno sonoro imediato, e permite construir uma cadeia serial de filtros (incluindo lowpass, highpass, bandpass, allpass, lowself, highshelf e notch). A interface apresenta os parâmetros usuais dos filtros - atenuação ou aumento de frequências, Q e ganho. Ao finalizar a edição, a ferramenta TOE gera um arquivo de configuração no formato JSON que pode ser importado pelo SoundSphere 1.3 ou por outros sistemas baseados na biblioteca Web Audio. Os usuários do SoundSphere podem recuperar as definições de processamento timbrístico selecionando os operadores semântico-timbrísticos (como mencionado acima, os descritores são definidos pelos usuários e podem incluir termos como claro ou escuro, quente ou frio, etc.). 46 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Tabela 2. Os dois estágios para a ação criativa em SoundSphere. Nível 1, preparação. nível 1: preparação perfil de usuário descrição de uso avançado metáfora de suporte criativo seleção de recursos sonoros atividades editor de operadores semântico-timbrísticos (TOE) design de operadores semânticotimbrísticos saída operadores semântico-timbrísticos Tabela 3. Os dois estágios para a ação criativa em SoundSphere. Nível 2, execução. nível 2: execução perfil de usuário descrição de uso casual metáfora de suporte criativo metáfora da degustação sonora seleção metáfora da esfera do som atividades mixagem processamento fixo de timbres som comentado (VOS) 47 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) saída áudio processado Implementação e design participativo. A ferramenta SoundSphere foi desenvolvida pelos membros do NAP como parte de um projeto que visa a disponibilização e validação da metáfora para a ação criativa Esfera do Som ou Esfera Sonora, Sound Sphere Metaphor (Bessa et al. 2015). A metáfora da esfera sonora propõe a visualização de eventos sonoros projetados numa esfera, com o usuário sentado no centro da mesma. No eixo vertical - equivalente à latitude terrestre - situam-se as trilhas de mixagem. O eixo horizontal - equivalente à longitude terrestre - corresponde ao tempo. Ao movimentar as trilhas para cima ou para baixo, podem-se visualizar os sons que serão renderizados simultaneamente. Ao mover a linha de referência do tempo, também denominada tracker, para a esquerda retrocede-se no tempo, enquanto que para a direita acessam-se os eventos futuros (figura 5). Ao reproduzir a mixagem, o tracker movimenta-se de acordo com a velocidade angular definida pelo usuário, e as amostras sonoras são renderizadas no momento em que elas atingem a linha de referência temporal. Nesse modelo tanto o tempo do resultado sonoro quanto a quantidade de trilhas deixam de ser pré-definidos e passam a ter valores incrementais, que são determinados de acordo com a quantidade e o tamanho das amostras sonoras inseridas no painel de mixagem (tabela 3). 48 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 5. Metáfora da esfera sonora: o eixo vertical contém as trilhas, o eixo horizontal representa o tempo. Ao executar a mixagem, os eventos sonoros são renderizados no momento em que ficam alinhados ao tracker (ou cursor temporal). A primeira série de protótipos SoundSphere foi iniciada em 2015 (Bessa et al. 2015). Entre 2015 e 2018, foram realizadas múltiplas reuniões do grupo de pesquisa, com troca permanente de mensagens nos fóruns. A gestão geral do projeto foi documentada na plataforma Trello 5 . As discussões abrangeram aspectos técnicos (escolha do ambiente de programação e das plataformas de suporte, estratégias de prototipagem, reaproveitamento de tecnologia existente, formatos de dados), aspectos conceituais (contextos de uso e perfil do público-alvo) e aspectos metodológicos (estratégias de validação, aferição da sustentabilidade da proposta e análise de requisitos). Nesses encontros foram elencados diversos itens de design, estabelecendo prioridades de implementação com o intuito de atingir ciclos curtos de prototipagem-validação. Ferramentas. Durante o desenvolvimento do software foi utilizada a ferramenta Visual Studio Code (Microsoft) para a edição do código Typescript e HTML5. Para rodar o aplicativo e realizar os testes ao longo do seu desenvolvimento foi utilizado o navegador Google Chrome. Levando em conta as especificidades dos navegadores nas múltiplas plataformas existentes - incluindo os dispositivos portáteis - é recomendada a utilização do navegador Google Chrome a partir da versão 70. Durante o desenvolvimento do SoundSphere foram utilizadas diversas API (Interfaces para Programação de Aplicativos) disponibilizadas pela comunidade de desenvolvedores de código aberto. SoundSphere incorpora Web Audio e Web Speech. Web Audio é uma API JavaScript de alto nível para processamento e renderização sonora em aplicativos Web (Smus 2013). Já a Web Speech é uma interface de programação que fornece recursos para análise e síntese da fala, com suporte para múltiplas linguagens incluindo o Português (Adorf 2013). Inicialmente o SoundSphere foi baseado em JavaScript e HTML5. Porém, posteriormente a manutenção do código fez necessária sua refatoração, envolvendo a reescrita integral do aplicativo na linguagem Typescript. Typescript é um super conjunto de JavaScript. Em Typescript, a tipificação de valores tem um papel central na redução de erros associados à geração de código e, portanto, impulsiona um aumento de produtividade se comparado com o uso do JavaScript tradicional (Abreu 49 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) 2017). Estrutura do software. A figura 6 mostra as principais classes que compõem o protótipo SoundSphere 1.4. A classe SoundSphereInfo armazena informações sobre a versão do aplicativo. Ela ainda está em fase de aperfeiçoamento e novas informações serão incorporadas a medida que a ecologia de ferramentas seja ampliada. A classe Panel abrange os métodos referentes à animação do painel de mixagem. A classe ItemMixPanel dá suporte para as ações de inserção de itens de mixagem, incluindo o controle da amplitude do evento, a identificação da amostra de áudio a ser reproduzida, o tempo de início e o tempo de finalização do evento, e a indicação de processamento sonoro através da escolha de operadores semântico-timbrísticos. A classe Sequencer processa os dados da classe ItemMixPanel, dando suporte para a renderização do áudio. Essa classe dialoga com a classe Panel na determinação do tempo de ativação das animações e dá suporte para as funcionalidades como tocar, pausar e parar (Play, Pause, Stop). A classe ItemBuffer é utilizada para fazer a manipulação dos arquivos de áudio (em formato WAVE) dando suporte para os mecanismos de processamento sonoro. Com a inclusão dos operadores semântico-timbristicos foi necessária a implementação das classes SemanticDescriptor e Filter, abrangendo os métodos e os atributos para a leitura dos dados TOE (formato JSON) e para a execução do processamento de áudio através do acesso às classes com suporte para múltiplos filtros digitais, fornecidas pela biblioteca Web Audio. Figura 6. Diagrama de classes do protótipo SoundSphere 1.4. Bessa et al. (2015) relatam resultados da aplicação do protótipo SoundSphere6 na sua versão 1.0 em atividades criativas musicais realizadas por músicos e leigos. Essas atividades incluíram a exploração da metáfora, a criação de mixagens em sessões de um minuto de duração, e a imitação de um modelo sonoro - também de um minuto - feito pelos pesquisadores. Os participantes responderam o questionário CSI-NAP7 v. 0.5, avaliando o produto e o seu desempenho durante as atividades. Os resultados foram positivos nos quesitos relevância e produtividade. No entanto, os escores altos no item atenção indicaram que as atividades demandaram um grande investimento cognitivo por parte dos participantes. A alta demanda cognitiva pode ter influenciado negativamente os 50 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) resultados referentes ao fator diversão, sugerindo a existência de problemas no suporte para a inserção das amostras sonoras. Com o intuito de superar as limitações identificadas nos estudos experimentais, implementamos uma nova série de protótipos, concluindo o primeiro ciclo de desenvolvimento na versão 1.4. Resultados de destaque na versão 1.4. As mudanças no design do software podem ser classificadas em dois grupos: novas funcionalidades e ajustes das funcionalidades já existentes. Na figura 7, as setas 1 e 2 indicam as grades do painel de mixagem - a seta 1 indica o tempo e a seta 2 indica a trilha em que a amostra está sendo inserida. Ao inserir uma amostra de áudio no painel ela torna-se um evento dentro da esfera mixagem (indicado pela seta 3), mantendo assim a cor da amostra e o tamanho de acordo com a sua duração. A espessura do item varia de acordo com o valor da amplitude, e caso ele esteja mudo, recebe uma coloração cinza. A seta 4 destaca o painel de opções, sendo respectivamente, comando de voz, botões de repetir, tocar, pausar, parar, reiniciar, carregar amostras e descarregar a mixagem. A amostra selecionada é indicada com um círculo em volta (seta 5). Ao clicar no painel a amostra é inserida no local do cursor (modo inserção - drop mode). A seta 6 indica um item que não está selecionado. Figura 7. Painel de mixagem do protótipo SoundSphere 1.4.8 Ajustes. 1. Movimento do painel. Conforme observado ao longo dos experimentos e analisado pelos membros do NAP, foi necessária uma mudança no mecanismo de interação do painel para torná-lo mais ágil. Na versão 1.4, após o clique no painel, o painel desloca-se para a direção em que o usuário movimenta o cursor. Quanto maior a distância entre o local do clique inicial e a posição atual do cursor, maior a velocidade de deslocamento. Essa mudança fornece mais agilidade para os usuários que utilizam amostras de longa duração e que trabalham em projetos com múltiplas amostras. 2. Modo 51 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) edição (edit mode): ativação de opções nos itens de mixagem. Na versão 1.3 era necessário apertar um botão do menu para que fosse possível acessar o painel de opções. O botão foi removido na versão 1.4 e o painel de opções pode ser acessado com um clique no evento - enquanto não tem amostras de áudio selecionadas (caso contrário, no modo de inserção a amostra selecionada é inserida no local do clique). Novas funcionalidades. 1. Visualização de amplitude e mudo. A amplitude do evento é representada pela espessura da listra no painel - quanto maior o valor de amplitude, mais grossa fica a listra. O valor 0 e a opção mudo são indicados com a cor cinza. A figura 8 exemplifica as formas de visualização vinculadas aos estados do evento (ativo ou mudo) e às mudanças paramétricas. A seta 1 indica um evento ativo com o parâmetro em 100%, na seta 2 tem um evento ativo com 50%, a seta 3 aponta para um evento ativo com valor 0%, a seta 4 mostra um evento com amplitude em 100% em estado mudo, e a seta 5 indica um evento com 50% e mudo. Desta feita, a configuração de cada item de mixagem é visualizada sem necessidade de acessar o painel de opções. No entanto, fica em aberto para desenvolvimentos futuros a possibilidade de manipulação paramétrica diretamente no painel de mixagem. Figura 8. Visualização das mudanças de amplitude dos eventos no SoundSphere 1.4. 2. Comandos de voz. Nos múltiplos experimentos realizados pelo NAP observamos que parte do público leigo enfrenta dificuldades ao lidar com controles visuais, seja por falta de habilidades motoras ou seja por redução de acuidade visual ou cognitiva durante a realização concomitante de múltiplas tarefas. Como estratégia para superar esses empecilhos, na versão 1.4 do SoundSphere implementamos comandos que podem ser acionados via voz. Na figura 8, a seta 6 indica o botão do menu de ferramentas que ativa os comandos de voz. Para testar o protótipo foram implementados três comandos: toque, pausa e pare. No entanto, sua aplicação ficará centrada na interação com operadores semântico-timbrísticos (ver seção TOE). 52 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) 3. Início da reprodução a partir de um ponto específico. Na versão 1.3, para acessar o final da mixagem era necessário reproduzir o conteúdo completo. Esse procedimento dificulta a realização de mixagens longas. Portanto, alteramos o comportamento para permitir o posicionamento livre do tracker durante a pausa. Ao ativar a pausa, o usuário pode indicar o novo ponto de início da reprodução posicionando o cursor em qualquer ponto da linha temporal. Consideramos também a possibilidade de mudanças de posição durante a reprodução do áudio. Porém, concluímos que esse tipo de procedimento demanda processamento síncrono do áudio, aumentando consideravelmente o custo computacional sem acrescentar um ganho significativo na interação. 4. TOE: Semantics-Timbre Operator Editor 2 . Para viabilizar a configuração dos operadores semântico-timbristicos, foi desenvolvido um novo módulo no sistema. Nele é possível realizar a configurações dos filtros que são vinculados a cada descritor semântico. Visando realizar o processamento de áudio de forma mais intuitiva, optamos pela implementação de operadores semântico-timbistricos a partir de 8 características sonoras: pesado / leve, grande / pequeno, brilhante / abafado, quente / frio. Esses descritores determinam as configurações aplicadas no processamento de áudio de cada evento de forma individual. Como complemento, desenvolvemos um mecanismo que permite a aplicação desses parâmetros nos eventos da mixagem, a partir de comandos verbais. A figura 9 mostra a interface do TOE. A seta 1 indica o operador semântico-timbrístico que está sendo trabalhado. Ao lado tem o botão adicionar filtro, que permite que novos filtros sejam vinculados ao descritor. A seta 2 indica o conjunto de opções e parâmetros de processamento, que variam de acordo com o tipo de filtro. A seta 3 apresenta uma série de opções paramétricas, Incluindo: mudança da posição do filtro dentro do banco de filtros (a ordem altera o resultado sonoro), ativar ou desativar (que é equivalente ao mecanismo de bypass), e por último a opção de remoção. O indicador 4 apresenta os atributos relacionados ao filtro escolhido. Durante a edição dos operadores é possível carregar amostras de áudio e experimentar o resultado sonoro aplicando o processamento à amostra selecionada. A opção de bypass (com processamento e sem processamento) permite reproduzir o áudio original ou o áudio com o banco de filtros, para comparar os resultados. A seta 6 indica as operações nos arquivos: carregamento (upload) das amostras de áudio, carregamento do arquivo JSON para edição dos operadores semântico-timbrísticos, e por fim, salvar (download) o arquivo TOE para posterior utilização no SoundSphere. 2 Editor de operadores semântico-timbrísticos. 53 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 9. Interface TOE para a edição dos operadores semântico-timbrísticos (TOE v. 1.4). 5. Leitor SFS (arquivos JSON gerados pelo SoundSphere). Após a coleta de dados em múltiplas sessões foi identificada a necessidade de analisar os produtos criativos e os processos registrados durante os experimentos com SoundSphere. Na versão 1.4, o usuário pode exportar o arquivo JSON da sessão, contendo múltiplas informações geradas durante a mixagem. O protótipo SoundSphere renderiza o resultado sonoro em formato de áudio PCM, estéreo, 16 bits, 44,1 kHz (WAVE). Logo podem-se avaliar os resultados através dos dois arquivos, com dados de controle e dados de áudio, também foi implementada a leitura e a escrita do formato WAVE multicanal para viabilizar esse tipo de suporte em versões futuras. Figura 10. Leitor SFS (arquivos JSON gerados pelo SoundSphere). Atualmente existem múltiplos leitores JSON, no entanto o suporte para a análise mais específica dos conteúdos ainda é limitado. Visando facilitar a análise e a tabulação dos dados foi desenvolvido 54 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) um novo módulo do software: o Leitor JSON-SoundSphere (ou Leitor SFS). Ao carregar o arquivo JSON no módulo o software extrai e organiza diversas informações: o número de canais das amostras de áudio utilizadas, a quantidade de vezes que cada amostra aparece no painel de mixagem, a quantidade de amostras disponíveis, a quantidade de amostras diferentes empregadas, e o total de eventos produzidos são disponibilizados em formato de tabela (figura 10). 4. Resultados do estudo exploratório No contexto das atividades curriculares de um curso de graduação introdutório sobre tecnologia musical, um grupo de oito alunos usou as ferramentas SoundSphere e TOE para produzir mixagens de um minuto com materiais sonoros diversos. Em consonância com os resultados anteriores (Bessa et al. 2015; Freitas et al. 2018; Pereira et al. 2017), a metáfora da esfera sonora foi eficaz no suporte das tarefas de mixagem de baixa a média complexidade. Parte dos alunos relataram que a codificação por cores foi útil como referência visual ao conteúdo sonoro das amostras. Ninguém relatou dificuldades com o uso dos operadores timbrísticos. Porém, observamos dificuldades em relação ao processo de construção e de recuperação dos operadores. A maioria dos participantes usou as configurações-padrão fornecidas pelo TOE. Eles se mostraram confusos ao tentar expandir o conjunto de descritores e, às vezes, não conseguiram aplicar seus resultados nos produtos sonoros. Parte dos participantes relataram a necessidade de informação visual para determinar quais eventos foram processados. Esses problemas podem ter sido causados por vários fatores. Em primeiro lugar, enquanto todos os alunos eram músicos, nenhum deles estava familiarizado com ferramentas de tecnologia musical - incluindo os editores de áudio ou DAWs. Em segundo lugar, o software TOE foi entregue sem preparação preliminar e sem tutorial, somente com uma explicação muito superficial do seu uso. Em terceiro lugar, dada a falta de experiência anterior com ferramentas de processamento de áudio, a maioria dos participantes teve dificuldade em compreender os conceitos envolvidos na construção dos parâmetros dos bancos de filtros. A sessão preliminar indicou que é necessário um suporte específico para o uso da ferramenta TOE. Isso não é surpreendente já que o alvo desta metáfora para a ação criativa são os usuários avançados. A partir desses resultados, planejamos implementar um tutorial e adicionar novos recursos à próxima versão do SoundSphere. Nosso protocolo experimental será ajustado para separar estritamente as tarefas dos usuários avançados das tarefas dos novatos. Na parte superior da faixa codificada por cores que representa o evento, adicionaremos algum elemento para indicar que um operador timbrístico foi aplicado. Também implementaremos novos mecanismos para lidar com as mudanças dinâmicas do timbre, incorporando eventualmente técnicas de manipulação temporal do áudio. Resumindo, discutimos uma variedade de abordagens para a interação timbrística, destacando as demandas dos usuários casuais. Experimentos anteriores com sujeitos leigos indicaram que fatores como o investimento temporal na atividade e as demandas por recursos sonoros relevantes estão no mesmo patamar de importância que a qualidade dos resultados criativos. Portanto, as soluções simplistas através de mapeamentos arbitrários ou a adoção acrítica de métodos acústicos- 55 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) instrumentais podem não ser aplicáveis à interação timbrística envolvendo não músicos. As manipulações timbrísticas geralmente acontecem conjuntamente com outras atividades criativas incluindo a seleção de recursos sonoros, a mixagem, a edição e o compartilhamento dos dados musicais. Diante desses contextos variados, convocamos um grupo de estudantes de graduação para utilizar - durante sessões criativas de caráter aberto - uma ecologia de ferramentas centrada na Metáfora da Esfera Sonora. Os participantes concluíram suas tarefas com sucesso. Porém, vários problemas foram levantados em relação aos materiais de suporte e ao uso das ferramentas. Os resultados indicam a necessidade de melhorar a informação visual vinculada ao tipo de processamento sonoro aplicado. Referências Assayag, G. (1998). Computer assisted composition today. In Proceedings of the Symposium on Music and Computers. Corfu: Ircam. Abreu, L. (2017). Typescript: O Javascript moderno para criação de aplicações. São Paulo, SP: FCA. Adorf, J. (2013). Web Speech API [Technical report]. Stockholm: KTH Royal Institute of Technology. Bessa, W. R. B., Keller, D., Farias, F. M., Ferreira, E., Pinheiro da Silva, F. & Pereira, V. S. (2015). SoundSphere v.1.0: Documentação e análise dos primeiros testes. In F. Z. Oliveira, D. Keller, J. T. de Souza Mendes da Silva & G. F. Benetti (eds.), Anais do Simpósio Internacional de Música na Amazônia (SIMA 2015). Porto Velho, RO: UNIR. Bessa, W. R. B., Keller, D., Freitas, B. & da Costa, D. F. (2020). A metáfora da esfera sonora desde a perspectiva WYDIWYHE. Journal of Digital Media & Interaction. Aveiro, Portugal: Universidade do Aveiro. Bown, O., Eldridge, A. & McCormack, J. (2009). Understanding interaction in contemporary digital music: From instruments to behavioural objects. Organised Sound 14, 188-196. (Doi: 10.1017/S1355771809000296.) Brown, A., Keller, D. & Lima, M. H. (2018). How ubiquitous technologies support ubiquitous music. In B. Bartleet & L. Higgins (eds.), The Oxford Handbook of Community Music. Oxford: Oxford University Press. (ISBN: 9780190219505.) Cartwright, M. & Pardo, B. (2013). Social-eq: Crowdsourcing an equalization descriptor map. In Proceedings of the International Society for Music Information Retrieval (ISMIR 2013). http://music.cs.northwestern.edu/publications/cartwright-pardo-ismir13.pdf. Coelho de Souza, R. (2019). Categorias de análise musical e modelagem física como análise do timbre. Musica Theorica 4, 62-97. Farias, F. M., Keller, D., Lazzarini, V. & Lima, M. H. (2015). Bringing aesthetic interaction into creativity-centered design: The second generation of mixDroid prototypes. Journal of Cases on Information Technology 17, 53-72. (Doi: 10.4018/JCIT.2015100104.) Freitas, B., Martins, A. J., Bessa, W. R. B., Keller, D. (2018). Causas da fixação criativa: viés cognitivo ou recurso tecnológico? Um estudo utilizando o ambiente musical ubíquo SoundSphere. In Anais do XXVII Seminário de Iniciação Científica da UFAC. Rio Branco, AC: UFAC. Harrison, S., Tatar, D. & Sengers, P. (2007). The three paradigms of HCI. In Proceedings of the ACM CHI Conference on Human Factors in Computing Systems (CHI 2007) (pp. 1-18). Keller, D., Barreiro, D. L., Queiroz, M. & Pimenta, M. S. (2010). Anchoring in ubiquitous musical activities. In Proceedings of the International Computer Music Conference (pp. 319-326). Ann Arbor, MI: MPublishing. Keller, D., Ferreira da Silva, E., Pinheiro da Silva, F., Lima, M. H., Pimenta, M. S. & Lazzarini, V. 56 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) (2013). Criatividade musical cotidiana: Um estudo exploratório com sons vocais percussivos. In Anais do Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música ANPPOM. Natal, RN: ANPPOM. Keller, D. & Lazzarini, V. (2015). Special Issue on Creativity-Centered Design and the Digital Arts. Journal of Cases in Information Technology 17, i-v. Keller, D., Lazzarini, V. & Pimenta, M. S. (eds.) (2014a). Ubiquitous Music. Heidelberg and Berlin: Springer. Keller, D. & Lima, M. H. (2016). Supporting everyday creativity in ubiquitous music making. In P. Kostagiolas, K. Martzoukou & C. Lavranos (eds.), Trends in Music Information Seeking, Behavior, and Retrieval for Creativity. Vancouver, BC: IGI Global Press. Keller, D., Miletto, E. M. & Otero, N. (2015a). Creative surrogates: Supporting decision-making in ubiquitous musical activities. In Proceedings of the 3rd International Conference on Computation, Communication, Aesthetics and X (xCoAx 2015). Glasgow, Scotland: xCoAx. Keller, D., Otero, N., Lazzarini, V., Pimenta, M., Lima, M. H., Johann, M. & Costalonga, L. (2015b). Interaction aesthetics and ubiquitous music. In N. Zagalo & P. Branco (eds.), Creativity in the Digital Age (pp. 91-105). London: Springer. (ISBN: 978-1-4471-6680-1.) Keller, D., Otero, N., Pimenta, M. S., Lima, M. H., Johann, M., Costalonga, L. & Lazzarini, V. (2014b). Relational properties in interaction aesthetics: The ubiquitous music turn. In Proceedings of the Electronic Visualisation and the Arts Conference (EVA-London 2014). London: Computer Arts Society Specialist Group. Keller, D., Pimenta, M. S. & Lazzarini, V. (2013c). Os ingredientes da criatividade em música ubíqua (Los ingredientes de la creatividad en música ubicua). In D. Keller, D. Quaranta & R. Sigal (eds.), Sonic Ideas, Vol. Criatividade Musical / Creatividad Musical. México, DF: CMMAS. Keller, D., Pinheiro da Silva, F., Ferreira E., Barros, A. E. B., Lazzarini, V. & Pimenta, M. S. (2013). Design centrado em criatividade para música ubíqua: Marcação espacial. In D. Keller & M. A. Scarpellini (eds.), Anais do II Simpósio Internacional de Música na Amazônia (SIMA 2013). Rio Branco, AC: Editora da UFAC. Keller, D., Pinheiro da Silva, F., Ferreira, E., Lazzarini, V. & Pimenta, M. S. (2013d). Design oportunista de sistemas musicais ubíquos: O impacto do fator de ancoragem no suporte à criatividade. In E. Ferneda, G. Cabral & D. Keller (eds.), Proceedings of the XIV Brazilian Symposium on Computer Music (SBCM 2013). Brasília, DF: SBC. Keller, D., Pinheiro da Silva, F., Giorni, B., Pimenta, M. S. & Queiroz, M. (2011). Marcação espacial: estudo exploratório. In L. Costalonga, M. S. Pimenta, M. Queiroz, J. Manzolli, M. Gimenes, D. Keller & R. R. Farias (eds.), Proceedings of the 13th Brazilian Symposium on Computer Music (SBCM 2011). Vitória, ES: SBC. Keller, D., Timoney, J., Constalonga, L., Capasso, A., Tinajero, P., Lazzarini, V., Pimenta, M. S., Lima, M. H. & Johann, M. (2014c). Ecologically grounded multimodal design: The Palafito 1.0 study. In Proceedings of the International Computer Music Conference (ICMC 2014). Athens: ICMA. Lima, M. H., Keller, D., Flores, L. V. & Ferreira, E. (2017). Ubiquitous music research: Everyday musical phenomena and their multidisciplinary implications for creativity and education. Journal of Music, Technology and Education 10 (1), 73-92. (Doi: doi:10.1386/jmte.10.1.73_1.) Milgram, S. & Jodelet, D. (1976). Psychological maps of Paris. In W. I. H. Proshansky & L. Rivlin (eds.), Environmental Psychology: People and their Physical Settings (pp. 104-124). New York: Holt, Rinehart, and Winston. Neutron (2018). Neutron track assistant [Editor de áudio]. https://www.izotope.com/en/products/mix/neutron/features-and-comparison/track-assistant.html Pereira, V. S., Silva, S. L., Bessa, W. R. B., Alcântara-Silva, T. R. & Keller, D. (2017). SoundSphere: O design participativo como estratégia para o desenvolvimento de tecnologias sustentáveis em música ubíqua. Sonic Ideas 13. http://sonicideas.org/mag.php?vol=10&num=19&secc=memoriasdeproyectos. 57 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Pimenta, M. S., Keller, D., Flores, L. V., Lima, M. H. & Lazzarini, V. (2014). Methods in creativitycentred design for ubiquitous musical activities. In D. Keller, V. Lazzarini & M. S. Pimenta (eds.), Ubiquitous Music (pp. 25-48). Berlin and Heidelberg: Springer International Publishing. (ISBN: 978-3-319-11152-0.) Pimenta, M. S., Miletto, E. M., Keller, D. & Flores, L. V. (2012). Technological support for online communities focusing on music creation: Adopting collaboration, flexibility and multiculturality from Brazilian creativity styles. In N. A. Azab (ed.), Cases on Web 2.0 in Developing Countries: Studies on Implementation, Application and Use. Vancouver, BC: IGI Global Press. (ISBN: 1466625155.) Pinheiro da Silva, F., Keller, D., Ferreira, E., Pimenta, M. S. & Lazzarini, V. (2013). Criatividade musical cotidiana: Estudo exploratório de atividades musicais ubíquas. Música Hodie 13, 64-79. Radanovitsck, E. A. A., Keller, D., Flores, L. V., Pimenta, M. S. & Queiroz, M. (2011). mixDroid: Marcação Temporal para Atividades Criativas. In L. Costalonga, M. S. Pimenta, M. Queiroz, M. Gimenes, D. Keller & R. A. R. Faria (Eds.), Proceedings of the 13th Brazilian Symposium on Computer Music. Vitória, ES: Brazilian Society of Computer Science (SBC). Seetharaman, P. & Pardo, B. (2016). Audealize: Crowdsourced Audio Production Tools. Journal of the Audio Engineering Society 64 (9), 683-695. https://interactiveaudiolab.github.io/audealize_api/ Shneiderman, B. (2007). Creativity support tools: Accelerating discovery and innovation. Communications of the ACM 50 (12), 20-32. (Doi: 10.1145/1323688.1323689.) Silva, S. L., Keller, D., Pereira, V. S. & Bessa, W. R. B. (2016). Estratégias de aferição da criatividade com público infantil: Utilizando ícones faciais em atividades com a metáfora de marcação temporal. In Proceedings of the Amazon International Symposium on Music (Anais do Simpósio Internacional de Música na Amazônia) (SIMA 2016). Belém, PA: EMUFPA. Smus, B. (2013). Web Audio API: Advanced Sound for Games and Interactive Apps. Sebastopol, CA: O´Reilly Media. Stables, R., Enderby, S., Man, B. D., Fazekas, G. & Reiss, J. D. (2014). SAFE: A system for the extraction and retrieval of semantic audio descriptors. In Proceedings of the15th International Society for Music Information Retrieval Conference (ISMIR 2014). Taipei, Taiwan: ISMIR. Stasis, S., Hockman, J. & Stables, R. (2017). Navigating descriptive sub-representations of musical timbre. In Proceedings of the Conference on New Instruments for Musical Expression (NIME 2017) (pp. 56-61). Copenhagen, Denmark: Aalborg University. Tatlas, N. A., Floros, A., Hatziantoniou, P. & Mourjopoulos, J. N. (2003). Towards the all-digital audio/acoustic chain: Challenges and solutions. In Proceedings of the Audio Engineering Society Conference. 23rd International Conference: Signal Processing in Audio Recording and Reproduction. http://www.aes.org/e-lib/browse.cfm?elib=12318 Trueman, D. (2007). Why a laptop orchestra?. Organised Sound 12 (2), 171-179. (Doi: 10.1017/S135577180700180X.) UJAM (2018). UJAM Studio [Editor de áudio]. https://www.ujam-studio.com/ Wessel, D. & Wright, M. (2002). Problems and prospects for intimate musical control of computers. Computer Music Journal 26 (3), 11-22. (Doi: 10.1162/014892602320582945.) 1 “[...] Postulamos, em consonância com Keller e Ferneyhough (2004) a possibilidade de uma quarta categoria, que emprega a estratégia da modelagem. Problemas, como a estrutura de obras estocásticas e a análise do timbre, que se revelam parcial ou integralmente opacos às outras categorias de análise podem eventualmente ser tratados através dessa estratégia. Postulamos enquadrar nessa categoria a técnica da modelagem física que julgamos oferecer uma estratégia adequada para abordar a análise do timbre, seja instrumental, seja dos sons produzidos por meios sintéticos, analógicos ou digitais” (Coelho de Souza 2019: 96). 2 https://sites.google.com/site/napmusica/ 3 http://dgp.cnpq.br/dgp/espelhogrupo/4273727401001550 4 Ver (Bessa et al. 2020), neste mesmo volume, para uma discussão do embasamento teórico e técnico do desenvolvimento da Metáfora da Esfera Sonora. 5 http://trello.com. 58 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) 6 Código disponível em: https://github.com/wramonbessa/soundsphere A versão atualizada da ferramenta de aferição criativa CSI-NAP encontra-se no endereço: https://docs.google.com/forms/d/e/1FAIpQLSfOMGzhDXdE9pH3NzVguiZU6VeNVYScC_L8KdYP53GpxSj_ZA/viewfor m 8 Erros ortográficos e defeitos funcionais de cada versão dos protótipos são mantidos para dar destaque à dinâmica iterativa e incremental do trabalho participativo de design. O histórico dos protótipos encontra-se disponível para uso e análise por outros grupos de pesquisa no endereço web: https://soundsphere.com.br. 7 59 International Journal of Digital Media and Interaction Special Issue on Ubiquitous Music, Vol.3, No.5, (2020) A Metáfora da Esfera Sonora desde a Perspectiva WYDIWYHE (The Sound Sphere Metaphor from a WYDIWYHE Perspective) William Ramon Barbosa Bessa1, Damián Keller2, Brendah Freitas2, David Ferreira da Costa2 Núcleo Amazônico de Pesquisa Musical (2Universidade Federal do Acre / 1 Instituto Federal do Acre) [email protected], [email protected], [email protected], [email protected] Resumo A perspectiva de design de interação WYDIWYHE - /uidiuirri/ what you do is what you hear (o que você faz é o que você ouve) - surge a partir dos desenvolvimentos impulsionados pelas práticas criativas em música ubíqua. Relatamos os resultados obtidos em dois estudos utilizando a Metáfora da Esfera Sonora em atividades criativas e descrevemos as múltiplas iterações do processo de implementação como forma de exemplificar o enfoque teórico-metodológico WYDIWYHE. A estratégia de design adotada no SoundSphere consiste em manter o alinhamento entre a ação do participante, a visualização da ação e a disponibilização do recurso para as ações subsequentes. Nesse sentido, o enfoque não só visa a relação entre a ação e o resultado sonoro, ele também envolve a escolha de priorizar a visualização da ação realizada. Os resultados indicam estratégias que podem ser aplicadas no processo de design: 1. A proporcionalidade espaço-tempo; 2. As temporalidades flexíveis; 3. O isomorfismo; 4. A manipulação direta; 5. A abstração semântica; e 6. A utilização das propriedades relacionais. Discutimos as implicações desta proposta para o campo da música ubíqua e apontamos alguns interrogantes abertos pelos aspectos destacados na análise de resultados. Palavras-chave: música ubíqua, interação timbrística, metáfora da esfera sonora, práticas criativas cognitivo-ecológicas, WYDIWYHE Abstract WYDIWYHE - / uidiuirri / (what you do is what you hear) - is an interaction design perspective that arises from ecologically grounded ubiquitous music creative practices. We report the results of two studies using the Sound Sphere Metaphor and describe the multiple iterations of the implementation process, as a way to exemplify the WYDIWYHE theoretical-methodological approach. In SoundSphere, our design strategy consists in maintaining the alignment between the participant action, the visualization of her action, and the resource availability for future actions. In this sense, we do not focus just on the relationship between the action and the sonic result, we also target the visualization of the action performed. The results indicate viable strategies for the design process, including: 1. Space-time proportionality; 2. Flexible temporalities; 3. Isomorphism; 4. Direct manipulation; 5. Semantic abstractions; and 6. Usage of relational properties. We discuss the implications of this proposal for the field of ubiquitous music and point to open questions highlighted by the experimental results. Keywords: ubiquitous music, timbre interaction, sound sphere metaphor, ecologically grounded creative practice, WYDIWYHE 1. Introdução As práticas musicais ubíquas fomentam a exploração de espaços alternativos para o fazer artístico e dão destaque para as estratégias de inclusão voltadas para o público sem instrução formal em música. Por um lado, ganha importância o contexto da atividade criativa através do aproveitamento de recursos locais no processo de tomada de decisões estéticas. Por outra parte, muda-se o foco das práticas criativas substituindo a ênfase no virtuosismo e nos aspectos performáticos pela reflexão sobre ISSN: 2184-3120 CC 2020 DIGIMEDIA International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) o processo de produção do conhecimento e seu impacto no potencial criativo dos participantes e nas relações entre os fatores sociais e ambientais e o fazer musical. É justamente a mudança do conceito de processo criativo a que abre novas possibilidades de suporte tecnológico no contexto das práticas artísticas e educacionais e no design de interação. Enquanto que as propostas prévias em interação musical ficavam ancoradas no uso de instrumentos ou na extensão das modalidades do fazer instrumental, ubimus propõe a exploração ativa de recursos materiais, sociais e cognitivos que não demandam o isolamento do sujeito e não dependem do domínio de sistemas simbólicos de representação do conhecimento musical (Keller et al. 2014a). No contexto ubimus, entende-se por criatividade musical toda manifestação sonora decorrente dos processos de interação material e cognitivo-social que acontecem no dia-a-dia, dando ênfase para as manifestações estéticas emergentes das relações entre coletivos de participantes e recursos materiais. O estudo desses processos demanda novos métodos e novas ferramentas. Essa é uma das motivações para o surgimento da pesquisa ubimus. A inclusão de leigos como participantes ativos do fazer criativo traz novos desafios para o design de interação. Enquanto a criatividade musical fica restrita à figura do compositor ou ao instrumentista, é reforçada a relação hierárquica entre músicos e público - materializada na separação espacial estabelecida pelo uso do palco italiano (Sorba 2006): No palco os músicos ativos, na plateia o público passivo. Essa separação funcional também é adotada na estrutura de suporte, centrada na notação fixa como a principal ferramenta de transferência de conhecimento musical. Bhagwati (2013) aponta que na notação fixa o tempo é organizado de forma centralizada e uniforme, portanto demanda a sincronização através da subordinação das partes às diretrizes de um participante (o regente) ou de um sistema mecânico ou eletrônico (o metrônomo). Nesse enfoque, a criação musical entende-se como um processo individual no qual as decisões estéticas são tomadas pelo compositor (ou excepcionalmente compositora) e essas decisões são incorporadas e priorizadas nos processos de escolha e de implementação dos recursos sonoros e tecnológicos. A incorporação de participantes avulsos no fazer criativo tem no mínimo duas consequências para o design de interação musical. Primeiramente, o uso da notação tradicional e seus derivados (como a cifra e similares) somente é efetiva quando os indivíduos têm treinamento musical. Portanto são necessárias estratégias alternativas de transferência de conhecimento1 para superar o hiato entre músicos e leigos. Segundo, na modalidade de participação casual - nos espaços de transição (por exemplo, os terminais de transporte público) ou nos espaços de lazer (praças, centros comerciais e similares) - o tempo de preparação e de familiarização com o ambiente de suporte é geralmente limitado a poucos minutos (Keller et al. 2013; Keller e Lima 2016; Pinheiro da Silva et al. 2013). Nesse contexto, são necessárias estratégias de suporte que não dependam de uma ampla bagagem de conhecimentos prévios e que não exijam procedimentos trabalhosos de configuração ou de compartilhamento para atingir um nível básico de funcionalidade. O fazer musical cotidiano envolve atividades de experimentação sonora direta2 (isso implica que o retorno sonoro tem que ser relativamente rápido e sem demandas de conhecimento específico) ou a inclusão através da imitação das ações realizadas por parceiros mais experimentados (neste caso apontando para requisitos 61 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) específicos de design de interação, vinculados à visualização e à utilização dos elementos da interface como recursos para a transferência de conhecimentos). Esses aspectos do design de interação são centrais na pesquisa relatada neste artigo. Nas seções seguintes descrevemos os procedimentos utilizados no processo de design da metáfora da esfera do som, as ferramentas de suporte implementadas e os resultados obtidos em dois estudos de campo centrados nas manifestações da criatividade cotidiana. Após a apresentação dos resultados, retomamos a discussão do enfoque WYDIWYHE focando a análise das escolhas de design exemplificadas pela disponibilização dos protótipos implementados em atividades criativas em contexto educacional e em contexto cotidiano. 2. O design iterativo da Esfera do Som A ferramenta SoundSphere foi desenvolvida por membros do NAP como parte de um projeto que visa a implementação e a validação de uma nova metáfora para a ação criativa, a Esfera do Som ou Esfera Sonora3 (Bessa et al. 2015). A metáfora da esfera sonora propõe a visualização de eventos sonoros projetados na superfície de uma esfera, com o usuário sentado no centro da mesma. No eixo vertical - equivalente à latitude do globo - situam-se as trilhas de mixagem. O eixo horizontal equivalente à longitude da esfera - corresponde ao tempo. Ao movimentar as trilhas para cima ou para baixo, observam-se os eventos que serão renderizados simultaneamente. Ao mover o cursor temporal (também denominado tracker) para a esquerda retrocede-se no tempo, e para a direita acessam-se os eventos futuros (figura 1). Nesse modelo tanto o tempo do resultado sonoro quanto a quantidade de trilhas deixam de ser predefinidos e passam a ter valores incrementais, que são determinados de acordo com a quantidade de eventos simultâneos e com o tamanho das amostras sonoras inseridas no painel de mixagem. Ao executar a mixagem, o globo gira horizontalmente. As amostras sonoras presentes no painel são renderizadas no momento em que elas atingem a posição do cursor temporal. Figura 1. Metáfora da esfera sonora: o eixo vertical contém as trilhas, o eixo horizontal representa o tempo. Ao executar a mixagem, os eventos sonoros são renderizados no momento em que ficam alinhados ao tracker (ou cursor temporal). 62 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Bessa et al. (2015) relatam os resultados da aplicação do protótipo SoundSphere 1.0 em atividades criativas musicais realizadas por músicos e leigos. Essas atividades incluíram a exploração da metáfora, a criação de mixagens no tempo estipulado de um minuto por sessão, e a imitação de uma composição previamente feita pelos pesquisadores. Após cada atividade, os participantes responderam o questionário CSI-NAP v. 0.5 (Keller et al. 2011), avaliando o produto criativo e seu desempenho durante a atividades. Os resultados foram positivos nos quesitos relevância dos produtos criativos e no fator produtividade vinculado à atividade. No entanto, os escores altos no item atenção indicaram a existência de uma alta demanda de investimento cognitivo por parte dos participantes. Esse nível de esforço pode ter influenciado negativamente os resultados referentes ao fator diversão, indicando problemas no mecanismo de suporte para a inserção das amostras sonoras no painel de mixagem. 2.1. Ferramentas utilizadas Lindstrom (2017) descreve a refatoração como o processo de reescrever código para deixá-lo mais simples e reutilizável, sem alterar o seu comportamento. Inicialmente o protótipo SoundSphere foi desenvolvido utilizando apenas JavaScript e HTML 54 (HyperText Markup Language versão 5). Uma das vantagens das ferramentas desenvolvidas em HTML 5 é que - através do suporte fornecido pelo navegador - a instalação no dispositivo é completamente transparente. O usuário acessa o endereço do portal onde está disponibilizado o protótipo e após carregar as amostras pode começar a trabalhar. A partir da versão 1.3.0, para facilitar as mudanças nos protótipos e a manutenção do código se fez necessária uma refatoração. Nesse processo, todo o código foi reescrito utilizando Typescript. Na refatoração, foi utilizado o editor de código Visual Studio Code5. Para rodar o aplicativo e realizar os testes, priorizamos o uso do navegador Chrome6 a partir da versão 70. No desenvolvimento do SoundSphere 1.4.0 foram empregadas as bibliotecas Web Audio API e Web Speech API. Web Audio API7 é uma biblioteca JavaScript de alto nível para processamento e sincronização de áudio em aplicativos web. Web Speech API é uma interface de programação que fornece recursos para análise e síntese da fala (Adorf 2013). O código foi desenvolvido através de múltiplas iterações envolvendo sessões com usuários e sugestões e trocas de todos os membros do NAP8. O equilíbrio entre a simplicidade da interação e a usabilidade no contexto de projetos com demandas diversas apontou caminhos que convergem nas propostas apresentadas neste artigo. Durante as reuniões do NAP, e através da gestão do projeto via o ambiente Trello9, foram elencadas estratégias de simplificação dos elementos da interface. 63 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 2. Diagrama de Classes do SoundSphere 1.4.0. A figura 2 mostra as principais classes que compõem a versão 1.4.0 do SoundSphere em representação UML (Guedes 2011). A classe Panel contém os métodos referentes à animação dos elementos do painel de mixagem. A classe Item_Buffer foca o processamento do áudio. A classe Sequencer dá suporte para a navegação do painel. A classe Item_Mix_Panel implementa as ações de inserção ou exclusão de eventos no painel de mixagem. Ela abrange as informações paramétricas utilizadas na renderização dos resultados sonoros, incluindo o status do evento (solo ou mudo), a magnitude do parâmetro (vinculada à amplitude), a amostra de áudio selecionada, os tempos de início e de finalização do evento. A classe se comunica com Panel para ativar as animações do painel executando comandos como reproduzir, pausar ou parar a renderização do áudio. Os operadores semântico-timbrístico utilizam um descritor semântico para representar a configuração paramétrica do processamento de áudio (ver Freitas et al., neste volume). Com a inclusão dos descritores semântico-timbristicos foi necessário implementar as classes Semantic_Descriptor e Filter, contendo os métodos e atributos necessários para o processamento sonoro e a manipulação dos descritores. A classe SoundSphere_Info armazena as informações sobre a versão do software para fins de validação durante a leitura dos arquivos de projeto. Ela permite a exportação e importação de arquivos gerados pelos componentes da ecologia da esfera sonora. 2.2. SoundSphere 1.2.2 Com o intuito de superar as limitações identificadas nos primeiros protótipos, foi implementado um novo aplicativo SoundSphere 1.2.2. Essa versão abrange três grupos funcionais: (de cima para baixo na figura 3) o painel de mixagem, o menu de ferramentas, e o painel de amostras de áudio ou painel de seleção. A seta 1 indica as amostras de áudio carregadas no programa. Para cada arquivo 64 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) carregado, o sistema gera um ícone com uma cor específica viabilizando a identificação da amostra no painel de mixagem. Para identificar o conteúdo das amostras de áudio, os usuários podem passar o mouse sobre cada item10. O sistema reproduz o áudio desde o início do arquivo. Ao mover o cursor, o objeto sai de foco e pausa a reprodução. Ao clicar sobre um ícone, a amostra é selecionada e o sistema desenha um círculo ao redor do ícone. Após esse procedimento, o usuário pode inserir o item no painel de mixagem, clicando no local desejado. O painel de mixagem é indicado pela seta 2. Os números na borda superior representam o tempo, e os números na borda esquerda indicam a trilha. O usuário pode navegar pelo painel clicando e arrastando o mouse sobre o mesmo.11 Figura 3. SoundSphere v .1.2.2, a seta 1 indica a ferramenta de seleção de amostras de áudio, a seta 2 mostra o painel de interação e a seta 3 aponta para o menu de ferramentas que inclui múltiplas funcionalidades de edição e reprodução do áudio. 2.3. SoundSphere 1.4.0 A versão 1.4.0 apresenta mudanças significativas tanto nas funcionalidades quanto nas ferramentas de suporte. Como o foco deste artigo não é discussão da Ecologia SoundSphere, indicamos outras publicações para a análise detalhada desses aspectos, com destaque para o Editor de Operadores Semântico-Timbrísticos (TOE - Semantic Timbre-Operator Editor) e o Leitor SFS (SFS Reader) (Freitas et al. neste volume). Nesta seção descrevemos as funcionalidades mais relevantes para o conceito WYDIWYHE, sem entrar em detalhes sobre as outras ferramentas. Na figura 4, as setas 1 e 2 indicam o sistema de organização em grades do painel de mixagem, com a separação das trilhas no eixo vertical e o contínuo temporal no eixo horizontal. A seta 1 aponta 65 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) para a escala do tempo e a seta 2 para o número da trilha. Quando uma amostra de áudio é inserida no painel, ela é representada por um evento (indicado pela seta 3). A cor do evento corresponde à cor da amostra definida na hora do carregamento do arquivo de áudio. O tamanho do evento é proporcional à duração da amostra. Na versão 1.4.0 a espessura do evento varia de acordo com a magnitude do parâmetro amplitude. Os eventos mudos são indicados com a cor cinza. A seta 4 mostra o menu de ferramentas, incluindo um botão para ativar comando de voz e os botões repetir, reproduzir, pausar, parar, reiniciar, carregar amostras e baixar a mixagem12. No painel de seleção, a amostra escolhida é marcada com um círculo (seta 5). Feita a seleção, ela pode ser inserida com um clique no painel. A seta 6 indica uma amostra não selecionada. Figura 4. Interface do painel de mixagem do SoundSphere 1.4.0. Navegação no painel de mixagem. Ao longo dos experimentos e nas reuniões de design do NAP, identificamos a necessidade de implementar diversas funcionalidades para aprimorar o mecanismo de navegação do painel de mixagem. Após o clique e o movimento do cursor, o painel desloca-se para a direção oposta para a qual o cursor é arrastado. Quanto mais rápido o movimento, maior a velocidade de deslocamento. Esse mecanismo visa dar maior agilidade para os usuários que fazem projetos de longa duração ou com grande número de amostras. Edição de eventos. Nas versões iniciais era necessário clicar em um botão do menu para que ao clicar em um item de mixagem, o painel fosse ativado. Isso gerava operações redundantes em uma atividade iterativa. O botão foi removido. Para ativar a edição do evento, basta um clique no evento a ser editado (removendo a seleção da amostra de áudio). Em experimentos recentes, também identificamos a necessidade de reintroduzir a ferramenta deletar entre as opções do menu. Na versão 1.4.0, essa funcionalidade demanda abrir a janela de edição do evento e apertar no botão 66 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) correspondente. Os usuários experientes apontaram para a assimetria entre a inserção e a remoção de eventos, indicando que a primeira é muito fácil porém a segunda demanda mais ações. Colisões de eventos. Visando um comportamento mais intuitivo, foi alterado o mecanismo de gestão de colisões entre eventos. Caso o usuário tente inserir um evento e o mesmo colida com algum item preexistente, o software realoca o novo item para a trilha inferior mais próxima. Se o local não está disponível na trilha imediatamente inferior, o algoritmo procura a seguinte até esgotar as trilhas. No caso (raro) de que a última trilha esteja indisponível, é retornada uma mensagem de erro. Consequentemente, procura-se manter o tempo de início do novo item alinhado com a ação do usuário. Vale ressaltar que caso a mudança de trilha impeça a visualização do evento, o painel movimenta-se automaticamente modificando o quadro da janela de visualização para manter o evento visível. O mesmo comportamento é adotado para todos os casos em que a inserção de eventos não é possível. Inserções inválidas. Nas versões iniciais, ao inserir um evento com duração maior do que o tempo disponível, o sistema ajustava o posicionamento retrocedendo o ponto de inserção. Portanto, era aplicada uma mudança no tempo do início do evento (onset). A partir da versão 1.4.0, se o usuário tenta inserir um evento para o qual não há espaço no painel de mixagem, o sistema apresenta um aviso informando que a ação não é possível. Esse novo comportamento garante o princípio de que a ação corresponda de forma direta ao resultado obtido13. Visualização da magnitude. No protótipo 1.3.0, o parâmetro amplitude é indicado pela espessura do evento. Quanto maior for o valor atribuído ao parâmetro, mais espesso fica o item. Na figura 5, vemos como é alterado um evento de acordo com a amplitude e o status ativo ou mudo. A seta 1 indica um evento com amplitude 100% e ativo, a 2 indica 50% de volume e ativo, a 3 aponta a evento com amplitude 0% porém ativo, já a 4 indica 100% de volume com status mudo, e o evento 5 tem a amplitude em 50% também com status mudo. Figura 5. Painel do SoundSphere 1.3.0 exibindo eventos com diferentes níveis de amplitude indicados pela espessura e coloração do evento. 67 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Caso a amplitude seja zero ou o evento esteja mudo deveria ser usada uma coloração neutra em cinza, indicando que o evento não está disponível para reprodução. Outro problema identificado nos experimentos foi a falta de espaço para a visualização de operadores semântico-timbrísticos. Para o caso 3, houve dificuldades para diferenciar as cores. Comandos de voz. Para ampliar as possibilidades de uso por parte do público leigo, implementamos o suporte para comandos acionados via voz. A seta 6 mostra o botão que ativa comandos de voz no painel de mixagem. A interface da janela de edição de eventos tem um ícone com funcionalidade equivalente. A configuração paramétrica é feita na ferramenta TOE. Identificação da sessão. A partir da versão 1.4.0, o sistema permite que o usuário nomeie seu arquivo de projeto14. Essa funcionalidade permite trabalhar em mais de uma composição simultaneamente ou alternar múltiplas janelas ou abas do navegador ampliando as possibilidades de uso em performance e permitindo comparações rápidas entre múltiplas versões da mesma mixagem15. Também é possível utilizar diversas configurações de processamento de áudio para o mesmo grupo de amostras ou manter codificações de visualização diversas para o mesmo conjunto de materiais. A identificação do projeto também é necessária para enviar o arquivo a outros participantes, viabilizando o trabalho colaborativo de forma iterativa. Nessa modalidade, um grupo de amostras compartilhadas é utilizado em um projeto comum que é modificado por cada parceiro, a nomeação é atualizada a cada compartilhamento. Comportamento da pausa. Nas versões iniciais do SoundSphere era necessário reproduzir a mixagem completa desde o início. Isso inviabilizava os projetos com duração acima de 2 ou 3 minutos, já que se o usuário estivesse trabalhando no final de uma mixagem de vários minutos ele tinha que reproduzir toda a mixagem para conferir as modificações feitas. A alteração do comportamento permite que ao ativar a pausa, o usuário escolha livremente o local do início da reprodução. É interessante observar que essa funcionalidade, apesar de ser intuitiva, não é aproveitada por alguns usuários durante as sessões iniciais de exploração. Cabe investigar em mais detalhe a compreensão da organização temporal subjacente, vinculada ao potencial de interação das metáforas para a ação criativa (ver tópico Temporalidades flexíveis). Reproduzir. O comando inicia a reprodução desde o tempo zero ou dá continuidade à execução a partir da posição do cursor temporal. Como vimos na utilização da pausa, o usuário pode interromper a execução e - por meio de um clique no painel - indicar onde quer reiniciar a reprodução. Ao pressionar o botão play, o painel se reposiciona (caso o evento sendo reproduzido não esteja visível). Portanto, sempre é visualizado o que está sendo reproduzido. Atualmente o sistema muda o posicionamento vertical para o ponto inicial da mixagem. Será necessário modificar esse comportamento em versões futuras, mantendo a posição vertical alinhada com a última ação realizada no painel. 2.4. SoundSphere 1.4.12 A informação sobre as ações realizadas pelos usuários tornou-se um assunto central nas sessões experimentais com o SoundSphere. Durante as atividades envolvendo poucos recursos sonoros, com tempo limitado, e sem a participação de múltiplos parceiros, a demanda por informações detalhadas 68 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) do histórico de operações não era indispensável. Mas quando refinamos o suporte para a navegação, introduzimos o processamento de áudio e incentivamos as sessões interativas com múltiplos participantes observamos um aumento na dificuldade de identificar as operações realizadas. Era necessário lidar com dois aspectos do problema. Por um lado, tínhamos que incorporar um mecanismo que permitisse identificar os eventos nos quais foram realizadas operações de processamento de áudio. Por outro lado, precisávamos implementar uma estratégia de visualização da magnitude dos operadores que fosse compatível com a codificação por cores. Neste último aspecto, alguns participantes relataram dificuldades para identificar a amostra sonora utilizada quando a espessura do evento ficava muito fina. Processamento de áudio via operadores semântico-timbrísticos. Visando ampliar o acesso a funcionalidades refinadas para o público leigo, implementamos o suporte para o processamento de áudio via operadores semântico-timbristricos. A arquitetura e os parâmetros do banco de filtros são editados com a ferramenta TOE. O mecanismo permite a criação de bancos de filtros abrangendo todas as opções fornecidas pela versão atual da biblioteca Web Audio. Ao importar o arquivo TOE, os operadores ficam disponíveis na janela de edição do evento. Essa estratégia permite que centenas de parâmetros sejam aplicados para cada item de mixagem a partir da escolha de um descritor. Visualização dos operadores timbrísticos. Com a implementação dos operadores foi necessário aprimorar o mecanismo de visualização levando em conta a superfície reduzida dos eventos de curta duração. Estabelecemos um padrão de abreviação aplicando um esquema similar ao utilizado na codificação dos aeroportos. Os eventos com processamento são apresentados com um rótulo de até 3 caracteres, exibidos de forma vertical no início do item. Esse mecanismo viabiliza a visualização do descritor em eventos com durações curtas e abre a possibilidade de utilizar múltiplos operadores para cada evento em implementações futuras (figura 6) Figura 6. Painel de mixagem do SoundSphere 1.4.0 demonstrando o uso de operadores semânticotimbrísticos. Customização do sistema de cores. Ao carregar os arquivos de áudio no SoundSphere 1.0, o sistema organizava as amostras seguindo a ordem alfanumérica e estabelecendo de forma automática cores individualizadas para cada amostra. Os resultados da disponibilização dos protótipos em diversos contextos mostraram algumas particularidades no uso desse sistema de codificação por cores (Freitas et al. 2018). A partir das observações experimentais (discutidas na segunda parte deste artigo), optamos por ampliar as possibilidades de visualização dos materiais sonoros via preferências 69 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) customizadas. Pensando em um mecanismo de suporte para a organização de conjuntos de amostras de forma autônoma, implementamos um sistema de customização da visualização. Quando o nome do arquivo é lido - se existe um código em formato hexadecimal correspondente a uma cor - o sistema aplica a cor de forma persistente (ao longo de toda a sessão). Portanto, a partir da versão 1.4.12 SoundSphere dá suporte para duas modalidades de codificação dos materiais sonoros: 1. Organização alfanumérica automática (quando os nomes das amostras não contém códigos de cores) e 2. Organização customizada (quando são inseridos códigos hexadecimais nos nomes dos arquivos). Na modalidade 1 é assegurada a consistência da representação, fornecendo sempre cores diferenciadas e estáveis em múltiplas sessões com múltiplos usuários. Na modalidade 2, a consistência precisa ser administrada pelos participantes já que eles têm liberdade quase total para definir a paleta de cores. Um caso específico - as cores correspondentes à escala de cinza - é tratado como exceção. A escala de cinza está reservada para a representação das magnitudes paramétricas, visualizadas a partir da geração de diversos tipos de degradê - geralmente vinculados ao cinza escuro nos valores elevados e ao cinza claro nos valores reduzidos. Por conta dessa restrição, ao inserir um código hexadecimal correspondente a um tipo de cinza o sistema fornece um aviso alertando o usuário para evitar esse tipo de escolha. Visualização da magnitude em degradê ou gradiente. Entre os mecanismos que permitem a verificação rápida dos atributos utilizados nas mixagens, foi implementada a visualização da magnitude paramétrica através de um degradê individualizado para cada evento. Pretende-se usar esse mecanismo para indicar escalas de valores em parâmetros contínuos, como amplitude, ganho, panorama, quantidade de reverberação, flutuação do espectro, compressão, abrangendo os diversos tipos de processamento sonoro a serem desenvolvidos a partir das funcionalidades da biblioteca Web Audio. A figura 7 apresenta um exemplo de uso do degradê com diversos níveis representados pela intensidade da escala de cinza. Figura 7. Painel do SoundSphere 1.4.12 demonstrando a aplicação do degradê para representar a magnitude paramétrica. 70 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Na segunda parte deste artigo abordamos os aspectos práticos da disponibilização da metáfora da esfera sonora em ambientes educacionais e em espaços de transição. O detalhamento da descrição dos procedimentos justifica-se na análise da relação entre os recursos materiais, as interações sociais e os recursos tecnológicos, com impacto nos aspectos cognitivos e comportamentais da atividade criativa. A estratégia WIDYWYHE fundamenta-se nas propriedades relacionais que se manifestam no fazer criativo (Keller et al. 2014b; Keller et al. 2015). Portanto acreditamos que é difícil determinar o impacto das escolhas de design sem a aplicação em estudos de campo. Nas próximas seções tentaremos preencher parte dessa lacuna focando a discussão da aplicação da metáfora da esfera sonora em atividades realizadas principalmente por leigos. Exemplo 1. Vídeo-demonstração de uso de SoundSphere: carregamento e mixagem de áudio. https://drive.google.com/file/d/1knIL06uwhxH4CjHvZr2C_Ehn8Cnp12YM/view?usp=sharing 3.Estudo EMAC: SoundSphere em ambiente educacional O protótipo SoundSphere 1.2.2 foi utilizado em oficinas teóricas e práticas de sequenciamento e mixagem, fornecendo auxílio a atividades criativas musicais com crianças e adolescentes da Escola de Música do Acre (EMAC). A EMAC é uma instituição vinculada à rede estadual de ensino que fornece aulas de música para crianças, adolescentes, jovens e adultos. Ela serve como porta de acesso a estudos mais aprofundados em música nos níveis técnico (IFAC) e superior (UFAC). A grade curricular da EMAC não inclui disciplinas voltadas para a tecnologia musical. Porém, durante a entrevista realizada a administração reconheceu a importância de incentivar os alunos a interagir com ambientes de suporte para a criatividade. Levando em conta a ausência de atividades tecnológico-musicais, elaboramos uma proposta de oficina utilizando os recursos disponíveis no ambiente. Uma dificuldade encontrada foi a falta de um laboratório de informática. A falta de equipamento da EMAC foi contornada com o apoio do NAP, que disponibilizou sete computadores com fones de ouvido. Para superar o problema do espaço, adotamos a sala de reuniões dos funcionários da escola para uso exclusivo durante as sessões. O espaço tem suporte para projeção de vídeo e uma mesa grande, viabilizando a utilização de múltiplos dispositivos simultaneamente. 3.1. Preparação Materiais sonoros. Disponibilizamos dez amostras de áudio, sendo três delas sons captados em ambientes diversos, incluindo sons de carros, sons biofônicos, e sons domésticos. As outras sete amostras são simulações de instrumentos musicais via síntese sonora (baixo, violão e bateria) que foram cedidas pelo músico Edemilson Ferreira. Ferramentas. Na coleta de dados foram empregadas versões adaptadas dos questionários CSINAP16 (Creative Support Index) e ISE-NAP (Perfil Individual Sócio-Econômico) (Keller et al. 2011). Com o objetivo de obter o levantamento do perfil dos participantes, o questionário ISE-NAP foi aplicado uma única vez após a apresentação do software. 71 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Para aferir o nível de suporte à criatividade, p questionário CSI-NAP foi aplicado logo após cada atividade de exploração, criação e imitação. Dois fatores do CSI-NAP descrevem o produto: a relevância e a originalidade, e quatro fatores estão vinculados à atividade em si: diversão, produtividade, atenção ou esforço cognitivo, e suporte para colaboração. Para todos os itens avaliados usou-se a escala Likert de cinco ítens. No questionário foram disponibilizados equivalentes semânticos em cada nível: concordo totalmente, concordo parcialmente, não sei, discordo parcialmente, discordo totalmente. A Figura 8 apresenta as opções disponíveis na avaliação e o valor numérico correspondente. Figura 8. CSI-NAP: Escala Likert e descritores semânticos associados a cada valor. 3.2. Perfil dos participantes Foram realizadas doze oficinas, atingindo um total de 67 (sessenta e sete) alunos. Em relação ao gênero, participaram quarenta meninos e vinte sete meninas. O público incluiu crianças e adolescentes, com média de idade de 12 anos (figura 9). 43% dos alunos pertence à faixa de 11 a 13 anos e 39% dos participantes tem entre 8 e 10 anos de idade. A média de tempo de treinamento musical é de 2 anos - 72% dos entrevistados estudou música entre 1 e 2 anos e 28% cursou de 3 a 4 anos. Portanto, a maioria dos participantes pode ser considerado leigo em música, sendo que parte dos participantes tem treinamento musical de nível intermediário. 72 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 9. Faixa etária (esquerda), nível de estudo formal de música dos 67 participantes (direita). Figura 10. Tempo de utilização de programas de ferramentas sonoras (esquerda), tempo de uso de computadores (direita). Em relação à familiaridade com o uso de ferramentas sonoras (Audacity, Pro-Tools ou Reason, por exemplo) (figura 10), constatou-se que 84% dos entrevistados não faz uso de sistemas de edição de áudio. Para a grande maioria, SoundSphere foi o primeiro contato com sistemas de manipulação de dados musicais ou sonoros. Quanto ao tempo de uso de computadores, 25% dos entrevistados informaram utilizar o computador por um período entre 5 a 6 anos, 25% entre 7 e 8 anos de experiência, e 15% entre 9 e 10 anos. Os dados mostram que somente 4% dos entrevistados não têm familiaridade com sistemas estacionários. Quase todos utilizam dispositivos portáteis (somente 3% não faz uso de telefones celulares) (figura 6) (cf. Vieira da Silva et al. 2017). 73 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 11. Período de utilização de dispositivos portáteis. 3.3. Procedimentos As oficinas foram realizadas nos dias 21, 22 e 28 de outubro de 2015, totalizando doze oficinas com grupos de quatro a sete alunos, com duração média de 52 minutos por sessão. Foram disponibilizados um fone de ouvido, um mouse e um computador portátil por aluno. Os equipamentos eram de marcas diversas, com sistemas operacionais variados. A utilização de equipamentos heterogêneos não resultou em nenhum prejuízo à realização da oficina, mas permitiu aferir as atividades em condições similares às encontradas nos espaços de ensino musical existentes em Rio Branco, AC. As atividades foram divididas em cinco etapas: explicação do conceito de mixagem, instruções práticas da funcionalidade do software, e atividades de exploração, criação e imitação. A primeira fase visou explicar o objetivo da oficina, abrangendo os procedimentos para fazer mixagens e dando destaque para os aspectos criativos. Na segunda etapa foi apresentado um vídeo exemplificando o funcionamento do SoundSphere. Após a atividade 2 foi aplicado o questionário ISE-NAP v. 0.4 (Keller et al. 2011). Durante a fase 3 os participantes utilizaram o software explorando livremente as suas funcionalidades, sem limite de tempo. Essa fase é importante para identificar as principais dificuldades no manuseio da ferramenta e para avaliar o tempo de familiarização com os materiais e as funcionalidades. Para a atividade 4 foi estabelecido o tempo padronizado de um minuto para obter um produto sonoro. A atividade de criação permite avaliar se o usuário consegue obter um resultado sonoro satisfatório (aplicando critérios próprios), mesmo com tempo reduzido. Por fim, na atividade 5 (imitação) é apresentada uma composição de cinco a oito amostras sonoras, previamente elaborada pelos experimentadores. Solicitamos que os participantes tentem reproduzir o material sonoro fornecido, permitindo a audição e visualização livre dentro do lapso de um minuto. O objetivo da atividade é verificar se o suporte permite reproduzir um modelo sonoro. Após as atividades 3, 4 e 5 foi aplicado o questionário CSI-NAP v. 0.5. 74 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Dedicamos de quatro e cinco minutos para as fases de apresentação e instruções específicas. Os sujeitos realizaram a atividade de exploração em aproximadamente sete minutos. O tempo da atividade de criação e de imitação foi controlado pelos experimentadores (média de um minuto de duração). 3.4. Estudo EMAC: Resultados A atividade 3 (exploração) teve resultados positivos nos itens diversão, produtividade e colaboração (figura 12). Os quesitos diversão (1,85 ± 0,46), produtividade (1,72 ± 0,57) e colaboração (1,82 ± 0,52) atingiram médias acima de 1,7 com o desvio padrão entre 0,46 e 0,57. Já as avaliações dos produtos sonoros foram positivas (indicadas por médias altas nos itens relevância e originalidade do produto, mas o desvio padrão foi mais elevado do que o obtido no desempenho na atividade, portanto houve divergência entre as respostas fornecidas pelos sujeitos). Figura 12. Avaliação de desempenho e resultado da atividade de exploração (média indicada pela barra e desvio padrão representado pela linha). Para a atividade 4 (criação), o tempo e a quantidade de amostras foram previamente estabelecidos com objetivo de estabelecer comparações entre as múltiplas iterações realizadas (figura 13). Os participantes tiveram 1 minuto para realizar uma composição sonora no SoundSphere. Os resultados mostram que na atividade de criação houve um bom desempenho nos fatores diversão (1,79 ± 0,47), produtividade (1,69 ± 0,58) e engajamento (1,77 ± 0,48) atividade também demandou um nível alto de atenção (1,73 ± 0,64). Vários comentaram que gostariam de ter mais tempo para realizar a atividade. 75 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 13. Avaliação do desempenho e do resultado da atividade de criação. Durante a atividade 5 (imitação), os participantes tiveram um minuto para reproduzir um modelo de mixagem previamente realizado no SoundSphere (figura 14). Os dados da avaliação de desempenho e resultado da atividade de imitação apontam para a relevância do resultado (1,67 ± 0,68). Durante a atividade, os fatores atenção (1,75 ± 0,61), diversão (1,76 ± 0,57) e engajamento (1,75 ± 0,84) atingiram níveis altos. Figura 14. Avaliação de desempenho e do resultado da atividade de imitação. 3.5. Estudo EMAC: Discussão dos resultados No estudo realizado com crianças e adolescentes estudantes de música procuramos verificar, através de atividades realizadas com o apoio do protótipo SoundSphere 1.2.2, a aplicabilidade da metáfora da esfera do som. Apesar da idade reduzida dos participantes e da falta de treinamento tecnológico-musical, observamos que a maioria dos entrevistados faz uso frequente de dispositivos tecnológicos.17 Durante o estudo, todos os participantes conseguiram realizar as mixagens e se mostraram interessados nas propostas de criação sonora por meio de aplicativos. Muitos queriam continuar utilizando o protótipo após o término da atividade, e outros pediram o endereço da ferramenta para uso futuro. Com base nos dados obtidos nas atividades de exploração, criação e imitação, concluímos que a metáfora para a ação criativa implementada fomenta a atenção, a diversão, a produtividade e o 76 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) engajamento. Os dados de avaliação dos resultados sonoros e do desempenho durante as atividades ressaltaram o desempenho nos quesitos atenção, diversão, produtividade e engajamento nas atividades de exploração e criação. Na atividade de exploração, a diversão e o engajamento tiveram maior nível de aprovação do que os outros fatores. Na atividade de imitação, destacaram-se os quesitos atenção, diversão, engajamento e relevância do resultado sonoro. Os dados obtidos na avaliação da atividade de imitação enfatizaram a atenção requerida (1,75 ± 0,61). No entanto, os escores da diversão (1,76 ± 0,57) e dos resultados criativos (1,67 ± 0,68) foram elevados. Esses escores apontam que os problemas relatados por Bessa et. al. (2015) na atividade de imitação empregando o protótipo 1.0 - vinculados à utilização de cores aleatórias para representar as amostras - foram corrigidos na versão 1.2.2. 4. Estudo RU: Utilização de SoundSphere em ambiente de transição18 Como complemento aos estudos prévios realizados em ambientes educacionais (Bessa et al. 2015; Pereira et al. 2018), disponibilizamos o protótipo SoundSphere 1.4.0 em um ambiente de transição, no espaço de espera do restaurante central de uma instituição de ensino. O objetivo foi observar o suporte específico da ferramenta para a ação criativa, simultaneamente avaliando o impacto do contexto nas atividades criativas. 4.1. Perfil dos sujeitos Dezenove sujeitos colaboraram na pesquisa (tabela 1). Os participantes foram 12 homens e 7 mulheres. A média de estudo musical é de 1,85 ± 2,77 anos. O período de uso de computador é de 7,55 ± 3,15 anos. O tempo de uso de dispositivos móveis (tablet e celular) é de 8,4 ± 2,50 anos. Tabela 1. Perfil dos participantes (média ± desvio padrão). N = 19. Sexo feminino: 7 masculino: 12 Idade 22,75 ± 4,10 Escolaridade Ensino Superior Incompleto Estudo musical 1,85 ± 2,70 Uso de instrumentos acústicos 2,15 ± 3,51 Uso de instrumentos eletrônicos 1,8 ± 3,33 Uso de programas multimídia 2,15 ± 3,74 Uso de computador 7,55 ± 3,07 Uso de dispositivo portátil 8,4 ± 2,43 Uso de recursos para a manipulação sonora 0,3 ± 1,34 77 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Uso de linguagens de programação musical 0,7 ± 2,36 Uso de navegador de internet 8,42 ± 2,36 Gravação de áudio e vídeo 1,85 ± 3,28 Uso de linguagens de programação 1,00 ± 2,36 Uso de redes sociais 7,5 ± 3,06 Edição de dados 0,5 ± 1,79 Atividade física semanal (em minutos) 55,5 ± 53,55 4.2. Local das sessões As sessões foram realizadas no espaço de lazer do Restaurante Universitário da Universidade Federal do Acre (RU). Nesse espaço, os estudantes ficam nos sofás, em alguns casos utilizando recursos eletrônicos portáteis como telefones ou tablets. O ambiente é climatizado e tem iluminação natural, com amplas janelas de vidro. No centro do espaço tem uma mesa. Os tipos de materiais utilizados na construção (lajota e vidro) são altamente reverberantes e tendem a aumentar o nível de ruído. Porém, fora do horário das refeições o ambiente é tranquilo e a circulação de pessoas é baixa. As sessões aconteceram no período em que o RU não estava em plena atividade. 4.3. Materiais Foi utilizado um computador portátil Samsung 4 Core, com sistema operacional Windows 10, com tela de 13.3 polegadas, processador Quad Core 1.3 e 4 GB de memória RAM com o touchpad do próprio computador (sem mouse ou fones de ouvido). Foi utilizada a versão 75 do navegador Chrome. 4.4. Materiais sonoros As amostras sonoras foram padronizadas em durações de 3 e 19 segundos, e incluíram três classes sonoras: trechos musicais de piano, amostras de sons biofônicos e amostras de sons processados. As amostras de piano foram extraídas de três peças para piano solo: Fur Elise (Ludwig van Beethoven 1810), Sonata para piano Moonlight (Ludwig van Beethoven 1801), Ave Maria (Franz Schubert 1825). As amostras de sons biofônicos abrangem sons de sapos e grilos coletados no Parque Zoobotânico da UFAC (Pinheiro da Silva et al. 2013). As amostras de sons instrumentais foram extraídas da peça instrumental Decadadente.19 O processamento, envolvendo a modificação da duração e da altura das amostras, foi realizado no editor Audacity (Mazzoni e Dannenberg 2000). Após a preparação dos materiais, foram selecionadas 5 amostras de cada grupo (sons biofônicos, piano e sons instrumentais processados), totalizando 15 amostras sonoras. Os arquivos em formato PCM, 44100 Hz, 16 bits (WAVE) foram dispostos numa pasta na área de trabalho. Tabela 2. Foram disponibilizadas 15 amostras, abrangendo sons biofônicos, sons instrumentais e sons instrumentais processados. Durações indicadas em segundos. 78 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Sons biofônicos Sons de piano Sons processados M6I3C2M 00:00:09 C Fur Elise 005 00:00:10 SP-9 00:00:14 J6H3C4A 00:00:06 C Fur Elise 004 00:00:10 SP-8 00:00:11 D4G3R3G 00:00:19 C Fur Elise 003 00:00:05 SP-7 00:00:10 Ç1T3H7M 00:00:03 C Fur Elise 001 00:00:09 SP-5 00:00:09 A5U3V1ª 00:00:03 C Fur Elise 002 00:00:10 SP-3 00:00:09 4.5. Procedimentos Fases do estudo: 1. Instrução sobre a atividade: explicação dos objetivos criativos e dos procedimentos de utilização das ferramentas e preenchimento do formulário de identificação (ISENAP). 2. Seleção das amostras: os colaboradores ouvem as amostras para escolher o material para sua composição. 3. Atividade de exploração: O colaborador tem como objetivo utilizar todas as possibilidades da ferramenta SoundSphere, desde o carregamento das amostras, a inserção no painel de mixagem, até o processamento dos materiais sonoros. O tempo é livre. 4. Atividade de criação. Com tempo limitado em um minuto, os participantes desenvolvem um produto criativo, podendo utilizar amostras sonoras da atividade anterior ou inserir novas amostras. 5. Atividade de imitação. As amostras são carregadas no ambiente SoundSphere. Os sujeitos copiam uma produção criativa fornecida pelo experimentador, no tempo máximo de um minuto. 6. Preenchimento dos formulários de aferição da atividade e dos produtos sonoros (CSI-NAP). 4.6. Aferição criativa (CSI-NAP) Ferramentas e procedimentos descritos no estudo anterior (seção Preparação). 4.7. Estudo RU: Resultados Fizemos um levantamento dos recursos utilizados pelos participantes através da análise dos dados coletados no SoundSphere.20 Nas três atividades foram carregadas entre 4 e 5 amostras e um número similar foi utilizado nas mixagens (tabela 3). Consistentemente, as mixagens abrangeram um número maior de eventos sendo que a maior elaboração correspondeu à atividade de exploração (9 ± 4,32). 79 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Tabela 3. Resultados obtidos através da coleta do histórico de ações implementada na versão 1.4.0 do SoundSphere. Atividade Amostras Disponíveis Amostras Diferentes Utilizadas Eventos Exploração 5 ± 2,28 5 ± 1,45 9 ± 4,32 Criação 5 ± 2,54 4 ± 1,2 7 ± 2,58 Imitação 4 ± 0,5 4 ± 0,89 7 ± 2,09 O desempenho na atividade de criação foi aferido pelos 19 sujeitos (tabela 4). Apresentamos a média e o desvio padrão das respostas a partir da aplicação de uma escala Likert de -2 a 2. As médias mais altas correspondem aos fatores colaboração e diversão (1,8 ± 0,4 e 1,7 ± 0,64 respectivamente). Quanto ao produto criativo, os participantes indicaram que os resultados sonoros foram originais (1,75 ± 0,66), porém a avaliação da relevância dos produtos não atingiu o mesmo consenso que o fator originalidade (1,4 ± 0,66). Outros aspectos da atividade foram avaliados positivamente, porém as médias foram sensivelmente inferiores e a variabilidade das respostas foi maior: nível de atenção (1,5 ± 0,59), produtividade (1,5 ± 0,67). A menor média com maior variabilidade foi no fator que representa o inverso do esforço cognitivo: a facilidade (1,15 ± 0,72). Tabela 4. Resultados da aferição dos fatores criativos na atividade de criação (N = 19). Qualidade do produto 1,4 ± 0,66 Originalidade do produto 1,75 ± 0,66 Facilidade 1,15 ± 0,72 Atenção 1,5 ± 0,59 Diversão 1,7 ± 0,64 Produtividade 1,5 ± 0,67 Colaboração 1,8 ± 0,4 5. Estudos RU e EMAC: Discussão dos resultados desde a perspectiva WYDIWYHE Os resultados abrem um leque de possibilidades e apontam vantagens e limitações da estratégia de design adotada. Primeiramente, as avaliações positivas obtidas no estudo RU indicam que apesar da falta de familiaridade com os processos envolvidos e embora a participação seja casual (com uma explicação sucinta inicial, sem um contato prévio com a ferramenta e envolvendo sujeitos leigos em música), os colaboradores tiveram um engajamento efetivo na proposta criativa. Esse engajamento é indicado pelos escores positivos no item diversão e pela obtenção de produtos criativos satisfatórios segundo as avaliações de todos os participantes. Os resultados ressaltam o potencial da metáfora da esfera do som para resolver diversos problemas observados nos sistemas atuais de sequenciamento. 80 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Porém também dão destaque para algumas limitações do design inicial. Nesta seção abordamos esses itens e indicamos possíveis linhas de investigação vinculadas ao enfoque WYDIWYHE. Proporcionalidade espaço-tempo. Alguns sequenciadores - adotados na edição de partituras - usam representações simbólicas que vinculam eventos a elementos visuais de forma indireta. A notação tradicional exige aprendizagem e interpretação de múltiplas figuras e símbolos que servem para representar o tempo - utilizando, por exemplo, mínimas, semínimas, colcheias. A posição dos símbolos na partitura está correlacionada com o momento de início dos eventos sonoros (ataque ou onset), mas as durações são representadas pelo tipo de figura escolhida e não têm relação com a posição espacial. Essa falta de correlação entre os elementos visuais e a distribuição de eventos no tempo pode configurar um problema para os leigos em música. Um caminho para enfrentar essa limitação é a adoção da proporcionalidade. O painel de mixagem representa uma instância de uma solução mais geral para a manipulação de dados musicais. Os sistemas de representação que estabelecem analogias entre os parâmetros sonoros e as estratégias de visualização têm sido amplamente explorados desde a década de 1960 (Lutoslawski 1960-1961). A utilização de um sistema proporcional entre ataque e duração do evento sonoro e o posicionamento no espaço fornece um avanço em direção à simplicidade conceitual. As linhas curtas são equivalentes a períodos curtos e os eventos longos são representados por linhas longas. O comprimento dos elementos gráficos e a duração tornam-se diretamente relacionados, fornecendo um sistema consistente de visualização e de acionamento do tempo. Temporalidades flexíveis. A aplicação da proporcionalidade no campo da interação musical é rara e em alguns casos é enviesada. Por exemplo, o ambiente Hyperscore visa a inclusão de leigos e utiliza traços num canvas para representar alturas e durações (Farbood 2004). Mas na hora de renderizar os resultados sonoros, os eventos desenhados no canvas viram (magicamente) alturas na escala temperada, sequências de acordes e ritmos periódicos. Enquanto que os usuários interagem com um ambiente visual-analógico contínuo, o produto musical fica restrito a um sistema temperado, baseado em sequências harmônicas e com o tempo segmentado segundo o padrão métrico-periódico. Neste caso, a adoção da visão acústico-instrumental não é o problema (apesar de não utilizar a notação tradicional, a ferramenta poderia ter como objetivo somente resultados sonoros que encaixem dentro dos padrões da música instrumental). O problema é o descompasso entre a estratégia de interação adotada (supostamente livre) e a falta de opção do suporte para a renderização dos resultados sonoros (forçando a segmentação métrico-tonal sem fornecer outras alternativas). Cabe então a pergunta, quais estratégias de design são condizentes com representações temporais flexíveis, que permitem a coexistência de múltiplas formas de organização e segmentação do tempo? Dois aspectos da metáfora da esfera do som parecem estar alinhados com a demanda de uma representação flexível para a organização temporal: 1. O ambiente de mixagem não tem restrições no tipo de material sonoro a ser adoptado. Nos estudos realizados foram utilizados sons de fontes diversas, abrangendo desde materiais musicais métrico-tonais (Freitas et al. 2018) até texturas sonoras sintetizadas ou coletadas no ambiente local (Pereira et al. 2018). No entanto, a liberdade na distribuição temporal dos eventos sonoros tende a privilegiar formas de organização baseadas nas 81 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) relações timbrísticas entre os materiais em detrimento da utilização de padrões rítmicos vinculados ao sistema métrico. 2. A representação é isomórfica, portanto não privilegia o encadeamento sequencial de eventos sonoros. Vejamos este segundo aspecto com mais detalhe. Isomorfismo. A representação da pianola (ou piano roll) e a metáfora da esfera do som são muito próximas. No rolo da pianola, o eixo vertical corresponde à altura (às vezes apresentada no formato do teclado do piano). Os ataques (onsets) e as durações são representados por linhas no eixo horizontal. Portanto, o piano roll é uma representação bidimensional. Em contrapartida, o painel de interação da metáfora da esfera do som é uma visualização parcial de uma estrutura tridimensional subjacente. Enquanto o piano roll tem um começo fixo, o painel de mixagem representa um recorte de um objeto contínuo. Na esfera do som o mesmo tipo de representação pode ser utilizado por múltiplos participantes para interagir com um conjunto compartilhado de dados musicais. Nesse contexto de uso, cada participante teria acesso a uma visualização parcial da esfera. O sentido esquerda-direita direcionado pelo mapeamento fixo da pianola induz a adotar procedimentos sequenciais (exemplificados pela interação evento após evento). Tendo em vista que a representação aplicada na esfera do som é isomórfica (qualquer parte do eixo horizontal ou do eixo vertical é equivalente a qualquer outra área), os usuários não precisam organizar seus procedimentos a partir de sequências lineares. A disponibilização livre dos materiais sonoros pode fomentar interpretações alternativas, evitando a hegemonia da leitura do início ao fim. No entanto, as observações relativas ao uso em projetos de maior dimensão indicam que além da representação isomórfica também é necessário um suporte efetivo para a navegação rápida. Existem precedentes metodológicos que podem ajudar a avançar nessa direção (ver manipulação direta). Manipulação direta. A perspectiva de design WYDIWYHE está fortemente vinculada ao enfoque cognitivo-ecológico (Keller e Lazzarini 2017). A relação íntima entre ação e cognição é enfatizada pelo nexo entre a manipulação de parâmetros sonoros e as estratégias de visualização e interação. Em diversas metáforas para a ação criativa (marcação temporal [time tagging]; marcação espacial [spatial tagging]; marcação procedimental-gráfica [graphic-procedimental tagging]) os elementos da interface priorizam a informação sobre as ações realizadas, deixando em segundo plano a visualização dos parâmetros físicos. Tradicionalmente quando existem alternativas entre dados de controle e dados de áudio, as estações digitais de áudio [Digital Audio Workstations - DAWs] têm priorizado a visualização de parâmetros físicos. Por exemplo, a variação da amplitude sonora ou a representação do espectro são os dois itens mais utilizados para visualizar o som, apesar de que desde uma perspectiva musical raramente são implementados mecanismos para interagir com esse tipo de informação.21 A estratégia de design adotada no SoundSphere consiste em manter o alinhamento entre a ação do participante, a visualização da ação e a disponibilização do recurso para as ações subsequentes. Nesse sentido, o enfoque não só visa a relação entre a ação e o resultado sonoro, ele também envolve a escolha de priorizar a visualização da ação realizada deixando em segunda plano a informação correspondente ao resultado sonoro. O entendimento é que o participante tem acesso ao resultado através da audição, mas o controle acionado para chegar nesse resultado não é sempre óbvio (especialmente para os usuários inexperientes). Na prática, o enfoque implica priorizar os recursos 82 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) visuais que representam ações realizadas com impacto nos resultados sonoros. A estratégia abrange tanto a relação entre o que você faz, você vê quanto o que você faz, você ouve. Um aspecto negligenciado pela maioria das DAWs é o potencial de transferência de conhecimento do histórico das ações realizadas durante a atividade criativa. Em algumas ferramentas, o mecanismo de automação permite recuperar parte das ações. Porém, a limitação dessa funcionalidade como estratégia de transferência de conhecimento é a explosão informacional. Usuários experientes geralmente conseguem lidar com muita informação, filtrando os elementos que não são essenciais para seus objetivos. Mas os iniciantes frequentemente não sabem quais aspectos são importantes e quais podem ser ignorados para atingir seus objetivos musicais. Portanto, ainda está pendente a implementação de estratégias de adequação que evitem a explosão informacional na utilização do histórico das ações criativas em contextos casuais, abrangendo participantes sem treinamento específico. Uma estratégia de design que pode auxiliar a enfrentar esse dilema é a abstração. Abstração semântica. No campo do design de interação, a abstração é utilizada para reduzir a quantidade de informação, fomentando mecanismos para interagir com fenômenos complexos. As representações icônicas e semânticas são as formas mais utilizadas na implementação de estratégias de interação. A notação musical fixa também é uma forma de abstração. Neste caso, as ações musicais são representadas por sistemas simbólicos que permitem determinar os parâmetros sonoros com diversos graus de exatidão, desde os elementos temporais - estabelecidos a partir de um marco temporal indicado em valores metronômicos e figuras baseadas em subdivisões hierárquicas, segundo estruturas periódicas (os compassos) - até indicações gerais que abrangem aspectos da articulação, o tempo e as microvariações paramétricas, por exemplo a indicação do caráter cantabile. O problema da adoção dos sistemas simbólicos - e em particular da notação musical fixa - é que eles demandam um investimento significativo em treinamento, colocando essa opção fora do alcance da participação casual em atividades musicais. No entanto, o uso de estratégias de abstração que não são compatíveis (ao menos em parte) com o conhecimento musical existente reduz as chances de fornecer um suporte efetivo para as atividades conjuntas de músicos e leigos. A combinação de elementos semânticos e de estratégias embarcadas-corporizadas22 parece ser o caminho mais firme para atingir resultados no design criativo voltado para o contexto musical ubíquo. Exemplo desse enfoque na metáfora da esfera do som é a inserção de representações semânticas (os operadores semântico-timbrísticos) dentro de uma representação fortemente proporcional (os eventos no painel de mixagem). Como consequência, SoundSphere dá suporte para a combinação de elementos de duas modalidades complementares de interação: a manipulação direta e a abstração semântica. Propriedades relacionais (impacto dos espaços de transição). Os resultados do estudo RU foram positivos, porém os escores do fator facilidade não atingiram um nível comparável aos outros fatores criativos. O desempenho mais fraco nesse fator pode ser interpretado a partir de premissas diversas. Levando em conta que a maioria dos participantes não tem estudos musicais formais e que só uma minoria tem experiência inicial com ferramentas de manipulação de recursos audiovisuais, não é surpreendente que parte dos sujeitos achem a atividade difícil. Sabemos pelos resultados de outros estudos (Pereira et al. 2018) que a causa da dificuldade não estão na interação com o painel de 83 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) mixagem nem no suporte fornecido para a audição e a escolha dos materiais sonoros. É possível que os sujeitos tenham avaliado a atividade como sendo difícil por causa do desafio de obter um resultado musical relevante com tempo restrito. Outro aspecto que poderia ter impactado essa variável é a modalidade casual da participação. Porém, nesse caso teria sido observada uma queda proporcional nos resultados obtidos com outras metáforas para a ação criativa (na utilização da marcação temporal, por exemplo). Nas comparações entre as atividades em ambientes isolados do contato social (como são o estúdio e o ambiente doméstico) e as atividades em espaços de transição, foi de fato apontado um aumento do esforço cognitivo para esta última condição experimental (Keller et al. 2013; Pinheiro da Silva et al. 2013). Porém esse aumento não estava alinhado com um incremento equivalente no nível de criatividade dos resultados. Quando a atividade ocorre nos espaços de transição, tende a melhorar a originalidade e tende a diminuir a relevância dos produtos criativos. É justamente o que observamos neste caso. Portanto, os resultados estão alinhados com a evidência obtida na aplicação de outras metáforas para a ação criativa, apontando um vínculo entre o esforço cognitivo e o contexto no qual a atividade acontece e destacando o impacto do ambiente tanto nos processos quanto nos resultados criativos. Esses aspectos estão atrelados ao estudo das propriedades relacionais (Keller et al. 2015). 6. Conclusões A utilização da ecologia SoundSphere para fins de interação timbrística apresenta um bom potencial de aplicação nos contextos cotidianos e educacionais. A incorporação da estratégia semântica - via implementação de operadores semântico-timbrísticos - dá suporte para a transferência rápida de conhecimentos altamente técnicos e especializados sem demandar um período longo de preparação ou de treinamento no domínio específico. Em linha com os resultados obtidos em experimentos anteriores (Keller et al. 2013), a atividade criativa em espaços de transição tem impacto positivo no fator originalidade mas esse impacto não é acompanhado pelas avaliações da relevância dos produtos criativos. Possivelmente, na interação casual o nível de esforço cognitivo esteja fortemente relacionado ao contexto. Alinhadas com os resultados da aplicação de outras metáforas de suporte para a ação criativa (como a marcação temporal, a marcação espacial, os substitutos criativos ou a marcação procedimental-gráfica), as atividades com a metáfora da esfera do som foram avaliadas como sendo divertidas, com um alto potencial de colaboração. Neste artigo delineamos parte das estratégias utilizadas numa nova vertente do design de interação embasada nas práticas criativas cognitivo-ecológicas (Keller e Lazzarini 2017), a perspectiva WYDIWYHE. O enfoque implica a utilização de recursos visuais para representar as ações que têm impacto nos resultados sonoros. O método abrange tanto a relação entre o que você faz e o que você vê quanto entre o que você faz e o que você ouve e inclui ao menos seis estratégias:23 1. A proporcionalidade espaço-tempo, exemplificada em SoundSphere pelos mecanismos de representação e acionamento do tempo diretamente proporcionais à disposição no espaço visual. Essa estratégia pode ser ampliada a outras modalidades, incluindo o uso de recursos materiais (dentro do campo da interação tangível) ou o suporte para a interação gestual.24 2. As temporalidades flexíveis, 84 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) que permitiriam a coexistência de diversas formas de organização do tempo deixando nas mãos dos participantes a aplicação dos recursos sonoros e as relações temporais entre eles. No caso do SoundSphere, essa liberdade está assegurada pela possibilidade de incorporar qualquer tipo de recurso sonoro. No entanto, não existe suporte específico para a periodicidade imposta pelo sistema métrico, portanto a temporalidade do SoundSphere tende a priorizar as formas de organização criativa, baseadas no uso do timbre. 3. O isomorfismo é um aspecto complementar às temporalidades flexíveis e está exemplificado pela estrutura da esfera sonora, na qual é possível distribuir os recursos sonoros sem hierarquias preestabelecidas. Esse suporte permite a aplicação simultânea de procedimentos diversos de apoio à organização dos materiais, incluindo os rascunhos sonoros (como tentativas iniciais de estabelecer relações sonoras), as estruturas modulares (que podem ser combinadas livremente ou podem estabelecer restrições específicas) ou a incorporação dos resultados de recursos externos ao SoundSphere (incluindo as técnicas de sonificação ou o uso de elementos multimídia) (um exemplo concreto é descrito em Aliel et al. 2019). Porém, esses aspectos estão melhor representados nos estudos longitudinais e portanto não foram explorados nos dois estudos discutidos neste texto. 4. A manipulação direta, que visa aproximar a utilização dos recursos tecnológicos a formas cotidianas de interação, priorizando a relação ação-percepção. Esse enfoque está no cerne das práticas criativas cognitivo-ecológicas e dá destaque para as estratégias síncronas, sendo relevante também no design do suporte assíncrono. Em SoundSphere, a manipulação direta é utilizada no processo de escolha dos recursos sonoros (painel de seleção) e no mecanismo de inserção dos eventos sonoros (painel de mixagem). 5. A abstração semântica, que envolve o acesso a processos complexos através do uso de palavras. Essa estratégia permite a manipulação timbrística aplicando operadores associados a rótulos escolhidos pelos usuários.25 6. As propriedades relacionais, que emergem a partir da interação entre os indivíduos e o ambiente, e que estão fortemente vinculadas aos recursos locais. Em particular, nos espaços de transição observamos um impacto significativo no nível de esforço cognitivo e no perfil dos produtos criativos, com aumento da originalidade e redução da relevância. O caráter exploratório e aberto da pesquisa ubimus nos encoraja a extrair conceitos a partir das observações empíricas e dos dados coletados. Porém, não afirmamos que a proposta WYDIWYHE tenha se esgotado nas estratégias exemplificadas. Na procura de respostas aos questionamentos surgidos durante o design da metáfora da esfera sonora, talvez seja possível estabelecer claramente as limitações do enfoque WYDIWYHE, impulsionando mais uma estratégia de design para as atividades criativas cotidianas. Referências Adorf, J. (2013). Web Speech API [Technical Report]. Stockholm, Sweden: KTH Royal Institute of Technology. Aliel, L., Keller, D. & Alvim, V. (2019). A Soundtrack for Atravessamentos: Expanding ecologically grounded methods for ubiquitous music collaborations. In Proceedings of the Workshop on Ubiquitous Music (UbiMus 2019) (pp. 652-662). Marseille, France: Ubiquitous Music Group and CMMR. (ISBN: 979-10-97-498-01-6.) 85 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Aliel, L., Keller, D. & Costa, R. (2015). Comprovisation: An approach from aesthetic heuristics in ecocomposition (Comprovisação: Abordagens desde a heurística estética em ecocomposição). In Proceedings of the Brazilian Symposium on Computer Music (SBCM 2015) (pp. 169-180). Campinas, SP: SBC. (ISBN: 2175-6759.) Bessa, W. R. B., Keller, D., Farias, F. M., Ferreira, E., Pinheiro da Silva, F. & Pereira, V. S. (2015). SoundSphere v. 1.0: Documentação e análise dos primeiros testes. In F. Z. Oliveira, D. Keller, J. T. de Souza Mendes da Silva & G. F. Benetti (eds.), Anais do Simpósio Internacional de Música na Amazônia (SIMA2015). Porto Velho, RO: UNIR. Bhagwati, S. (2013). Towards interactive onscreen notations for comprovisation in large ensembles. In Sound & Score: Essays on Sound, Score and Notation (pp. 143-177). Brussels: Leuven University Press. Farbood, M. M., Pasztor, E. & Jennings, K. (2004). Hyperscore: A graphical sketchpad for novice composers. IEEE Computer Graphics and Applications 24 (1), 50-54. (Doi: 10.1109/MCG.2004.1255809.) Farias, F. M., Keller, D., Lazzarini, V. & Lima, M. H. (2015). Bringing aesthetic interaction into creativity-centered design: The second generation of mixDroid prototypes. Journal of Cases on Information Technology (17), 53-72. (Doi: 10.4018/JCIT.2015100104.) Freitas, B., Keller, D., Bessa, W. R. B. & Ferreira da Costa, D. (2020). Interação timbrística em música ubíqua: A ecologia de metáforas da esfera sonora. Journal of Digital Media & Interaction. Freitas, B., Martins, A. J., Bessa, W. R. B. & Keller, D. (2018). Causas da fixação criativa: Viés cognitivo ou recurso tecnológico? Um estudo utilizando o ambiente musical ubíqua SoundSphere. In Anais do Seminário de Iniciação Científica do Acre (IC 2018). Rio Branco, AC: UFAC. Guedes, G. T. A. (2011). UML 2: Uma abordagem prática. São Paulo: Novatec. Keller, D. (2000). Compositional processes from an ecological perspective. Leonardo Music Journal 10, 55-60. (Doi: 10.1162/096112100570459.) Keller, D., Capasso, A. & Tinajero, P. (2019). Knowledge transfer in ecologically grounded approaches to ubimus: InMesh 1.0. Journal of New Music Research 48 (4), 397-411. (Doi: 10.1080/09298215.2019.1642361.) Keller, D. & Lazzarini, V. (2017). Ecologically grounded creative practices in ubiquitous music. Organised Sound 22 (1), 61-72. (Doi: 10.1017/S1355771816000340.) Keller, D. & Lazzarini, V. (2017). Theoretical approaches to musical creativity: The ubimus perspective. Musica Theorica 2 (1), 1-53. Keller, D., Lazzarini, V. & Pimenta, M. S. (2014a). Ubiquitous Music, Vol. XXVIII. Berlin and Heidelberg: Springer International Publishing. (ISBN: 978-3-319-11152-0.) Keller, D. & Lima, M. H. (2016). Supporting everyday creativity in ubiquitous music making. In P. Kostagiolas, K. Martzoukou & C. Lavranos (eds.), Trends in Music Information Seeking, Behavior, and Retrieval for Creativity (pp. 78-99). Vancouver, BC: IGI Global Press. Keller, D., Otero, N., Lazzarini, V., Pimenta, M. S., Lima, M. H., Johann, M. & Costalonga, L. (2014b). Relational properties in interaction aesthetics: The ubiquitous music turn. In K. Ng, J. P. Bowen & S. McDaid (eds.), Proceedings of the Electronic Visualisation and the Arts Conference (EVA 2014). London: BCS, Computer Arts Society Specialist Group. Keller, D., Otero, N., Lazzarini, V., Pimenta, M. S., Lima, M. H., Johann, M. & Costalonga, L. L. (2015). Interaction aesthetics and ubiquitous music. In N. Zagalo & P. Blanco (eds.), Creativity in the Digital Age (pp. 91-105). London: Springer. (ISBN: 978-1-4471-6680-1.) 86 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Keller, D., Pinheiro da Silva, F., Ferreira, E., Lazzarini, V. & Pimenta, M. S. (2013). Opportunistic design of ubiquitous music systems: The impact of anchoring on creativity (Design oportunista de sistemas musicais ubíquos: O impacto do fator de ancoragem no suporte à criatividade). In E. Ferneda, G. Cabral & D. Keller (eds.), Proceedings of the XIV Brazilian Symposium on Computer Music (SBCM 2013). Brasília, DF: SBC. Keller, D., Pinheiro da Silva, F., Giorni, B., Pimenta, M. S. & Queiroz, M. (2011). Spatial tagging: an exploratory study (Marcação espacial: estudo exploratório). In L. Costalonga, M. S. Pimenta, M. Queiroz, J. Manzolli, M. Gimenes, D. Keller & R. R. Faria (eds.), Proceedings of the 13th Brazilian Symposium on Computer Music (SBCM 2011). Vitória, ES: SBC. Lindstrom, S. (2017). Refatoração de CSS. São Paulo: Novatec. Lutoslawski, W. (1960-1961). Jeux Vénitiens [Orchestral score]. Warsaw, Poland: PWM Orchestral score. Mazzoni, D. & Dannenberg, R. (2000). Audacity [Audio Editor]. Carnegie Mellon University http://audacity.sourceforge.net/about/credits. Pereira, V. S., Silva, S. L., Bessa, W. R. B., Alcântara-Silva, T. R. & Keller, D. (2018). SoundSphere: Participatory design as a strategy to develop sustainable technologies in ubiquitous music (SoundSphere: O design participativo como estratégia para o desenvolvimento de tecnologias sustentáveis em música ubíqua). Sonic Ideas 10 (19), 7-44. Pinheiro da Silva, F., Keller, D., Ferreira, E., Pimenta, M. S. & Lazzarini, V. (2013). Everyday musical creativity: Exploratory study of ubiquitous musical activities (Criatividade musical cotidiana: Estudo exploratório de atividades musicais ubíquas). Música Hodie 13, 64-79. Sorba, C. (2006). To Please the Public: Composers and Audiences in Nineteenth-Century Italy. The Journal of Interdisciplinary History 36 (4), 595-614. Stolfi, A. S., Milo, A. & Barthet, M. (2019). Playsound.space: Improvising in the browser with semantic sound objects. Journal of New Music Research 48 (4), 366-384. (Doi: 10.1080/09298215.2019.1649433.) Turchet, L., Fischione, C., Essl, G., Keller, D. & Barthet, M. (2018). Internet of Musical Things: Vision and Challenges. IEEE Access 6, 61994-62017. (Doi: 10.1109/ACCESS.2018.2872625.) Vieira da Silva, L., Barros, A. E. B. & Keller, D. (2017). A utilização das tecnologias da informação e comunicação no ensino de música: Estudo nas escolas do município de Rio Branco, Acre. In Anais do Simpósio Internacional de Música na Amazônia (SIMA 2017). Macapá, AP: Universidade Estadual do Amapá. 1 Fast knowledge transfer (Keller et al. 2019). Direct manipulation, segundo a perspectiva da interação humano-computador. 3 Sound Sphere Metaphor. 4 https://html.spec.whatwg.org/multipage/ 5 https://code.visualstudio.com/ 6 https://www.google.com/chrome/ 7 https://www.w3.org/TR/webaudio/ 8 Flávio Miranda, Edemilsom (Nicke) Ferreira, Marcello Messina e Luzilei Aliel forneceram propostas que ajudaram no processo de design. Além deles houve outros pesquisadores e participantes de sessões experimentais que também contribuíram. 9 https://trello.com/ 10 O termo técnico utilizado em programação web é hovering. 11 O termo técnico é click-and-drag. 12 Loop, play, pause, stop, reset, upload samples, download mix. 13 Porém, existem diversas considerações a serem feitas sobre o processo de inserção de eventos e a relação entre o material sonoro novo e os materiais já existentes nas mixagens. Na discussão final abordamos algumas possibilidades de designs alternativos. 14 A informação também é disponibilizada no Leitor SFS, apresentando os dados de início e fim de sessão cada vez que o usuário modifica o arquivo de projeto. 2 87 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) 15 No entanto, cabe destacar alguns acréscimos nas funcionalidades, necessários quando o foco da atividade é a geração síncrona de áudio. O design de SoundSphere foi sempre voltado para a atividade criativa assíncrona, a ampliação do leque de aplicações apresenta desafios interessantes. 16 Durante a aplicação do formulário, os colaboradores aferem diversos aspectos da sua experiência e dos produtos obtidos. Avalia-se o resultado sonoro e o desempenho através das seguintes perguntas: “O resultado foi bom?”, “O resultado foi original?”, “A atividade foi fácil?”, “Você ficou atento?”, “A atividade foi divertida?”, “A atividade foi produtiva?”, “Foi fácil colaborar?”. Cada pergunta corresponde a um fator de suporte à criatividade. 17 Um estudo realizado pelo NAP em todas as instituições de ensino médio de Rio Branco que ofereciam aulas de música em 2015 indicou que somente 18% dos alunos faz uso de recursos tecnológicos no contexto do ensino formal, mas que 83% deles utiliza recursos tecnológicos para fins musicais nos espaços informais, com destaque para o âmbito doméstico (Vieira da Silva et al. 2017). 18 O presente estudo foi inicialmente publicado no Simpósio Internacional de Música na Amazônia (SIMA 2019) (Freitas et al. 2019). Fornecemos uma versão editada para facilitar a compreensão da análise crítica apresentada na seção final do artigo. 19 Autor: Arthur José Martins (2017). 20 A implementação e descrição da ferramenta utilizada é tópico de outro artigo em processo de elaboração. 21 Obviamente existem exceções, como é o caso da ferramenta Audiosculpt. A crítica está dirigida à adoção frequente da amplitude como a única forma de visualização das informações sonoras, sendo que esse tipo de interface é pobre em informações musicalmente relevantes. 22 Embedded-embodied no original em inglês. Refere-se à utilização de recursos locais, incluindo aspectos corporais e materiais presentes no entorno onde a atividade criativa é realizada. Ver (Keller 2000; Keller e Lazzarini 2017) para aplicações no campo das práticas criativas. 23 Apontamos aqui o questionamento de um revisor. O argumento é que a proporcionalidade espaço-tempo e as temporalidades flexíveis seriam duas características compartilhadas pela maioria dos editores de áudio. Como indicamos no texto, a proporcionalidade espaço-tempo é uma característica comum à maioria das representações de dados musicais baseadas na analogia visual (com destaque para o piano roll e similares). Uma contribuição deste artigo é indicar que essa estratégia forma parte de um paradigma de design mais amplo, descrito aqui pela sigla WYDIWYHE. Já as temporalidades flexíveis demandam a compatibilidade entre diversas formas de organização temporal envolvendo, por exemplo, a utilização de descrições aproximadas (como poderia ser uma partitura verbal) em simultâneo com sistemas hierárquicos ou fixos (como é a organização das durações na notação tradicional). Esse suporte não é fornecido por SoundSphere e constitui um problema de pesquisa em aberto (ver Freitas et al. neste volume, para considerações complementares). 24 Nesse contexto de desenvolvimento podem ter utilidade as propostas vinculadas à internet das coisas musicais (IoMusT Turchet et al. 2018). 25 Como complemento, ver a proposta de Stolfi et al. (2019) para o acesso a bases de dados sonoros de forma remota a partir de descritores semânticos. Cabe uma consideração cuidadosa das estratégias a serem aplicadas quando a degradação do desempenho impede o acesso à rede. Em SoundSphere, após o carregamento inicial do software no navegador a funcionalidade é garantida mesmo não tendo acesso ao serviço de internet. 88 International Journal of Digital Media and Interaction Special Issue on Ubiquitous Music, Vol.3, No.5, (2020) Internet das Coisas Musicais Aplicada a Instrumentos Musicais Robóticos (Internet of Musical Things Applied to Robotic Musical Instruments) Higor Camporez1, Anilton Garcia1, Jair Silva1, Leandro Costalonga2 e Helder Rocha1 1 2 Departamento de Engenharia Elétrica (DEL) – Universidade Federal do Espírito Santo Departamento de Computação e Eletrônica (DCEL) – Universidade Federal do Espírito Santo [email protected], [email protected], [email protected], [email protected], [email protected] Abstract In the 1950s, musicians started to explore computer use for musical activities, often unrelated to realtime processing. However, technological advances have made the computer more present in musical performances, creating research areas such as ubiquitous music (ubimus), which aims to promote tools that support creative musical activities and the Internet of Musical Things (IoMusT), which is described as the use of electronics (sensors, actuators, connectivity, etc) for a musical purpose. An application encompassing these research areas is the development of robotic instruments for group musical performances. In this paper, some of the key concepts of IoMusT and ubimus are presented alongside examples using musical robots prototypes (RoboMus). In addition, a proposal for robot synchronization including a mechanical delay compensation through neural networks and precision time protocol (PTP) to align the robot’s clock. Keywords: Digital Musical Instrument, Internet of Musical Things, Robotics Musicians, Synchronization, UbiMus. Resumo Em meados da década de 1950, os músicos começaram a fazer uso do computador em atividades musicais, frequentemente não relacionados a processamento em tempo real. Porém, os avanços tecnológicos propiciaram um maior uso do computador em performances musicais, criando novas áreas de pesquisa como a de música ubíqua (ubimus), que promove ferramentas tecnológicas para auxiliar atividades musicais criativas e a Internet das Coisas Musicais (Internet of Musical Things IoMusT), descrita como o uso da eletrônica (sensores, atuadores, conectividade e etc.) para propósitos musicais. Uma aplicação englobando essas duas áreas de pesquisa é o desenvolvimento de instrumentos musicais robóticos para performances em conjunto, que demandam sincronização. Este artigo apresenta conceitos de IoMusT e ubimus juntamente com exemplos de protótipos de robôs musicais (RoboMus), além de uma proposta para a sincronização dos robôs utilizando redes neurais para aprendizado e compensação de atrasos mecânicos e o protocolo PTP (Precision Time Protocol) para alinhamento de relógios. Palavras-chave: Internet das Coisas Musicais, Instrumentos Musicais Digitais, Música Ubíqua, Músicos Robóticos, Sincronização. 1. Introdução Em meados de 1950 uma nova tecnologia despertou o interesse dos músicos – o computador. Tão logo foi criado, o computador começou a ser explorado pelos músicos para atividades de composição musical. Com a popularização desse dispositivo, ocorreu um grande progresso no campo da Interação Humano-Computador (IHC) de modo a permitir que os computadores pudessem ser utilizados por pessoas não especializadas. Certamente o fazer musical não figurava entre as ISSN: 2184-3120 CC 2020 DIGIMEDIA International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) principais utilizações do computador e, sendo assim, a interação como instrumentos musicais não evoluiu tão rapidamente como os demais produtos da computação, como por exemplo, editores de texto. Atualmente, computadores estão envolvidos em praticamente todas as atividades conhecidas por seres humanos, incluindo a música. Dentre essas atividades encontra-se a performance musical, que apresenta certa complexidade devido as suas demandas temporais. A ampla interseção entre atividades musicais e tecnologia levaram ao nascimento de uma área de pesquisa conhecida como música ubíqua (ubimus – ubiquitous music) (Keller, Lazzarini, & Pimenta, 2014); esta área lida com sistemas de agentes humanos e recursos materiais que dão suporte para atividades musicais através de ferramentas de apoio à criatividade. Na prática, ubimus é música (ou atividades musicais) apoiada por conceitos de computação e suas tecnologias. Relaciona-se com conceitos como: portabilidade, mobilidade, conectividade e disponibilidade (incluindo não músicos) (Keller, Flores, Pimenta, Capasso, & Tinajero, 2011). Outra área de pesquisa fortemente vinculada a ubimus, englobando conceitos tecnológicos para atividades musicais é a Internet das Coisas Musicais (IoMusT) (Keller & Lazzarini, 2017; Turchet, Fischione, Essl, Keller, & Barthet, 2018). A IoMusT, uma subárea de Internet of Things (IoT) (Atzori, Iera, & Morabito, 2010), é descrita como o uso da eletrônica por meio de sensores, atuadores, processamento e conectividade de rede para coleta e troca dados visando um propósito musical, permitindo assim, a interconectividade entre artistas e/ou a audiência. O uso da eletrônica para atividades musicais também tem resultado no desenvolvimento de instrumentos musicais robóticos (Bretan & Weinberg, 2016; Kapur, 2005) que utilizam sensores, atuadores e outros diversos recursos para construção de robôs, entrelaçando assim as áreas de IoMusT e ubimus para esse contexto. Dentre os trabalhos na área, destaca-se um robô interativo construído para tocar marimba, chamado de Shimon (Hoffman & Weinberg, 2010). Shimon dispõe de componentes que permitem a improvisação com outros músicos em tempo real, de acordo com o contexto, e a interação gestual através de uma cabeça não-humanoide. Outro robô em destaque é o LEMUR GuitarBot (Singer, Feddersen, Redmon, & Bowen, 2004), uma espécie de slide-guitar com quatro cordas, controlada por mensagens MIDI. Em cada corda encontra-se um dispositivo de slide que funciona de forma independente. Os robôs musicais podem funcionar de forma autônoma, como o Shimon, ou podem ser controlados por seres humanos através de interfaces de controle e rede de computadores, como é o caso da plataforma RoboMus (Camporez, Mota, Astorga, Rocha, & Costalonga, 2018), descrita na Seção 4. Nesse artigo, aborda-se ubimus, IoMusT e seus conceitos, seguido por uma descrição de implementação utilizando robôs musicais (RoboMus) controlados por seres humanos, citando vários exemplos práticos construídos, bem como uma interface de controle. Ainda é apresentada uma proposta de sincronização para esses robôs, incluindo a sincronia de relógios e a compensação de atrasos mecânicos através de redes neurais. 2. Contribuições 90 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) O presente trabalho apresenta contribuições para as áreas de pesquisa ubimus e IoMusT. As principais contribuições são: (a) a implementação de protótipos de robôs musicais e (b) uma proposta de técnicas para sincronização de robôs musicais que inclui sincronia de relógios e compensação dos atrasos mecânicos através do uso de redes neurais. 3. Internet das Coisas Musicais Em uma perspectiva da ciência da computação, a coisa musical (musical thing) é definida como um dispositivo computacional capaz de detectar, adquirir, processar, atuar e trocar informações para um propósito musical (Turchet et al, 2018). IoMusT pode ser descrito como a conjunção de interfaces, protocolos e a representação de informações musicais que possibilitam serviços e aplicações para finalidades artísticas baseadas em interações entre coisas musicais ou entre humanos e coisas musicais, seja no mundo físico ou digital. Assim, IoMusT pode ser retratada como a conjunção de IoT e os sistemas musicais. Os ecossistemas digitais (Boley & Chang, 2007) também abrangem a área de IoT (Delicato et al, 2013), e, por conseguinte, o campo de IoMusT. De acordo com Turchet et al (2018), um ecossistema de IoMusT é composto por: usuários envolvidos em atividades musicais; provedores de informações e serviços; e padrões. Os autores também definem os três principais componentes para um ecossistema de IoMusT dentro de uma perspectiva tecnológica: • Coisas musicais: Uma nova classe de dispositivos musicais conectados à Internet que promete uma transformação notória no modo de interação do usuário com atividades musicais, conduzidas com objetos musicais. Essas coisas musicais herdam diversas características de IoT como sensores, atuadores, conectividade e software para manipulação de dados. • Conectividade: Na infraestrutura de conexão usada em IoMusT, deve-se considerar uma comunicação multidirecional sem fio, seja ela remota ou localizada. Essa interconectividade é alcançada por meio das tecnologias de hardware e software, e, também, por padrões e protocolos de gerenciamento. Algumas performances artísticas demandam comunicação em tempo real. Portanto, a rede deve fornecer baixa latência, alta confiabilidade, alta qualidade e sincronização entre os dispositivos conectados. • Aplicações e serviços: Vários tipos de aplicações e serviços podem ser construídos com essa nova perspectiva sobre IoT, onde o público-alvo são músicos, engenheiros de áudio, membros da audiência e outros. Os serviços podem ter caráter interativo ou não, exemplos são: conectividade do smartphone com atividades musicais; serviços de análises para conteúdo criativo; serviço de mapeamento dos dados e controle de coisas musicais. Já as aplicações representam a mais alta camada de interação com o usuário. Para os membros da audiência, pode-se considerar como exemplo o aumento da experiência de um concerto baseado na interação com coisas musicais. Para os músicos, um exemplo é a possibilidade de ensaios remotos. Para engenheiros de áudio encontram- 91 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) se os estúdios de produção inteligentes. Para estudantes e professores, tem-se a possibilidade de criar seções remotas de ensino. De acordo com Turchet et al (2018), IoMusT envolve diversas áreas como: performances musicais em rede; performances interativas; dispositivos vestíveis; realidade aumentada e etc. Como exemplos práticos de IoMusT, pode-se citar: • Dispositivos vestíveis: Aparato alocado junto ao corpo do usuário (ex. smartwatch) com objetivo de captar informações fisiológicas como temperatura corporal, frequência cardíaca e captação de movimentos. Podendo também fornecer uma resposta háptica de acordo com as informações captadas e o contexto da performance; • Robôs musicais: instrumentos musicais robóticos, podendo ser robôs virtuais ou físicos. Os físicos fazem uso sensores e atuadores, ou seja, coisas musicais. Na classe de robôs controlados por seres humanos, em geral, demanda-se de conexão, representando o componente conectividade e interfaces de controle (aplicações e serviços). Assim, as performances musicais robóticas podem ser classificadas como atividades de IoMusT. 4. A Plataforma RoboMus Dentro do contexto de ubimus e IoMusT, um trabalho que vem sendo desenvolvido é a plataforma RoboMus (Camporez et al, 2018). A plataforma (Figura 1) possui uma arquitetura aberta de software e hardware tendo como objetivo a construção de robôs musicais de baixo custo controlados por humanos por intermédio de interfaces de interação. Apesar do foco do trabalho encontrar-se no controle por seres humanos, não se descarta a possibilidade de embutir módulos semiautônomos e autônomos para que possam atuar em determinados momentos da performance, por exemplo em uma desejada pausa rápida do usuário, nesse caso o robô assumiria a performance. A iniciativa pressupõe o uso de um formato predefinido de mensagens musicais, de modo que os robôs possam ser controlados e colaborarem mutuamente durante uma performance musical. Como é desejável uma configuração de múltiplos robôs em uma performance musical em tempo real, estratégias de sincronização são aplicadas através de um servidor de macrossincronizaçãoi de mensagens musicais, assim como, algoritmos de microssincronizaçãoii que são embarcados nos robôs. A RoboMus pode ser dividida em três partes: a) os robôs (instrumentos musicais robóticos), que incluem dispositivos comuns de controle a todos os robôs compatíveis com a plataforma; b) interfaces de controle dos robôs, que incluem a definição de linguagem de programação musical, interfaces colaborativas, pervasivas/ubíquas, tangíveis, gestuais, biossinais, entre outras; c) Servidor de Sincronização de Mensagens Musicais (SSMM), que executa o escalonamento de mensagens, empregando técnicas de compensação de atrasos mecânicos (macrossincronização). Também nessa linha, são propostas estratégias para compensar falhas de comunicação de dados durante a performance musical de tal forma que a audiência não perceba tais falhas. Por exemplo, se um robô 92 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) perder a conexão com o servidor, um outro pode fazer uma ponte de conexão para ele. Na Figura 1, pode-se observar a arquitetura da plataforma RoboMus. Figura 1. Arquitetura da Plataforma RoboMus Na plataforma é empregado o protocolo de comunicação Open Sound Control (OSC) para definir os formatos de mensagens. Para a conexão entre o SSMM e os robôs, a plataforma segue o viés de que cada robô possui suas peculiaridades e limitações mecânicas. Isto posto, trabalha-se com uma espécie de apresentação (handshake), onde o robô envia suas informações e ações específicas de controle através de um padrão de comunicação predefinido. Vale ressaltar que ao se conectar em uma rede contendo uma sala de concerto, o robô pode encontrar um SSMM através de uma mensagem broadcast em uma porta de comunicação específica, para então, obter informações do servidor. No entanto, algumas mensagens básicas são definidas e todo robô RoboMus deve implementá-las, por exemplo, a mensagem playNote que contém os parâmetros: momento de execução, nota, duração e intensidade da nota. É possível que certos robôs não consigam executar tal ação com todos os detalhes especificados, assim, o mesmo deve contornar a situação para melhor executar a ordem. Além disso, padrões de mensagens para conexão das interfaces de controle com o SSMM são definidos para que as interfaces tenham conhecimento dos instrumentos e suas mensagens específicas. Assim sendo, ao se conectar a uma rede, a interface pode enviar uma mensagem broadcast de handshake para encontrar um SSMM. 4.1. Robôs RoboMus 93 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) A plataforma RoboMus também apresenta dois protótipos robóticos visando o baixo custo e a reutilização de componentes, estes são: o lap steel guitar robótico e o bongo robótico (BongoBot). Além desses, neste artigo são descritos outros dois trabalhos envolvendo a robotização de uma flauta de pã e de um violino. 4.1.1. Lap Steel Guitar Robótico Os autores Camporez et al (2018) descrevem um protótipo robótico de uma lap steel guitar com 9 cordas em afinações diferenciadas do padrão (G4, F4, E4, C4, A3, F3, D3, A2 e D2). Para representar as ações de mão direita, no caso de um usuário destro, foram utilizados 18 servomotores, sendo 9 para excitação de cordas e 9 para abafamento das mesmas. Para o dispositivo de mão esquerda, foi utilizado um motor de passo e uma barra de slide presa em uma estrutura deslizante que se movimenta por intermédio do motor. Todos esses dispositivos são controlados por um Arduino e um Raspberry PI, podendo o Raspberry ser substituído por um smartphone Android (visando a reutilização de dispositivos antigos que costumam ficar abandonados em gavetas, ou acabam virando lixo eletrônico, por estarem ultrapassados tecnologicamente). A Figura 2 ilustra a arquitetura do robô. Resultados em vídeo desse robô podem ser encontrados em (NESCoM, 2018a). Figura 2. Lap Steel Guitar Robótico. 4.1.2. BongoBot Este protótipo foi desenvolvido para os primeiros testes de comunicação da plataforma. Chamado de BongoBot, e utilizando um bongô, o dispositivo foi criado com um hardware que utiliza dois servomotores, duas baquetas para xilofone, um smartphone Android e um Arduino Uno (Figura 3). Vídeos demonstrativos podem ser encontrados em (NESCoM, 2018b). 94 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Figura 3. Bongo Robótico (BongoBot). 4.1.3. Flauta de Pã Ainda com viés de projetos de baixo custo, apresenta-se um protótipo de uma flauta de pã robótica. A flauta foi construída com partes de cano pvc, contendo 11 notas no total. Para os aparatos tecnológicos, utilizou-se um motor de passo, um driver para o motor, um compressor de ar e um Arduino. A flauta foi fixada em um pedaço de aro e o motor de passo foi conectado a estrutura para proporcionar rotação. Com a mangueira de ar proveniente do compressor fixada, a rotação proporcionou a mudança de nota na flauta. A Figura 4 ilustra a estrutura do protótipo. Figura 4. Flauta de Pã Robótica. 4.1.4. Violino Robótico Um protótipo de violino robótico também foi implementado para interação com a plataforma RoboMus. O protótipo se dividiu em três frentes de trabalho: (a) movimento do arco; (b) giro do violino e (c) pressionamento de corda. Na frente de trabalho (a) visou-se emular o movimento do arco 95 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) para produção sonora, assim o arco foi preso em um dispositivo para movimentá-lo horizontalmente. Em (b) foi desenvolvido o dispositivo para rotacionar o violino com o objetivo de alternar a corda em que o arco estava tocando, a estrutura faz uso de um motor de passo para tal fim. Já em (c) foi construída uma estrutura para pressionar as cordas, onde utilizou-se dois servomotores em posições fixas. A Figura 5 demonstra arquitetura supracitada. Figura 5. Violino Robótico. 4.2. Interfaces de Interação Humano-Robô (RHI) As interfaces de interação entre seres humanos e robôs vem sendo bastante exploradas, inclusive no âmbito de instrumentos musicais robóticos, como por exemplo a interface gestual para controle de um robô flautista (Petersen, Solis, & Takanishi, 2008). Contudo, em geral, os músicos de uma banda trocam informações principalmente através da percepção visual e acústica. Sendo assim para uma performance mais realista pode-se implementar nos robôs mecanismos que sejam capazes de recriar tais interações. O marimba robótico Shimon (Hoffman & Weinberg, 2010) consegue interagir em tempo real com músicos, tanto no acompanhamento acústico quanto na interação gestual, uma vez que possui características físicas análogas as dos seres humanos. Outro exemplo, é o robô Shimi (Bretan & Weinberg, 2014) que possui 5 graus de liberdade para a interação gestual, caixas acústicas para reprodução sonora e utiliza um smartphone como interface gráfica, além de utilizar o microfone e a câmera para a entrada de dados visando interação. Como o controle dos robôs por seres humanos é uma das premissas da plataforma, idealiza-se interfaces de controle desenvolvidas por intermédio tanto de uma linguagem de programação musical, de uma API, quanto de um dispositivo controlador - por exemplo: WiiMote, smartphone, instrumentos inteligentes e etc. Assim, há um alinhamento aos sistemas de ubimus quando suportam 96 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) múltiplas formas de interação e múltiplas fontes sonoras (geradas pelos robôs) de forma integrada (Keller et al, 2014). A plataforma RoboMus também visa o desenvolvimento de interfaces assistivas para a inclusão de pessoas portadoras de deficiência motora. Assim, ainda em processo de desenvolvimento, tem-se uma interface chamada Olhar Musical (Camporez, Neto, Costalonga, & Rocha, 2018) que faz uso de um dispositivo para rastreamento de olho (eye tracker). Todo controle da interface, e, por conseguinte, dos robôs, é feito por intermédio do movimento dos olhos. Em primeiro momento a interface foi desenvolvida para execução de amostras de áudio previamente configuradas na interface (Figura 6), visando o controle de robôs como trabalhos futuros. Toda amostra de áudio é executada pelo software Ableton Live através de mensagens de controle enviadas pela interface. Na Figura 6 pode-se observar as células centrais que representam uma amostra de áudio cada, assim, o usuário pode selecionar uma célula central e o botão play, para iniciar a execução, ou pause, para encerrar uma execução. Os botões play e pause do lado esquerdo da Figura 6 tem objetivo de fornecer, ao usuário, a possibilidade de conhecimento prévio das amostras através de um canal de áudio separado da performance. Já os botões do lado direito executam a amostra diretamente na performance. Figura 6. Interface Assistiva Olhar Musical. 4.3. Sincronismos dos Robôs Musicais Em performances musicais a sincronia entre os participantes é essencial, no contexto de performances musicais robóticas não é diferente. Os humanos possuem atrasos mecânicos e os compensam iniciando a execução do movimento momentos antes da desejada resposta sonora do instrumento. Os robôs, por possuírem componentes mecânicos, também apresentam tais atrasos. Nesta seção é descrito sobre algumas estratégias de macrossincronização promovidas pelo SSMM para compensá-los. A plataforma RoboMus propõe enviar o tempo de execução da mensagem utilizando tempo absoluto, o Time Tag, presente no protocolo OSC, que contém o tempo em segundos desde a meianoite de 1 de janeiro de 1970, com precisão de picossegundos. Contudo, há uma necessidade de sincronizar os relógios dos robôs para que todos possuam a mesma referência. Assim, para 97 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) fornecer essa sincronia, propõe-se a implementação do protocolo PTP (Precision Time Protocol), definido no padrão IEEE 1588 (IEEE, 2008), que fornece a hora com precisão através de uma rede. Nesse caso, o servidor SSMM também funciona como um servidor PTP e os robôs como clientes PTP. Estudos com o protocolo PTP mostram um erro no relógio de 2,8 µs (Kannisto, Vanhatupa, Hännikäinen, & Hämäläinen, 2004) e um erro médio de 7,35 µs (Cooklev, Eidson, & Pakdaman, 2007) para WLAN (Wireless Local Area Network), valores plausíveis frente a percepção sonora humana que é capaz de distinguir diferenças temporais entre dois eventos acústicos sucessivos em até 20 milissegundos (Pisoni, 1977). Cada robô da plataforma possui um perfil de atraso próprio devido ao seu projeto estrutural. Assim, é crucial que o SSMM tenha conhecimento desses perfis para a aplicação de técnicas de sincronização sobre os robôs. Para tal, é proposto um treinamento prévio, ou seja, o servidor envia a um robô uma mensagem contendo uma ação e ele retorna uma massagem contendo o tempo de atraso que gastou para executar tal ação. Esse tempo é contabilizado a partir do momento que o robô envia os sinais elétricos para seus atuadores até o momento em que é gerada a resposta sonora. O formato da mensagem contendo o atraso segue o conteúdo descrito na Tabela 1, onde o endereço OSC é a junção entre o endereço do servidor, a palavra delay e o endereço do instrumento remetente. Já o primeiro parâmetro é o identificador da mensagem (o mesmo usado na mensagem enviada pelo servidor) e o segundo parâmetro é o atraso mecânico. Tabela 1. Formato da Mensagem para Retorno do Atraso Mecânico. Endereço Parâmetro 1 Parâmetro 2 /Endereço OSC do servidor/delay/Endereço OSC do instrumento Identificador Atraso mecânico Com os atrasos e as mensagens, o servidor pode então levantar o perfil de atraso para cada robô utilizando redes neurais. Nesse caso, o SSMM envia centenas de mensagens para cada robô e levanta seu perfil, esse processo demanda certo tempo, tanto para envio e execução das ações quanto para treinamento da rede para cada robô. No entanto, todo processo é feito nos bastidores e não no momento da performance. Através do handshake, o SSMM tem conhecimento de várias informações de um robô, entre essas destaca-se a informação de ações específicas, que tem o objetivo de transmitir ao SSMM todas ações que o robô pode executar e os parâmetros necessários para o controle do mesmo. Contudo, para que o SSMM crie as mensagens para treinamento é necessário ter o conhecimento dos conjuntos de valores válidos para cada parâmetro, para que desse modo o SSMM possa montar mensagens válidas e facilitar a generalização e o treinamento da rede neural. O protocolo de ação específica do RoboMus proposto por Camporez et al (2018) não prevê esses conjuntos, como pode ser visto no exemplo a seguir: </ação1; parâmetro11_tipo; ... ; parâmetro1N_tipo> ... </açãoN; parâmetroN1_tipo; ... ; parâmetroNN_tipo>. 98 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) O formato acima identifica cada ação entre “<>” e, dentro cada ação, as informações são separadas por “;”, onde o primeiro componente representa o endereço OSC da ação e os demais são os parâmetros que contém o nome e tipo do parâmetro separado por “_”. Assim, neste artigo é proposto um novo formato para a informação de ações específicas, onde inclui-se os conjuntos válidos para cada parâmetro de cada ação. Ao final do formato anterior é adicionado o novo padrão onde os valores válidos são representados entre parêntesis e os conjuntos separados por “;”, exceto o primeiro termo que é o nome da ação. Abaixo segue o novo modelo do padrão: </ação1; parâmetro11_tipo; parâmetro12_tipo; ... ; parâmetro1N_tipo> ... </açãoN; parâmetroN1_tipo; ... ; parâmetroNN_tipo>(/ação1; conjunto11; conjunto12; ... ; conjuntoN) ... (/açãoN; conjunto1N; conjunto2N; ... ; conjuntoNN). Cada conjunto pode ser representado de duas formas. Uma que determina o intervalo com limite superior e inferior, como por exemplo, ]a,b] onde a é o limite inferior, mas não pertence ao conjunto, representado por ]a, e b é o limite superior que pertence ao intervalo, representado por b], seguindo o padrão matemático de intervalos. A segunda forma é a passagem literal dos possíveis valores, nesse caso os valores são contidos entre chaves ({}) e separados por vírgula, por exemplo, {p1, p2, p3, ... , pn}. Segue um exemplo: </playNote; string_i; fret_i></playString;string_i>(/playNote; {1, 2, 3, 4}; [1, 12])(/playString; [1, 6]). No exemplo anterior o instrumento possui duas ações: playNote e playString. A ação playNote possui dois parâmetros string_i e fret_i, pode-se observar pelo caractere i que ambos são do tipo inteiro, seus conjuntos são {1,2,3,4} e [1,12], respectivamente. Já a ação playString possui apenas um parâmetro string_i do tipo inteiro, que possui o intervalo [1,6]. Quando um parâmetro não possui intervalo, o valor deve ficar vazio, como no exemplo abaixo, onde duration_i não tem intervalo, </playNote; string_i; duration_i; velocity_i>(/playNote;{1, 2, 3, 4}; ;[1, 12]). Para facilitar a leitura dos possíveis valores dos parâmetros pelo SSMM e, com isso, facilitar o treinamento da rede, mais um tipo de parâmetro é definido para a plataforma RoboMus: o tipo nota com identificador n. Esse novo tipo segue o padrão universal para notas utilizando caracteres (C = Dó, D = Ré, E = Mi, ...). O padrão segue símbolo da nota + acidente + oitava, por exemplo A#4. Segue um exemplo de uma ação específica utilizando esse modelo: </playNote; note_n; duration_i>(/playNote; {C4, C#4, D4, E4}; ]0, 1000]). 5. Conclusão 99 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Esse artigo apresentou os principais conceitos de IoMusT (Internet of Musical Things) inseridos no contexto da música ubíqua (ubimus), bem como uma aplicação prática através da plataforma RoboMus com o objetivo de promover performances musicais robóticas em tempo real, controladas por seres humanos, sem descartar o uso de módulos semiautônomos ou autônomos para auxiliar o usuário. Assim, descreve-se a construção de protótipos de robôs musicais; a interface de controle dos robôs; uma proposta para sincronização entre robôs usando o protocolo PTP (Precision Time Protocol) para sincronização de relógios, redes neurais para treinamento e compensação dos perfis de atraso ocasionados pelos atuadores mecânicos dos robôs. As modificações nos formatos das mensagens para propiciar o uso de redes neurais para aprendizado dos atrasos mecânicos traz maior robustez para a plataforma. Acredita-se que os desgastes físicos dos componentes mecânicos possam interferir no atraso ao longo do tempo, nesse caso, a rede pode ser novamente treinada para aprender os novos atrasos. Além disso, no momento da performance podem ocorrer erros devidos ao aquecimento de componentes mecânicos. Isso pode ser previsto pela rede. Como trabalhos futuros visa-se o uso de inteligência artificial em módulos semiautônomos, implementados nas interfaces de controle para auxiliar os usuário, principalmente os não músicos, a tomar decisões, por exemplo apresentando possibilidades de próximos eventos compatíveis; módulos autônomos também são considerados para possibilitar uma espécie de piloto automático, visando auxiliar o usuário em casos de ausência de curta duração no meio da performance, nesse caso o robô continuaria atuando na performance de acordo com o contexto. Em relação a sincronização entende-se a necessidade de levantar dados técnicos experimentais, através da medição dos atrasos por intermédio de sensores sonoros e também uma avaliação por grupos de usuários, para assim comprovar tanto a sincronia quanto a eficácia da proposta. Agradecimentos O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior – Brasil (CAPES) – Código de Financiamento 001. Referências Atzori, L., Iera, A., & Morabito, G. (2010). The Internet of Things: A survey. Computer Networks, 54(15), 2787–2805. https://doi.org/https://doi.org/10.1016/j.comnet.2010.05.010 Boley, H., & Chang, E. (2007). Digital ecosystems: Principles and semantics. Digital EcoSystems and Technologies Conference, 398–403. Bretan, M., & Weinberg, G. (2014). Chronicles of a Robotic Musical Companion. Proceedings of the International Conference on New Interfaces for Musical Expression, 315–318. Retrieved from http://www.nime.org/proceedings/2014/nime2014_303.pdf Bretan, M., & Weinberg, G. I. L. (2016). A Survey of Robotic Musicianship. Communications of the ACM, 59(5), 100–109. https://doi.org/10.1145/2818994 Camporez, H. A. F., Mota, T. S. R., Astorga, E. M. V., Rocha, H. R. O., & Costalonga, L. L. (2018). RoboMus: Uma Plataforma para Performances Musicais Robóticas. In D. Keller & M. H. De Lima (Eds.), Aplicações em Música Ubíqua (1st ed., pp. 58–93). São Paulo, Brasil: ANPPOM. 100 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Camporez, H. A. F., Neto, A. F., Costalonga, L. L., & Rocha, H. R. de O. (2018). Interface Computacional para Controle Musical Utilizando os Movimentos dos Olhos. Revista Vórtex, 6(2), 1–17. Retrieved from http://vortex.unespar.edu.br/camporez_et_al_v6_n2.pdf Cooklev, T., Eidson, J. C., & Pakdaman, A. (2007). An Implementation of IEEE 1588 Over IEEE 802.11b for Synchronization of Wireless Local Area Network Nodes. IEEE Transactions on Instrumentation and Measurement, 56(5), 1632–1639. https://doi.org/10.1109/TIM.2007.903640 Delicato, F. C., Pires, P. F., Batista, T., Cavalcante, E., Costa, B., & Barros, T. (2013). Towards an IoT Ecosystem. Proceedings of the First International Workshop on Software Engineering for Systems-of-Systems, 25–28. https://doi.org/10.1145/2489850.2489855 Hoffman, G., & Weinberg, G. (2010). Shimon: An Interactive Improvisational Robotic Marimba Player. CHI ’10 Extended Abstracts on Human Factors in Computing Systems, 3097–3102. https://doi.org/10.1145/1753846.1753925 IEEE. (2008). IEEE Standard for a Precision Clock Synchronization Protocol for Networked Measurement and Control Systems. IEEE Std 1588-2008 (Revision of IEEE Std 1588-2002), 1– 300. https://doi.org/10.1109/IEEESTD.2008.4579760 Kannisto, J., Vanhatupa, T., Hännikäinen, M., & Hämäläinen, T. D. (2004). Precision Time Protocol Prototype on Wireless LAN. In J. N. de Souza, P. Dini, & P. Lorenz (Eds.), Telecommunications and Networking - ICT 2004 (pp. 1236–1245). Berlin, Heidelberg: Springer Berlin Heidelberg. Kapur, A. (2005). A History of robotic Musical Instruments. ICMC. Keller, D., Flores, L. V., Pimenta, M. S., Capasso, A., & Tinajero, P. (2011). Convergent Trends Toward Ubiquitous Music. Journal of New Music Research, 40(3), 265–276. https://doi.org/10.1080/09298215.2011.594514 Keller, D., & Lazzarini, V. (2017). Ecologically Grounded Creative Practices in Ubiquitous Music. Organised Sound, 22(1), 61–72. https://doi.org/10.1017/S1355771816000340 Keller, D., Lazzarini, V., & Pimenta, M. S. (Eds.). (2014). Ubiquitous Music. Springer Publishing Company, Incorporated. NESCoM. (2018a). RoboMus - Lapsteel guitar. Retrieved February 20, 2020, from goo.gl/KHrw4k NESCoM. (2018b). RoboMus - Teste BongoBot. Retrieved February 20, 2020, from goo.gl/V6nvSn Petersen, K., Solis, J., & Takanishi, A. (2008). Toward enabling a natural interaction between human musicians and musical performance robots: Implementation of a real-time gestural interface. RO-MAN 2008 - The 17th IEEE International Symposium on Robot and Human Interactive Communication, 340–345. https://doi.org/10.1109/ROMAN.2008.4600689 Pisoni, D. B. (1977). Identification and discrimination of the relative onset time of two component tones: implications for voicing perception in stops. The Journal of the Acoustical Society of America, 61(May 2013), 1352–1361. https://doi.org/10.1121/1.381409 Singer, E., Feddersen, J., Redmon, C., & Bowen, B. (2004). LEMUR’s Musical Robots. Proceedings of the International Conference on New Interfaces for Musical Expression, 181–184. https://doi.org/10.1145/1027527.1027569 Turchet, L., Fischione, C., Essl, G., Keller, D., & Barthet, M. (2018). Internet of Musical Things: Vision and Challenges. IEEE Access, 6, 61994–62017. https://doi.org/10.1109/ACCESS.2018.2872625 i ii Técnicas de sincronização aplicada aos robôs por um agente externo (SSMM), fornecendo uma sincronia básica. Técnicas de sincronização aplicada pelos próprios robôs para ajuste fino da sincronia com os demais. 101 International Journal of Digital Media and Interaction Special Issue on Ubiquitous Music, Vol.3, No.5, (2020) Live Patching e Interação Remota: Uma Abordagem Prática Intercontinental com Kiwi (Live Patching and Network Interaction: An Intercontental Practical Approach with Kiwi) Marcello Messina1, João Svidzinski2, Deivid de Menezes Bezerra3 and David Ferreira da Costa4 1 Universidade Federal da Paraíba e Núcleo Amazônico de Pesquisa Musical (NAP) 2 Université Paris 8, 3Universidade Federal do Acre, 4Universidade Federal do Acre 1 [email protected], [email protected], [email protected], 4 [email protected] Abstract This paper introduces, documents and reflects on an intercontinental live patching experience based on simultaneous remote interaction using the software Kiwi, and that can be subsumed under several features of Ubiquitous Music. The experience involved academic groups from the two Brazilian Federal Universities of Acre and Paraíba, and a working group based at the University Paris 8 in France. The intercontinental simultaneous interaction may trigger reflections on the implications of the presence/absence of the human being, on the implicit patterns of territorialisation reproduced in the context of intercontinental live patching, and on the operative action of mnemonic processes within this practice. In the context of this research, these reflections emerged as part of the development of effective strategies of creative utilisation of the software. Resumo Este artigo apresenta, documenta e reflete uma experiência intercontinental de live patching baseada na interação remota simultânea usando o software Kiwi. Este estudo pode ser analisado a partir de várias características da música ubíqua. A pesquisa envolveu grupos de pesquisa de duas universidades federais brasileiras, Acre e Paraíba, e um grupo de trabalho baseado na Universidade Paris 8 na França. A interação intercontinental simultânea desencadeou reflexões sobre as implicações da presença/ausência do ser humano, sobre os padrões implícitos de territorialização reproduzidos no contexto do live patching intercontinental e sobre a ação operativa dos processos mnemônicos dentro da prática musical digital. No contexto desta pesquisa, essas reflexões emergiram como parte do desenvolvimento de estratégias efetivas de utilização criativa do software. 1. Introdução Este artigo apresenta, documenta e reflete uma experiência intercontinental de live patching e interação remota simultânea usando o software Kiwi. A experiência envolveu dois grupos acadêmicos baseados em três universidades diferentes entre Brasil e França: o grupo de pesquisa Live/Acc/Patch, das duas Universidades Federais Brasileiras do Acre e Paraíba, e o grupo de pesquisa baseado na Universidade Paris 8 na França, representado pela disciplina de graduação Introduction à la programmation avec Kiwi, Max et Pure Data 1. Este estudo pode ser analisado a partir de características da música ubíqua. Em primeiro lugar, assim ISSN: 2184-3120 CC 2020 DIGIMEDIA International Journal of Digital Media and Interaction Vol.3, No.5, (2020) como afirmam Luzilei Aliel e José Fornari, essa prática é um tipo particular de "música eletroacústica na qual equipamentos eletrônicos são ubiquamente interconectados para juntos criarem música” (Aliel & Fornari, 2014). Em segundo lugar, como Keller et al. afirmam, a "multiplicidade de dispositivos interconectados" substitui a operatividade de "instrumentos musicais identificáveis", assim como a complexa "parafernália social (partituras, concertos, rituais pré-estabelecidos, um público definido e separado dos músicos, etc.), que caracterizam as práticas musicais habituais” (Keller et al., 2010). Finalmente, o conjunto particular de circunstâncias materiais envolvidas nesta prática implica o encontro e a confrontação entre a presença/ausência humana, assim como a caracterização da territorialização nas ações criativas. Isto evoca a formulação de Keller e Lazzarini sobre uma "prática criativa ecologicamente fundamentada" (Keller & Lazzarini, 2017). O termo “ecologicamente” aqui não implica necessariamente o ativismo direto, mas é mais referido ao intento de reproduzir e dar conta de discursos e aspetos de espacialidade e temporalidade nos processos criativos [1]. O software Kiwi nasceu em um contexto social, científico e musical em pleno desenvolvimento. A colaboração e a interação no meio digital são entendidas como conceitos chave no contexto social atual. A computação em nuvem [cloud computing] permite explorar o potencial do processamento digital e armazenamento de informação através de redes de comunicação - principalmente a internet. Foi neste contexto que aplicações como o Google Docs transformaram radicalmente a prática colaborativa, sincrônica e interativa dos editores de texto e de planilhas. Este princípio elimina a necessidade de agrupar geograficamente os autores, permitindo que vários indivíduos e instituições trabalhem juntos, simultânea e interativamente, no mesmo espaço de trabalho, mas em contextos práticos específicos. O projeto ANR MUSICOLLL [2] (2016-2018), coordenado pelo laboratório francês Musidanse/CICM [3] em parceria com a empresa privada Ohm Force [4], desenvolveu uma pesquisa centrada na música colaborativa e portátil em tempo real. Os seguintes objetivos foram propostos: (1) o desenvolvimento de uma nova ferramenta para essa prática: o software Kiwi [5]; (2) um estudo detalhado de sua manipulação (principalmente para estudantes universitários e de curso de música); (3) uma investigação sobre a inovação causada por esse software no contexto do ensino "tradicional" do software "clássico" de patching, como Pure Data e Max; e finalmente (4) a disseminação dessas práticas na comunidade científica e musical. Após a finalização do projeto em 2018, todos esses objetivos foram alcançados com sucesso. O software open source e gratuito está disponível para download. E sua aplicação pedagógica foi atestada em diversos ambientes acadêmicos, como o Conservatorio di Musica Arrigo Boito di Parma, e no curso online La musique au-delà du numérique organizado por INA-GRM e Université Paris Lumières (Sèdes et al., 2017). No entanto, o potencial criativo do Kiwi foi pouco impulsionado. A prática do live patching foi o ponto de partida para uma nova aplicação deste software. Com o princípio composicional de começar um patch "do zero", em uma sessão colaborativa e simultânea internacional, espera-se que emerja uma série de propriedades originais potenciais desta nova ferramenta. Este projeto foi iniciado com a associação de dois grupos de pesquisa, que colaboram com as mesmas 103 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) ferramentas de criação musical digital: o projeto de pesquisa Live/Acc/Patch, baseado em duas universidades federais brasileiras (Acre e Paraíba), e o grupo de trabalho associado à disciplina de graduação Introduction à la programmation avec Kiwi, Max et Pure Data 1. Esta colaboração une dois países diferentes, França e Brasil, com suas próprias concepções de criação musical, assim como seus próprios know-how intrínsecos. O uso do software Kiwi como uma ferramenta compartilhada constituiu o espaço interseccional dessa colaboração. Isto resultou em uma prática que visa articular a criação musical específica para cada ambiente criativo. 2. Live/Acc/Patch Live/Acc/Patch é um projeto de pesquisa iniciado em 2018 por meio do fomento do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e da Universidade Federal do Acre (UFAC), como parte do Programa Institucional de Bolsas de Iniciação Científica (PIBIC). Os membros do projeto são pesquisadores e alunos entre os 25 e os 35 anos, com experiência nas práticas criativas e na educação musical. O projeto visa explorar conexões possíveis e viáveis entre a aplicação colaborativa do live patching e o aprendizado de programas modulares gráficos para manipulação de áudio, como o Pure Data (Puckette, 1996). Uma primeira parte do projeto envolveu a prática de patches colaborativos em tempo real com usuários já iniciados com Pure Data. Uma segunda parte, em andamento, consiste em acompanhar usuários não iniciados na aplicação de patches, com o objetivo de transferir noções básicas do live patching. 2.1. Live coding e live patching O termo "live patching" deriva do conceito de live coding, definido por Thor Magnusson como uma "forma de performance musical que envolve a composição musical em tempo real por meio de código textual" (Magnusson, 2011). O live coding surgiu como uma prática criativa, assim como uma linha de pesquisa em música nos últimos 15-20 anos. Collins et al. situam o live coding como uma nova área de performance baseada no risco, na imprevisibilidade e, portanto, com grande potencial de geração de eventos inesperados (2010). Magnusson ilustra a transição da partitura para o algoritmo, introduzido pelo live coding, como uma nova forma de criação de significado musical (2011). Apresentando a ferramenta de live coding Gibber, Roberts e Kuchera-Morin exploram as relações entre o live coding e o navegador de internet (browser), entendido como uma “plataforma musical em tempo real” (2012). Enquanto o live coding é um termo geral que evoca implicitamente interfaces textuais, TUIs [textual user interfaces], o live patching refere-se à mesma prática aplicada a interfaces gráficas GUIs [graphical user interfaces] (Harazim, 2017). Estas facilitam o aprendizado, pois as GUIs são geralmente mais intuitivas do que as TUIs. Assim, as GUIs são mais indicadas para a colaboração e para os propósitos educacionais do projeto Live/Acc/Patch. Os projetos blind date e rec.wie.m da associação Pd~Graz 104 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) (Ritsch, 2014) [6] são experiências coletivas de live patching anteriores a este projeto que privilegiam também as GUIs. Mesmo com a vantagem das interfaces gráficas, o projeto Live/Acc/Patch demanda a formulação de estratégias que visam facilitar a compreensão das sintaxes modulares e assim acelerar o aprendizado por parte de usuários sem experiência neste tipo de linguagem. 3. De Pure Data a Kiwi Logo após seu início na Universidade Federal do Acre, o projeto Live/Acc/Patch foi parcialmente transferido para a Universidade Federal da Paraíba, em João Pessoa. Em seguida, foi instituída uma colaboração, fundamentada na aplicação do software Kiwi, com a Universidade Paris 8. Até então, Pure Data tinha sido o único programa de patches praticado no projeto. Vários desafios foram observados, envolvendo principalmente a impossibilidade (ou a dificuldade) de trabalhar simultaneamente em um mesmo patch. Inicialmente, os participantes trabalhavam colaborativamente em sessões de live patching. Esta prática era fundamentada no revezamento consecutivo, em sessões alternadas de trabalho em um mesmo arquivo Pure Data. Mais tarde, quando a Paraíba foi incluída no projeto, os participantes trabalhavam remotamente, cada um salvando patches em redes compartilhadas e intervindo em estruturas já iniciadas por outros autores do mesmo projeto. A colaboração com Paris 8 introduziu a possibilidade de integrar o software Kiwi. Esta ferramenta solucionou as dificuldades ligadas às distâncias que condicionaram a interação colaborativa na pesquisa. Ao mesmo tempo, permitiu editar os mesmos patches simultaneamente, usando computadores diferentes, ou compartilhando o mesmo espaço físico, como será mencionado na seção 5. Os membros do projeto logo decidiram que Kiwi não iria suplantar Pure Data, e que, pelo contrário, as duas ferramentas poderiam coexistir no projeto. 3.1. Características do Kiwi Na página oficial do projeto Kiwi, esta ferramenta é definida como "um ambiente gráfico de programação dedicado à música e criação de som, no mesmo modelo de software como Max ou Pure Data, mas oferecendo uma abordagem colaborativa em tempo real: Kiwi permite que vários usuários distantes trabalhem simultaneamente no mesmo patch hospedado online" [7]. Kiwi é, por sua vez, o principal resultado do projeto de pesquisa ANR MUSICOLL, financiado pela Agência Nacional de Pesquisa Francesa (ANR) de 2016 a 2018. Este mesmo projeto estudou a implementação de modelos de interação remota em tempo real. O modelo de colaboração de Kiwi é fundamentado no compartilhamento de um mesmo espaço de trabalho, ou seja, em um patch online. No entanto, os parâmetros de controle e os sinais de áudio são apenas locais. Dessa forma, com um mesmo patch, cada participante pode controlar individualmente os parâmetros, produzindo resultados sonoros distintos. "Por outro lado, [...] se os usuários desejarem compartilhar dados do seu patch, por exemplo sincronizar objetos GUI, é possível fazê-lo com o objeto 105 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) [hub], específico desta linguagem. Este transmite mensagens para todos os usuários conectados ao mesmo patch" [7]. 3.2. Notas sobre a GUI do Kiwi As funcionalidades e a interface de Kiwi são similares às de Pure Data. Os objetos tendem a ter os mesmos nomes, e a interagir de forma muito parecida. Além disso, os atalhos de teclado usados para criar objetos, números e outros itens são os mesmos que em Max (“N” para um novo objeto, “M” para uma mensagem, “I” ou “F” para um número, etc.). As semelhanças entre o Kiwi e o Pure Data ajudaram os membros do Live/Acc/Patch a transitar sem dificuldade de uma aplicação para a outra e vice-versa. O patch abaixo exibe a afinidade entre os dois aplicativos (fig 1). Fig 1. Um exemplo de patch de ring modulation. À esquerda com Kiwi, à direita com Pure Data. Uma característica importante de Kiwi é a presença de um diretório comum onde patches colaborativos podem ser criados e colocados a disposição dos outros usuários. Todos os usuários conectados ao servidor têm acesso a uma lista de patches: eles podem baixar, excluir, carregar renomear, e duplicar patches desse diretório. Destaca-se que em cada patch vários usuários podem estar conectados ao mesmo tempo. Desta maneira, cada usuário é livre para realizar modificações em tempo real em um mesmo patch. As instâncias de colaboração intercontinental discutidas neste artigo aconteceram, cada uma delas, dentro de limites de patches específicos. 4. A classe “Introduction à la programmation avec Kiwi, Max et Pure Data 1” na Universidade Paris 8 O segundo grupo de trabalho, participante desta colaboração internacional, é uma turma da disciplina Introduction à la programmation avec Kiwi, Max et Pure Data 1 do departamento de música, especialização CAO - composition assistée par ordinateur - da Universidade de Paris 8, nível Licence 2 (equivalente ao 106 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) segundo ano de graduação). Os participantes, na maioria com idade entre 20 e 25 anos, são alunos compositores de diversos estilos musicais. Nesta disciplina são ensinadas noções básicas da sintaxe modular gráfica para síntese e tratamento de áudio, ou seja, os princípios básicos do funcionamento de Max, Pure Data e Kiwi. Neste curso são abordadas também noções de processamento digital de sinais e composição musical eletroacústica. Entre 2017 e 2018, a disciplina Introduction à la programmation avec Kiwi, Max et Pure Data 1 do curso de música da Universidade de Paris 8 foi o laboratório para o desenvolvimento do software Kiwi. Assim, esta ferramenta foi testada em um contexto predominantemente pedagógico. Certamente, este era o principal alvo de pesquisa do projeto MUSICOLLL, mas ainda é necessário tirar partido das suas virtudes criativas, principalmente a colaboração e o live patching colaborativo.. Em 2019, a metodologia pedagógica desta disciplina foi modificada em relação aos anos anteriores. Entre 2017 e 2018, somente o software Kiwi foi utilizado. Mesmo se este princípio foi bem aceito e validado pela comunidade acadêmica, a mudança foi principalmente motivada para que o ensino contemplasse múltiplas ferramentas que compartilham o mesmo funcionamento. Desta maneira, os pontos positivos de cada software foram explorados nos momentos adequados. Por exemplo, a compreensão dos princípios básicos de processamento de sinal é melhor assimilada com o uso de tabelas que permitem a visualização dos valores. Essa funcionalidade é melhor desenvolvida em Pure Data em comparação com Kiwi. Após terem cursado esta disciplina, os alunos ficam livres para escolher a ferramenta adequada à sua prática, bem como ao seu próprio contexto de trabalho. Assim, o ensino do software Kiwi não substitui os ambientes “clássicos” como Max e Pure Data. 4.1. Aprendizado com Kiwi na Universidade Paris 8 A turma de 2019, que participou da colaboração internacional tratada neste artigo, era formada por aproximadamente dez alunos. A maioria não tinha sido iniciada na composição musical com meios informáticos. Nas onze primeiras aulas, foram abordadas noções de processamento digital e alguns pontos introdutórios para a composição eletroacústica, como a modulação de frequência, a modulação de amplitude, uso de delay, flanging (ou pseudo flanging) e sampling. O software Kiwi foi introduzido somente na sétima aula, quando os alunos já estavan familiarizados com os princípios básicos do patching. O objetivo específico da colaboração internacional com Kiwi para essa turma foi proporcionar uma atividade criativa complementar às aulas para auxiliar o aprendizado do conteúdo já abordado em aula (com os programas Pure Data, Max e Kiwi). Os dois patches criados colaborativamente unicamente por essa turma (antes da colaboração com o grupo Live/Acc/Patch) coincidiram com o momento em que a modulação de frequência foi introduzida. O patch KiwiMaxPd20192 (fig 2) contém quatro instâncias de um modelo básico de síntese FM de John Chowning (1973). A classe foi dividida em quatro grupos, cada grupo se ocupava de um alto-falante. O 107 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) objeto [hub], que permite a colaboração de valores de contrôle, era utilizado para que todos os participantes pudessem enviar bangs ativando todas as instâncias do patch. Fig 2. Captura de tela exemplificativa do patch KiwiMaxPd20192, baseado na modulação de frequência, realizado pela turma Introduction à la programmation avec Kiwi, Max et Pure Data 1. Para acessar o patch completo é necessário baixar a ferramenta Kiwi ao endereço https://kiwi.univ-paris8.fr/. Após a instalação e a registração/login, o usuário terá acesso remoto à lista de patches compartilhados. 5. Live patching simultâneo intercontinental No final de 2018, depois de uma série de práticas locais destinadas a se familiarizar com Kiwi, os membros do projeto Live/Acc/Patch iniciaram sessões de live patching entre os dois estados brasileiros, Acre e Paraíba. Em abril de 2019, foram realizadas três tentativas de aplicação de live patching intercontinentais entre a França e o Brasil (fig 3). Fig 3. Um diagrama completo dos patches Kiwi desenvolvidos como parte desta pesquisa. 5.1. As primeiras sessões interestaduais no Brasil Uma primeira rodada de sessões interestaduais ocorreu entre o Acre e a Paraíba nos últimos meses de 2018. As sessões estão disponíveis no servidor Kiwi como LIVE-ACC-PATCH UFAC/UFPB seguidas 108 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) por números consecutivos [8]. No total foram criados quatro patches entre 17 de outubro e 28 de novembro. 5.2. Sessões intercontinentais As sessões intercontinentais relevantes incluem uma sessão de teste em 11 de abril (disponível como LiveKiwi 11-04-2019), três ensaios em grupos menores em 17 de abril (disponível como kiwitest 17.04.19; kiwitest_2 17.04.19; kiwitest 17.04.19 (versão 2)), e um evento final colaborativo em 18 de abril (fig 4), que foi dividido em sessões consecutivas (disponíveis como LiveKiwi 18-04-2019 e LiveKiwi_v2 18-04-2019). É importante ressaltar que, devido a algumas falhas repetidas no servidor durante a sessão de teste em 11 de abril, os participantes baseados no Brasil decidiram começar um patch separado naquele dia (disponível como ACRE-PARAÍBA TEST) que de fato funcionou sem problemas [8]. Graças à ajuda dos desenvolvedores do Kiwi, o problema no servidor não se repetiu nas sessões seguintes. Fig 4. Captura de tela exemplificativa do patch LiveKiwi 18-04-2019. Destacam-se em caixas vermelhas vários exemplos de comunicação verbal entre os participantes no mesmo espaço de trabalho. Para acessar o patch completo é necessário baixar a ferramenta Kiwi ao endereço https://kiwi.univ-paris8.fr/. Após a instalação e regustro (login), o usuário terá acesso remoto à lista de patches compartilhados. 6. Reflexões sobre Kiwi, live patching e interação remota simultânea As diferentes sessões mencionadas acima foram úteis para formular reflexões críticas e analíticas sobre o conjunto de operacionalidades, funcionalidades e conceitos que estão em questão quando se opta pelo uso de Kiwi. 6.1. Os limites práticos e conceituais da interação remota simultânea Desde a nossa perspectiva, a inovação mais atraente oferecida pelo Kiwi é, sem dúvida, a interação 109 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) coletiva no live patching, sendo potencialmente simultânea e remota (Paris et al., 2017) [9]. Embora tenhamos desfrutado abundantemente destas duas características ao longo das várias sessões, os problemas acima mencionados, que ocorreram no primeiro teste intercontinental em 11 de abril, desencadearam uma reflexão mais ampla sobre a conveniência da simultaneidade no contexto da interação remota. Ou seja, é sempre necessário interagir diretamente em tempo real? Ademais, é sempre seguro e razoável confiar na simultaneidade? Kiwi permite, de fato, que a simultaneidade seja deslocada temporalmente. Por exemplo, os patches que foram criados há vários meses ainda estão disponíveis para todos usuários, antigos e novos, que desejam acessá-los e modificá-los. Assim, Kiwi armazena patches coletivos e nunca os "conclui": eles permanecem abertos na rede para que a comunidade continue modificando-os. Nesse sentido, a princípio, eventos coletivos anteriores envolvendo (ou não) lugares diferentes, também podem ser integrados a atividades atuais. Esse é certamente um desenvolvimento futuro que merece ser levado em consideração nesta pesquisa. Outra questão conceitual importante é o distanciamento, que pode ser descrito como a simulação de uma presença in loco. Este fenômeno se manifesta através de reprodução visual de operações realizadas nas telas dos computadores. Ao considerar sistemas de detecção biométrica, Joseph Pugliese parafraseia Derrida na expressão "metafísica da presença", e identifica uma série de potenciais falhas envolvidas no exercício tecnológico de reconhecer e transmitir os sinais da presença humana (Pugliese, 2014). Na sequência deste trabalho, é útil perguntar quais são os limites da simulação da presença no contexto do live patching. Mais especificamente, quais perdas fundamentais relativas à aplicação de patches em tempo real estão implícitas quando os usuários interagem remotamente? E, de uma perspectiva oposta, essa possibilidade de interação torna o uso do Kiwi significativo e desejável apenas se for realizado de forma remota? [10] Durante as várias sessões remotas mencionadas acima, os membros do projeto ficaram dependentes de comentários textuais nos patches a fim de compensar a ausência de comunicação verbal com os participantes distantes. É importante esclarecer que a interação performática entre os participantes não era imediatamente dependente destes comentários, porém eles preenchiam uma função importantíssima. A performance não precisava imediatamente das caixinhas com texto, mas esses comentários proporcionavam um encanto e um atrativo maior à dialética da interação criativa. A mistura de inglês, português, francês e até italiano se acompanhava com uma mistura de tópicos comunicativos diferentes: perguntas sobre objetos específicos, cumprimentos, brincadeiras, etc. O texto escrito, em suma, preencheu uma lacuna metafísica na interação com outros seres humanos. Esta necessidade de contacto verbal imediato torna, sem dúvida, a interação local significativa e pertinente, juntamente com as mais remotas. De fato, novamente por ocasião da falha do servidor em 11 de abril, a sessão alternativa aberta por participantes do Brasil (disponível como ACRE-PARAÍBA TEST) consistiu principalmente em uma interação entre dois usuários que estavam trabalhando simultaneamente em duas máquinas diferentes, ocupando o mesmo espaço em Rio Branco, Acre, isto é, o Laboratório de 110 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Arte e Tecnologia Musical (LATMus). Neste caso, a interação permitiu que os dos dois participantes tivessem a possibilidade de estabelecer um maior nível de sintonia durante o trabalho colaborativo. Isto ocorreu devido à possibilidade de comunicação verbal e não-verbal imediata. Além de significativa, quando comparada à interação remota, este tipo de interação, próxima e simultânea, preenche uma lacuna importante no software de patching existente. Como mencionado acima, diferentemente de Kiwi, o patching colaborativo em Pure Data, no contexto do projeto Live/Acc/Patch, só poderia ser consecutivo, ou seja, uma interação em revezamento entre os usuários. 6.2. As implicações geopolíticas do live patching remoto Como sugerido acima, a interação simultânea pode ser problemática. A simultaneidade exige um elevado desempenho durante um período limitado. Assim, essa situação nem sempre é possível em qualquer lugar e em qualquer momento. A variação geográfica também pode proporcionar mudanças dramáticas na conexão com o servidor, no desempenho da máquina, etc. Diferenças de fuso horário também são relevantes, especialmente se considerada a diferença de 7 horas entre Rio Branco e Paris. João Pessoa, naquela época do ano, estava 2 horas à frente de Rio Branco e 5 horas atrás de Paris. Estas diferenças tiveram uma influência relevante na praticidade das sessões intercontinentais. O fuso horário de Paris (ECT) foi usado como referência para todos os outros. Embora um dos princípios que orientou o trabalho colaborativo fosse a horizontalidade, o projeto correu o risco de se alinhar em coordenadas cartesianas muito específicas de poder e de normatividade (Messina & Souza, 2018). O conflito geopolítico ou territorial é também uma metáfora poderosa que emerge quando se considera a atividade concorrente de um número relativamente alto de participantes em uma sessão de live patching em um único espaço. Neste contexto particular, o live patching se torna semelhante à luta por um número limitado de recursos, ou à luta para garantir algum controle territorial. De fato, os participantes têm a liberdade de apagar os objetos ou interromper as conexões criadas por outros, e isso tende a acontecer com muita frequência caso o número de usuários ativos simultaneamente seja alto. De qualquer modo, os múltiplos e abrangentes significados da palavra "patch" passam a englobar, fora dos seus usos computacionais, a ideia de uma porção limitada de território separada por fronteiras. Suvendrini Perera, por exemplo, considera como ponto de partida a descrição do Pacífico como "our patch" pronunciada pelo então Primeiro-Ministro australiano John Howard. Isto ocorreu com a finalidade de considerar e analisar a violenta promulgação de um amplo projeto de dominação sobre a região. Metáforas à parte, a conexão entre a interface visual e a possibilidade de interação simultânea de múltiplos usuários, que caracteriza o Kiwi, permite criar um paralelo entre o live patching como atividade musical e a política do desejo territorial que enquadra as ações humanas no espaço. Nesse sentido, o live patching colaborativo é muitas vezes a materialização de algum tipo de conflito. Ademais, essa propriedade é nítida nos resultados sonoros. Neste contexto, são relevantes as considerações de Jacques Attali em relação ao 111 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) som/ruído como "simulacro” de formas rituais de conflito (1985). Afinal, o conflito é algo que está intrinsecamente envolvido na prática coletiva da improvisação musical, e ao mesmo tempo, na esfera política, a capacidade de improvisar torna-se uma importante prioridade no contexto decisional e de resolução de conflitos. Se, por um lado, Hoom Hong Ng descreve a improvisação musical coletiva como “esforço sociocomunicativo” (2018), por outro lado, Kathleen M. Eisenhardt argumenta que o modelo social da improvisação, inspirado justamente nas práticas musicais, possa servir como modelo produtivo de tomada de decisões estratégicas (1997). 6.2. Live patching, memória e o trabalho em fragmentos Obviamente, a referência ao conflito é apenas simbólica e não se reflete no clima geral de amizade e camaradagem das sessões intercontinentais. Estas reflexões, no entanto, são úteis para desvendar as implicações sociais e culturais deste tipo de atividade. Nesse sentido, outro "conflito" importante que caracterizou a primeira sessão de testes em 11 de abril foi a divergência entre um número de usuários que começaram a partir de estruturas pré-programadas, e um número de usuários que tentaram construir estruturas gradualmente, objeto por objeto. Logo após a sessão de teste, foi decidido que a colagem de grandes estruturas pré-programadas deveria ser evitada. A atividade em tempo real deveria ser implementada gradualmente. Assim, os usuários interagiram gradualmente . Nesta prática, foram previstas também a anulação e a correção de ações de outros usuários. Desta maneira, o trabalho envolveu ativar a memória para lembrar de sintaxes, de funcionalidades e até mesmo de nomes de objetos. Nesse contexto, a múltipla dialética entre lembrar e esquecer, entre reter e apagar (Ricoeur, 2004) produz uma série de fragmentos mnemônicos que desempenham um papel crucial na dinâmica do live patching. Os participantes confiam em processos de lembranças esboçadas, em vez de consolidarem um corpus constante de conhecimentos específicos de cada linguagem. Deste modo, a estética do bem-construído e do instrumento digital completo é substituída por uma poética do incompleto, do experimental e do aberto. Neste contexto, os fragmentos que sobrevivem ao esquecimento são simultaneamente simulacros de atividades passadas e precursores de novas e imprevistas possibilidades. O Live patching é, neste sentido, uma poética do incessante inesperado. Em termos mais gerais, a complexidade dos patches intercontinentais resulta da combinação de pequenos elementos que interagem dinamicamente se tornando uma estrutura própria. Essa negociação suscitou questões importantes relacionadas à escuta, temporalidade e perenização. Ora, as escolhas composicionais foram guiadas majoritariamente pelo retorno audível local de cada participante, confirmando o conceito de “ação/percepção em loop feedback” proposto por Horacio Vaggione (2001). A temporalidade na criação contemporânea, tema muito discutido pela comunidade científica musical atualmente, ganha uma nova dimensão com o live patching. Ademais, a perenidade e efemeridade da computação musical em contexto ubíquo também merece uma reavaliação com a prática colaborativa síncrona. Essas confrontações, de ordem local e global, confirmam os valores didáticos, objetivos comuns do grupo francês e brasileiro. Essa colaboração atesta a vocação científica do fazer musical na essência 112 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) do ensino universitário. 7. Conclusão A pesquisa em curso, relatada neste artigo, abre perspectivas para o futuro da colaboração dos grupos Live/Acc/Patch, UFPB e Universidade Paris 8. Esta pesquisa se enquadra na linha da pesquisa-criação [practice-led research], pois os produtos criativos musicais, o desenvolvimento de software, e a reflexão do fazer musical se unem em uma prática musical científica. Os resultados musicais, as sessões colaborativas e os patches resultantes são dignos do status de criação musical. Ademais, as gravações realizadas por cada participante [11] das sessões testemunham o momento da performance e também constituem um potencial material para uma nova criação musical. Entretanto, o ponto chave para todo esse processo é a confrontação de ecossistemas locais e globais. Os patches LIVE-ACC-PATCH UFAC/UFPB e KiwiMaxPd2019 foram realizados respectivamente pelo grupo Live/Acc/Patch e pela Universidade Paris 8 de forma local. Cada ecossistema criou assim uma maneira própria de patching. No primeiro encontro internacional, essas maneiras próprias foram confrontadas resultando na emergência de uma prática colaborativa comum que culminou na última sessão. O carater colaborativo, não hierárquico, por vezes é considerado um defeito para desenvolvedores de software. É desejado que os autores de um documento possam “escolher” ou mesmo “autorizar” a colaboração de um outro autor. De fato, este é o princípio colaborativo de ferramentas como Google Docs. Entretanto, com Kiwi, todos os participantes têm os mesmos direitos. Além disto, as operações não deixam traços genéticos. Ou seja, é impossível saber quem criou ou deletou um objeto ou escreveu um comentário. Assim, potenciais barreiras hierárquicas (professor/aluno, grupo X/ grupo Y por exemplo) são evitadas. Kiwi e o know-how do live patching conduzidos pelo grupo Live/Acc/Patch selam assim um compromisso de criação musical colaborativa com desenvolvimento informático. Ora, as características da própria ferramenta influenciam na maneira de compor. Ao mesmo tempo, o know-how composicional pode aportar melhorias para o desenvolvimento deste software. Nesta perspectiva, esta pesquisa atesta um comportamento recorrente na história da computação musical: o desenvolvimento de novas ferramentas está vinculado a questões de ordem composicional e social ligadas especificamente à criação musical. Assim, os “problemas técnicos”, por exemplo, têm o mesmo status que os critérios criativos composicionais, pois eles também determinam as escolhas criativas realizadas pelos compositores. Para o futuro desta pesquisa, duas perspectivas merecem destaque. Para compensar as limitações técnicas do software Kiwi (que não oferece alternativas para o desenvolvimento de módulos dinâmicos, como uma API ou mesmo de subpatchs), é possível integrar a linguagem Faust [12] para o desenvolvimento de novos objetos e de novas bibliotecas Para isto, é necessária uma nova etapa pedagógica, pois Faust não é equivalente a nenhuma linguagem visual como Pure Data. Trata-se de uma linguagem textual TUI, cuja sintaxe não é intuitiva para iniciantes. Deve-se então investir muito tempo para 113 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) sua assimilação. Uma nova perspectiva pedagógico global e local fruto desta colaboração será, portanto, necessária. Do ponto de vista da performance musical e suas implicações morfológicas (Costa, 2016), o patch ao vivo pode ser combinado com práticas de performance experimental baseadas em improvisação, obras abertas e complexidade sonora. O grupo de música experimental Artesanato Furioso, baseado na Paraíba, por exemplo, será um campo de testes para o futuro deste projeto, e uma primeira colaboração remota com eles está prevista para a segunda metade de 2020. 8. Notas 1. cf. a entrevista de Tate Carson a Damián Keller nesse mesmo dossiê. 2. Musicoll homepage, http://musicoll.mshparisnord.org/, último acesso 01/05/2019. 3. CICM (Centre de recherche et création musicale) homepage, http://cicm.mshparisnord.org, último acesso 01/05/2019.. 4. Ohm Force homepage, https://www.ohmforce.com/HomePage.do, último acesso 01/05/2019. 5. Kiwi homepage, http://kiwi.mshparisnord.fr, último acesso 01/05/2019. 6. Pd~Graz homepage, https://pd-graz.mur.at/, último acesso 01/05/2019. 7. Musicoll/Kiwi GitHub page, http://musicoll.github.io/Kiwi/, último acesso 01/05/2019. 8. Para acessar os patches é necessário primeiramente baixar a ferramenta Kiwi em https://kiwi.univparis8.fr/. Após a instalação e a registração/login, o usuário terá acesso remoto à lista de patches compartilhados. 9. No entanto, um proxy da comunidade Pure Data, chamado peer data, foi desenvolvido por IOhannes m zmölnig, e permite que vários usuários compartilhem simultaneamente o mesmo patch. Esta versão foi utilizada com sucesso no projeto mencionado acima blind date do Pd~Graz. Outras abordagens existem para colaboração remota em Pure Data, como o projeto Destino Pirilampo, de Luzilei Aliel da Silva e José Eduardo Fornari Novo Junior (2014). Neste exemplo, os usuários remotos enviam sinais para um patch central unificado, mas sem controle direto no patch principal. 10. Sobre criatividade musical e metafísica da presença, cf. também Messina e Aliel (2019) e Messina et al. (2019), 11. As gravações estão disponíveis em: https://mega.nz/#F!b8ZniKAK!QqoFc8bjKu9UtkcibsX_-Q. 12. Faust é uma linguagem funcional dedica à síntese e processamento de áudio digital em tempo real. Ademais, ela oferece um conjunto de ferramentas para geração de código C++ e um compilador em tempo real que permite executar o código Faust dentro de aplicativos terceiros. A versão mais recente de Kiwi integra esta funcionalidade. Faust homepage, https://faust.grame.fr, último acesso 01/05/2019. 9. Referências Aliel da Silva, L., & Fornari Novo Junior, J. E. (2014). Projeto Destino Pirilampo: um Estudo sobre a Composição de Meta-Soundscapes em Música Ubíqua. Revista Música Hodie, 14(1), 105-121. Attali, J. (1985). Noise: The political economy of music Minneapolis: The University of Minnesota Press. Chowning, J. M. (1973). The synthesis of complex audio spectra by means of frequency modulation. 114 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Journal of the audio engineering society, 21(7), 526-534. Collins, N., McLean, A., Rohrhuber, J., & Ward, A. (2003). Live coding in laptop performance. Organised sound, 8(3), 321-330. Costa, V. F. d. (2016). Morfologia da Obra Aberta: esboço de uma teoria geral da forma musical. Curitiba: Editora Prismas. Eisenhardt K.M. (1997) Strategic Decision Making as Improvisation. In: Papadakis V., Barwise P. (eds) Strategic Decisions. Boston: Springer. Galleron, P., Maestri, E., Millot, J., Bonardi, A., & Paris, E. (2018). Enseigner le patching de manière collective avec le logiciel collaboratif Kiwi. In Actes des Journées d’informatique Musicale (JIM), pp. 106-114. Harazim, M. (2017) Music, Computers and Culture in Live Coding. BMus dissertation. University of Aberdeen. Keller, D., Barreiro, D. L., Queiroz, M., & Pimenta, M. S. (2010). Anchoring In Ubiquitous Musical Activities. In Proceedings of the International Computer Music Conference (ICMC). Ann Arbor: University of Michigan Library, 319-326. Keller, D., & Lazzarini, V. (2017). Ecologically grounded creative practices in ubiquitous music. Organised Sound, 22(1), 61-72. Magnusson, T. (2011). Algorithms as scores: Coding live music. Leonardo Music Journal, (21), 19-23. Messina, M., & Aliel, L. Ubiquitous Music, Gelassenheit and the Metaphysics of Presence: Hijacking the Live Score Piece Ntrallazzu 4. In 14th International Symposium on Computer Music Multidisciplinary Research (p. 685-695). Messina, M., & Souza, J. d. A. (2019). Rios, pontes, balsas e fronteiras: uma provocação desde a brasilidade liminar e precária do Vale do Rio Acre. Muiraquitã - Revista de letras e humanidades, 6(1), 80-93. Messina, M., Svidzinski, J., de Menezes Bezerra, D., & da Costa, D. F. (2019). Live Patching and Remote Interaction: A Practice-Based, Intercontinental Approach to Kiwi. In 14th International Symposium on Computer Music Multidisciplinary Research (p. 696-703). Ng, H. H. (2019). Collective Free Music Improvisation as a Sociocommunicative Endeavor: A Literature Review. Update: Applications of Research in Music Education, 37(2), 15–23. https://doi.org/10.1177/8755123318784109 Paris, E., Millot, J., Guillot, P., Bonardi, A., & Sèdes, A. (2017, May). Kiwi: vers un environnement de création musicale temps réel collaboratif premiers livrables du projet Musicoll. In Journées d’Informatique Musicale. Paris, E. (2018). Une approche du patching audio collaboratif. Doctoral dissertation. Université Paris 8. Perera, S. (2007). Our patch: Domains of whiteness, geographies of lack and Australia’s racial horizons in the war on terror. Our Patch: Enacting Australian Sovereignty Post-2001, 119-46. Puckette, M. (1996). Pure Data: another integrated computer music environment. Proceedings of the second intercollege computer music concerts, 37-41. Pugliese, J. (2014). The alleged liveness of “Live”: Legal visuality, biometric liveness testing and the metaphysics of presence. In Wagner, A., Sherwin. R. K. (eds.) Law, culture and visual studies (pp. 649-669). Springer, Dordrecht. Ricoeur, P. (2004). Memory, history, forgetting. Chicago: University of Chicago Press. Ritsch, W. (2014). ICE-towards distributed networked computer music ensemble. In Georgaki, A., 115 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Kouroupetroglou, G. (eds.) Proceedings ICMC|SMC|2014. Roberts, C., & Kuchera-Morin, J. (2012). Gibber: Live coding audio in the browser. In ICMC. Sèdes A., Bonardi A., Paris E., Millot J. et Guillot P., (2017) “Teaching, investigating, creating: MUSICOLL”, in Innovative Tools and Methods for Teaching Music and Signal Processing. <hal01581698> Vaggione, H. (2001). Some ontological remarks about music composition processes. Computer Music Journal, 25(1), 54-61. 116 International Journal of Digital Media and Interaction Special Issue on Ubiquitous Music, Vol.3, No.5, (2020) Embasamento da Ancoragem Semântica Criativa: Estudo Exploratório com Emulações Instrumentais (Grounding Creative Semantic Anchoring: An Exploratory Study with Instrumental Emulations) Damián Keller1, Marcello Messina2, Carlos Eduardo da Silva3 and Leonardo V. Feichas3 1 Núcleo Amazônico de Pesquisa Musical (UFAC / IFAC) 2 Núcleo Amazônico de Pesquisa Musical (UFPB) 3 Universidade Federal do Acre 1 [email protected] Abstract This paper outlines and documents a new metaphor for creativity support, creative semantic anchoring (ASC). Creative semantic anchoring involves the verbal grounding of sonic materials to achieve collective aesthetic decisions or to facilitate the transfer of musical knowledge. The strategy is especially useful for sonic classes linked to the daily experiences of the stakeholders – ranging from environmental events (e.g., biophonic or mechanical sounds) to instrumental renderings of everyday sounds. The present study proposes the evaluation of instrumental emulations of everyday sounds by means of semantic descriptions. Highlighting the subjective and technical aspects of the musical materials, we aimed to identify minimal requirements for the semantic content. Through a standardised procedure, fifty eight adult university students with intermediate musical knowledge evaluated seven musical excerpts. The results highlight two creative factors: the originality of the product and the subjects’ familiarity with the sonic material. The descriptors agradável [pleasant] - linked to strongly subjective aspects – and bemfeito [well done] - which refers to the technical aspects of the material – yielded the highest scores. We discuss the contributions and the limitations of the study, seeking to place the results within the context of the semantic-oriented design proposals for creative action in ubiquitous music research. Keywords: creative semantic anchoring, ubiquitous music, instrumental emulations, everyday sounds. Resumo Delineamos o conceito e documentamos o uso de uma nova metáfora de suporte para a criatividade, a ancoragem semântica criativa (ASC). A ancoragem semântica criativa envolve a contextualização verbal dos materiais sonoros para viabilizar decisões estéticas ou para facilitar a transmissão de conhecimento musical. Ela é útil para lidar com classes sonoras vinculadas à vivência cotidiana dos participantes na atividade criativa – abrangendo desde eventos sonoros ambientais (por exemplo, sons biofônicos ou sons mecânicos) até emulações instrumentais de sons cotidianos. O presente estudo foca a aferição de emulações instrumentais de sons cotidianos utilizando descritores semânticos. Selecionamos um grupo de descritores focando aspectos subjetivos e aspectos técnicos dos materiais sonoros, e aplicamos um procedimento padronizado para aferir sete amostras de emulações instrumentais. Desta feita, visamos identificar elementos mínimos para o conteúdo semântico, procurando obter um quadro quantitativo da relevância dos descritores a partir das respostas dos 58 adultos, estudantes universitários com conhecimento musical, que participaram nas aferições. Os resultados dão destaque para dois fatores criativos: a originalidade do produto e a familiaridade com o material sonoro por parte dos sujeitos. Os escores mais altos corresponderam aos descritores agradável, vinculado a aspectos fortemente subjetivos, e bem-feito, que corresponde aos aspectos técnicos do material sonoro. Discutimos as contribuições e limitações do estudo visando colocar os resultados no contexto das propostas semânticas de suporte para atividades criativas em música ubíqua. Palavras-chave: ancoragem semântica criativa, música ubíqua, emulações instrumentais, sons cotidianos. ISSN: 2184-3120 CC 2020 DIGIMEDIA International Journal of Digital Media and Interaction Vol.3, No.5, (2020) 1. Introdução O presente artigo aborda a utilização de estratégias semânticas de suporte para atividades criativas musicais.1 Ele retoma, reelabora, acrescenta material e desenvolve os argumentos apresentados em Silva et al (2017) e Feichas et al (2017). Por outra parte, a proposta insere-se em duas linhas de trabalho fundamentadas em diversas publicações anteriores do Núcleo Amazônico de Pesquisa Musical. Uma linha consiste no estudo interpretativo da obra do compositor Flausino Valle, como base para o desenvolvimento de técnicas de ensaio para músicos-instrumentistas (Feichas 2015; Feichas et al 2017; Keller e Feichas 2018). A outra linha abrange o estudo das manifestações da criatividade cotidiana e o desenvolvimento do suporte criativo para leigos em música dentro do contexto da pesquisa em música ubíqua (Capasso et al. 2000-2020; Keller et al. 2013; Keller e Lima 2016; Pereira et al. 2016; Pinheiro da Silva et al. 2013; Silva et al 2017). A primeira seção explora a aplicação de estratégias semânticas dentro do campo das práticas criativas musicais. Discutimos as limitações e as contribuições desse conjunto de métodos atentando para as demandas de cada fase do ciclo criativo. Essa seção também fornece o suporte teórico utilizado no desenvolvimento de metáforas para a ação criativa, com destaque para as perspectivas criativas embasadas na cognição ecológica. A segunda seção trata das relações entre os sons cotidianos e as práticas instrumentais, com destaque para as práticas em performance situada que visam a ampliação das possibilidades criativas. Na terceira seção descrevemos os procedimentos e os resultados obtidos em um estudo exploratório utilizando sons produzidos a partir de emulações instrumentais. O artigo conclui com a análise dos resultados, indicando as limitações e as potenciais aplicações para o avanço das perspectivas atuais em ubimus. 1.1. Estratégias semânticas de transferência de conhecimento musical A notação verbal – uma das vertentes semânticas com maior tradição dentro das práticas criativas – foi originalmente introduzida durante os anos sessenta pelos compositores associados ao grupo Fluxus – como George Maciunas, La Monte Young e George Brecht (Bergstroem-Nielsen 2012; Friedman et al. 2002). A motivação para a adoção da linguagem verbal como forma de comunicar ideias musicais visava por um lado a incorporação de abordagens flexíveis para o fazer musical - sendo a improvisação um dos alvos - e por outro a inclusão do público leigo como agente ativo do processo criativo. BergstroemNielsen (2012) propõe quatro modalidades da notação verbal dentro do contexto da música experimental dos anos sessenta: 1. O emprego de descrições do material sonoro, incluindo parâmetros musicais diversos e suas relações dinâmicas; 2. A utilização de regras processuais, exemplificadas por atividades lúdicas; 3. A representação visual do processo de organização sonora (para a qual, o autor utiliza a denominação de quadros ou cenas); e 4. A inclusão de disparadores para a realização de ações sonoras (ou pontos de partida). Uma análise atual dessas propostas indica que as categorias 2 e 4 inserem-se no âmbito das abordagens computacionais para a criatividade, também chamadas de abordagens algorítmicas (Boden 2003; McCormack e d'Inverno 2012). Os métodos verbais descrevem: (a) Sistemas 118 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) fechados – nesses sistemas a atividade criativa parte de um conjunto de regras pré-definidas que não são afetadas pelas condições locais; (b) Sistemas abertos – abrangem atividades influenciadas pelos recursos disponíveis no ambiente local, cujo comportamento não pode ser determinado com antecedência (ver também Keller 2001 para uma discussão mais completa dessas estratégias). A terceira categoria sugerida por Bergstroem-Nielsen – as representações visuais – não inclui só os procedimentos ou os processos criativos, também envolve os recursos necessários para atingir resultados criativos. Portanto, essa forma de notação verbal encaixa dentro da proposta de uso de rascunhos ou de esboços de design (sketches – Buxton 2007; Ferreira et al. 2016). Neste caso, a representação fornece uma descrição geral dos recursos e dos procedimentos sem especificar os parâmetros sonoros. Finalmente, a primeira categoria sugerida por Bergstroem-Nielsen constitui uma ampliação das indicações verbais pré-existentes nas práticas da notação tradicional. As características sonoras que não exigem uma quantificação precisa (tais como as descrições timbrísticas dos sons, por exemplo: sons brilhantes ou sons escuros) ou que lidam com mudanças entre pontos de inflexão (por exemplo: crescendos ou glissandos) ou que envolvem heurísticas subjetivas (como é o caso dos descritores de emoções: alegre, triste ou melancólico) podem ser representadas através de estratégias analógicas de notação, incluindo em alguns casos componentes gráficos e em outros casos, componentes verbais. As três abordagens mencionadas no parágrafo precedente – os rascunhos ou esboços criativos, as representações analógicas e os modelos algorítmicos – demandam diversos graus de especificação para sua inclusão nas atividades musicais criativas. Os esboços podem ser utilizados durante a fase de planejamento. Uma estratégia consiste em deixar o detalhamento paramétrico para as fases avançadas da atividade (avoid early commitments2 – Green e Blackwell 1998), evitando assim a restrição prematura de domínio3 (Keller et al. 2014). As descrições verbais informais e os esboços ou rascunhos são estratégias que não exigem a formalização rigorosa ou a especificação detalhada (requisitos típicos dos procedimentos algorítmicos e da notação simbólica). Resumindo, a notação verbal tem uma longa tradição de uso na prática musical experimental. Ao empregar o texto ou a fala como meio para codificar suas intenções, alguns compositores conseguiram atrair participantes leigos para o fazer artístico colaborativo. Como uma das modalidades de aplicação de estratégias semânticas dentro das práticas musicais ubíquas, a notação verbal tem potencial de uso em diversas fases do ciclo criativo. Porém, dependendo do contexto de utilização faz-se necessário o desenvolvimento de critérios de escolha do tipo de materiais e do tipo de suporte para o processo de tomada de decisões estéticas. Nas duas seções seguintes abordamos primeiro o suporte às decisões criativas e depois discutimos aspectos relacionados à escolha dos materiais sonoros. 1.2. Metáforas para a ação criativa Para viabilizar o suporte às decisões estéticas no contexto de atividades musicais ubíquas, Keller et 119 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) al. (2010) sugeriram a ancoragem como um processo cognitivo subjacente às metáforas para a ação criativa. Segundo Hutchins (2005), os processos mentais empregam representações materiais como formas de limitar o número de escolhas estéticas. Com o intuito de atingir a estabilidade nas operações conceituais, os modelos culturais utilizam uma combinação de processos intra e interpessoais. Esses modelos baseiam-se na interação social como estratégia de compartilhamento dentro do âmbito de comunidades de prática (Wenger 2010). O outro mecanismo empregado para estabilizar os sistemas conceptuais é a associação da tomada de decisões com estruturas materiais. Esse processo é chamado de embasamento conceitual ou ancoragem. As âncoras materiais são estabelecidas quando as propriedades materiais servem como pontos de referência espacial ou temporal. Durante a manipulação de conceitos no domínio cognitivo, os objetos materiais podem ser usados para estabelecer referências externas. Desta feita, as propriedades materiais fornecem balizadores para o processo de ancoragem. Hutchins define a âncora material como o elemento a partir do qual a estrutura material é projetada sobre uma operação conceitual. As âncoras materiais podem ser utilizadas na individuação – quando um elemento é diferenciado dos outros – e nos processos cognitivos mais complexos que abrangem múltiplos conceitos. A eficácia da manipulação conceitual é assegurada através do estabelecimento de restrições nas operações cognitivas. Com esse objetivo, a ancoragem incorpora as limitações da estrutura externa do ambiente. A estabilidade de alguns modelos conceituais é assegurada pela sua simplicidade. No entanto, ao lidar com relações complexas – por exemplo, durante as experiências estéticas – essa estabilidade é fragilizada. Uma estratégia que aumenta a persistência dos modelos conceituais é fornecida pelo compartilhamento cultural das construções mentais, através de convenções sociais preexistentes. Hutchins (2005) sugere que esse tipo de modelo conceitual tem base no contexto cultural. Essa proposta abre um leque de perspectivas sobre os processos de transferência de conhecimentos e suas especificidades quanto ao domínio de aplicação e quanto à sua relação com os aspectos semânticos. Por exemplo, qual é o impacto da modalidade perceptual utilizada (via suporte tátil, visual, sonoro, gustativo ou olfativo)? Experiências recentes indicam potenciais cruzamentos entre modalidades que podem auxiliar ou atrapalhar os processos de transferência de conhecimentos, especialmente quando o alvo da atividade abrange entidades complexas (como o timbre). Resumindo, os dois recursos disponíveis para facilitar as operações cognitivas são os modelos conceituais compartilhados socialmente e a associação entre as estruturas materiais e as estruturas conceituais. Acreditamos que para aumentar sua efetividade, esses mecanismos podem ser ampliados através da introdução de associações semânticas. As descrições verbais dos sons cotidianos servem como estudo de caso. As renderizações instrumentais dos modelos sonoros cotidianos estão limitadas pelas representações simbólicas das ações instrumentais e pela interpretação subjetiva do músicointérprete. Por si só esses recursos são incapazes de estabelecer uma base firme para as representações dos sons cotidianos. Quando as representações das experiências sonoras cotidianas são contextualizadas com explicações verbais, o potencial criativo dos recursos sonoros pode ser 120 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) expandido sem perder as referências aos recursos locais. Dado esse conjunto de pressupostos, Keller e Feichas (2018) propõem o rótulo de ancoragem semântica criativa como conceito de design que abrange tanto o suporte das práticas criativas quanto das estratégias de performance situada, empregando descrições verbais como mecanismos de vínculo entre o apoio material e o processo de tomada de decisões estéticas. Portanto, a ancoragem semântica criativa visa incorporar os mecanismos linguísticos compartilhados no tecido social e as pistas cognitivas disponíveis nos recursos materiais. Na seção anterior situamos a discussão da metáfora para a ação criativa ASC dentro do contexto das estratégias semânticas para apoio a criatividade musical. Nesta seção fornecemos o alicerce teórico de ASC dentro do campo das práticas cognitivos-ecológicas, como aplicação do conceito de ancoragem. A seguir, abordamos a questão da escolha dos materiais sonoros, dando destaque para a emulação instrumental dos sons cotidianos. Esse é o foco do estudo experimental apresentado na terceira parte deste trabalho. 2. Emulações instrumentais de sons cotidianos Exemplos de emulação instrumental de sons cotidianos são fornecidos por Feichas et al. (2012) e Feichas (2015). Flausino Valle (1894-1954) desenvolveu em suas obras um estilo de música descritiva, explorando a combinação de técnicas da literatura tradicional do violino para imitar sons de animais e de objetos. Sobre Valle, Feichas et al. (2012) relatam: Flausino Rodrigues Valle (1894-1954), natural de Barbacena, Minas Gerais, foi violinista de orquestra de cinema mudo (Cine ODEON) no início do século XX na capital mineira. Paralelo à atividade de violinista foi compositor arranjador, escritor, poeta, professor, advogado e folclorista do Conservatório mineiro de Música (...) Como professor catedrático e folclorista do Conservatório Mineiro de Música, Flausino Valle se destacou na escrita de dois livros: Elementos de Folclore Musical Brasileiro e Músicos Mineiros. Como compositor, escreveu para diversas formações como coro misto a quatro vozes, piano e flauta, piano e canto, piano e violino. Sua principal obra, no entanto, são os Prelúdios para violino solo, intitulado 26 Prelúdios Característicos e Concertantes para violino Só. A pesquisa sobre o conjunto de 26 Prelúdios Característicos e Concertantes para Violino Só mostrou que uma explicação sucinta sobre as intenções do compositor e uma descrição dos meios utilizados para reproduzir sons ambientais no violino – antes da performance – pode dar melhores ferramentas à audiência, para interagir com os múltiplos significados do material musical. Diante da necessidade de contextualização específica e de embasamento técnico, Feichas (2015) propôs a utilização de Fichas Interpretativas. As fichas são produto de uma necessidade prática, fornecendo informação rápida para o intérprete com o objectivo de conduzir e elucidar aspectos idiomáticos do trabalho, desde uma abordagem de performance contextualizada e situada. Os resultados indicam que a contextualização 121 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) verbal das referências sonoras nas anotações do Valle ajuda a afunilar as estratégias interpretativas voltadas para os significados fundamentados em referenciais concretos.4 Essa estratégia é consistente com as práticas composicionais desenvolvidas por Keller (2000), Burtner (2005), Nance (2007), Basanta (2010) e Connors (2015). Keller e Feichas (2018) sugerem que a descrição verbal dos sons cotidianos pode estabelecer uma ponte entre a performance e as experiências prévias do material sonoro por parte dos ouvintes. Se por um lado a transcrição instrumental de sons cotidianos impõe um distanciamento entre a fonte e a renderização instrumental (abstrata) do modelo sonoro, por outro lado, as descrições verbais ajudam a fechar a lacuna entre a experiência sonora direta e a experiência mediada pelo instrumento. As representações dos sons cotidianos podem impulsionar múltiplas interpretações. A função do artista consiste em explorar o espaço entre a autoexpressão e o potencial criativo e comunicacional do modelo sonoro (ver Barreiro e Keller (2010) para outras aplicações dos materiais sonoros cotidianos). A partir dessa perspectiva, não há interpretação “certa”.5 A notação fornecida por Valle pode ser utilizada livremente. Porém, numa visão orientada para a performance situada, torna-se necessário estabelecer um quadro de referência que fundamente as escolhas estéticas. O processo de ancoragem pode ajudar a esclarecer os mecanismos envolvidos nessa atividade (ver seção anterior). A partir dessa perspectiva, Keller e Feichas (2018) situam o uso das fichas interpretativas como estratégia de suporte ao conceito de ancoragem semântica criativa. Resumindo, tomando como base o trabalho desenvolvido por Keller e Feichas (2018) situamos a proposta ASC dentro do contexto das práticas cognitivo-ecológicas e apontamos para o uso de estratégias semânticas embasadas no conceito de ancoragem. Indicamos o potencial de aplicação em atividades de performance e criação utilizando sons instrumentais via emulação de eventos cotidianos. Ao estabelecer esse quadro teórico, apontamos para a necessidade do estudo empírico da relação entre os aspectos semânticos e os materiais sonoros emulados. Com esse intuito, apresentamos a seguir um estudo de caso que explora parte do potencial da proposta ASC, sem descuidar os indícios das limitações na sua aplicação. 3. Estudo exploratório: aferição de emulações instrumentais No presente estudo exploratório selecionamos um grupo de descritores, abrangendo aspectos subjetivos e aspectos técnicos dos materiais sonoros, e convidamos voluntários para aferir um grupo de amostras sonoras obtidas a partir de emulações instrumentais. Por um lado, testamos a aplicabilidade dos procedimentos propostos no problema de identificar elementos mínimos para as descrições semânticas dos eventos sonoros. Por outro lado, procuramos obter um quadro quantitativo da relevância dos descritores para o grupo de sujeitos focados neste estudo (abrangendo adultos, estudantes universitários com conhecimento musical). Apresentamos os dados utilizando três indicadores: a média ± o desvio padrão e a moda dos fatores avaliados. É importante destacar que os procedimentos visam uma abordagem centrada nos fatores criativos potencialmente relevantes para o grupo-alvo. 122 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) 3.1. Amostras sonoras Escolhemos sete transcrições de sons biofônicos de excertos extraídos dos 26 prelúdios para violino de Flausino Valle.6 As gravações foram realizadas com o gravador portátil ZOOM H1, utilizando o microfone estéreo incorporado ao dispositivo. Durante as sessões foram explorados os limites de variabilidade da interpretação. Após a coleta e edição de múltiplas versões dos fragmentos, selecionamos sete amostras para serem utilizadas nas sessões de aferição, aplicando critérios de consistência entre a notação e a interpretação e o julgamento estético dos experimentadores. A tabela 1 fornece a lista das amostras (com durações de 9 ± 4,6 segundos). Tabela 1. Descrição das amostras produzidas. Violinista: Leonardo Feichas. Formato: PCM, 44,1 kHz, 16 bits, estéreo. CÓDIGO ARQUIVO VLF001 VLF002 VLF003 VLF004 VLF005 VLF006 VLF007 TÍTULO Prelúdio 1 - Batuque - Viola Caipira 2 Prelúdio 5 - Tico-Tico Prelúdio 12 - Pai João - Fogos de Artifícios Prelúdio 18 - Pai João - Imitando o Tambor Prelúdio 18 - Pai João - Melodia com Batuque Prelúdio 16 - Requiescat in Pace - Badalar dos Sinos Prelúdio 14 - A Porteira da Fazenda TAMANHO DURAÇÃO 1,02 MB 970 KB 786 KB 2,44 MB 2,22 MB 512 KB 1,54 MB 00:00:07 00:00:10 00:00:05 00:00:16 00:00:12 00:00:05 00:00:08 3.2. Perfil dos sujeitos O experimento incluiu 58 participantes - abrangendo estudantes de nível superior e funcionários vinculados à Universidade Federal do Acre. A primeira e a terceira sessão foram realizadas com alunos da turma de Teoria e Percepção III. A segunda e a quarta sessão tiveram a participação de membros da turma de Estágio Supervisionado III. Na quinta sessão participaram discentes da turma de Investigação a Práticas Pedagógicas em Música II. Todos os participantes são adultos (Idade: 31,6 ± 10,6 anos). A maioria cursa ou já concluiu o ensino superior. Todos residem em Rio Branco, Acre. 74% são homens e 26% mulheres. O perfil do estudo musical - abrangendo aulas individuais ou treinamento em instituições de música - é variado. 1,7% dos participantes são considerados leigos, já que não concluíram 2 anos de estudos formais (Estudo musical: 5,2 ± 3,6 anos) (tabela 2). Tabela 2. Perfil dos sujeitos (média ± desvio padrão em anos). N 58 Mulheres 15 Homens 43 Idade 31,6 ± 10,6 Estudo Musical 5,2 ± 3,6 3.3. Local das sessões Foram utilizadas salas de aula para turmas entre 30 e 40 alunos, equipadas com projetor de vídeo e sistema de áudio estéreo para a reprodução do material sonoro. 3.4. Procedimentos Considerando os aspectos metodológicos apontados previamente, dando ênfase para a relação entre 123 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) os materiais e o perfil dos participantes na atividade criativa, desenvolvemos um protocolo de aferição que nos permite extrair dados vinculados aos dois aspectos destacados previamente: as características do potencial criativo dos materiais sonoros e seu vínculo com o perfil do grupo-alvo. Os procedimentos abrangem a qualificação do produto e a qualificação da descrição do produto pelos sujeitos. Neste relato incluímos somente as aferições dos fatores criativos correspondentes aos produtos sonoros7. Foram realizadas ao todo 406 aferições. Utilizamos os formulários ISE-NAP para a coleta de informações dos participantes da pesquisa e o formulário CrePP-NAP versão 0,5 (Keller et al. 2011) para a coleta das qualificações das amostras sonoras, incluindo as descrições dos produtos. A atividade é dividida em duas partes. Na primeira parte os sujeitos preenchem o formulário ISE-NAP. Após escutar o excerto escolhido, eles respondem ao formulário CrePP-NAP. Na segunda parte, os sujeitos realizam a qualificação do produto, via CrePP-NAP, com dez fatores de aferição (ou descritores) do perfil do produto. Cada um dos fatores é avaliado utilizando uma escala Likert de 5 valores (concordo totalmente = 2, concordo parcialmente = 1, neutro = 0, discordo parcialmente = -1 e discordo totalmente = -2). Os resultados obtidos são analisados por meio de estatística descritiva, incluindo a média, o desvio padrão e a moda das respostas dos sujeitos. 3.5.Resultados Foram obtidas aferições do produto VLF001 – excerto retirado do Prelúdio 1 – Batuque (Viola Caipira 2). A qualificação do produto VLF001 aponta a média mais alta e com o menor desvio padrão nas respostas referentes à originalidade do produto (0,9 ± 0,3). Familiaridade, relevância, interesse e simplicidade também tiveram resultados positivos. A média mais baixa – com variação alta – foi na expressividade do produto (0,3 ± 1,1). O produto VLF002 – excerto retirado do Prelúdio 5, Tico-Tico – teve a média mais alta com o menor desvio padrão no item referente à familiaridade com o produto (0,7 ± 0,6). A média mais baixa, com uma variação alta, corresponde à expressividade do produto (0,9 ± 1,3). No entanto, praticamente todos os resultados mostram alta variabilidade entre os sujeitos. A aferição do produto VLF003, excerto retirado do Prelúdio 12 – Pai João, Fogos de Artifícios – mostra uma média alta e com o menor desvio de padrão nas respostas referentes ao descritor agradável (1,9 ± 0,3). A originalidade e a familiaridade também foram avaliadas positivamente. A média mais baixa, com uma variação alta, correspondeu à expressividade (0,1 ± 1,2). O produto VLF004 – excerto retirado do Prelúdio 18 – Pai João, Imitando o Tambor, aponta a média mais alta na resposta referente ao descritor agradável (1,4 ± 1,1). Originalidade, relevância e familiaridade também tiveram escores positivos. Novamente, a média mais baixa com uma variação alta foi na expressividade (0,1 ± 1,2). O produto VLF005 – excerto retirado do Prelúdio 18 – Pai João, Melodia com Batuque – teve a média mais alta e com o menor desvio padrão na resposta dos sujeitos referente ao descritor agradável (1,6 ± 0,5). Os descritores interessante, original e bem-feito também tiveram escores positivos. Neste caso, a 124 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) média mais baixa, com uma variação alta foi no fator simplicidade do produto (0,5 ± 0,7). Foram obtidas aferições do produto VLF006 – excerto retirado do Prelúdio 16 – Requiescat in Pace, Badalar dos Sinos. Os resultados apontam médias altas nos descritores completo, agradável e inspirador (entre 1,3 e 1,4). No entanto, a variabilidade desses resultados também é muito alta indicando que não houve consistência entre as respostas dos sujeitos (desvio padrão entre 0,9 e 1,0). Os escores mais altos correspondem à familiaridade e à originalidade do produto. A média mais baixa corresponde ao descritor simplicidade (0,5 ± 0,7). Os resultados referentes ao produto VLF007 – excerto retirado do Prelúdio 14, A Porteira da Fazenda – mostram as médias mais altas e com menor desvio padrão nos itens originalidade (0,8 ± 0,5) e familiaridade do produto (0,7 ± 0,5). A média mais baixa, com uma variação alta, corresponde à expressividade (0,0 ± 1,4). Tabela 3: Média, desvio padrão e moda dos sete produtos sonoros avaliados (N = 58). Os resultados em destaque estão indicados em negrito. VLF001 Bem feito Original Expressivo Relaxante Agradável Interessante Inspirador Simples Completo Familiar Média DP Moda Máximo Mínimo VLF002 Media DP Moda Máximo Mínimo VLF003 Media DP Moda 0,7 0,5 1 1 -1 0,9 0,3 1 1 0 0,3 1,1 1 2 -2 0,8 1,0 1 2 -1 1,1 1,0 2 2 -1 0,7 0,5 1 1 -1 0,9 1,1 1 2 -2 0,7 0,5 1 1 -1 0,7 1,3 2 2 -2 0,8 0,5 1 1 -1 0,4 0,6 1 1 -1 0,6 0,7 1 1 -1 -0,9 1,3 -2 1 -2 0,3 1,3 0 2 -2 -0,2 1,3 0 2 -2 0,5 0,6 1 1 -1 -0,6 1,4 -2 2 -2 0,2 0,6 0 1 -1 0,0 1,5 1 2 -2 0,7 0,6 1 1 -1 0,5 0,5 0 0,9 0,3 1 0,1 1,2 1 1,3 0,8 2 1,9 0,3 2 0,4 0,8 1 0,9 1,3 2 0,1 0,9 1 1,5 0,9 2 0,8 0,6 1 Máximo Mínimo VLF004 Media DP. Moda Máximo Mínimo VLF005 Media DP Moda Máximo Mínimo VLF006 Media DP Moda Máximo Mínimo VLF007 Média DP Moda Máximo Mínimo 1 0 1 0 2 -2 2 0 2 -1 1 -1 2 -2 1 -1 2 -1 1 -1 0,7 0,5 1 1 0 0,9 0,5 1 1 -1 0,1 1,2 0 1 -2 1,2 0,9 2 2 -1 1,4 1,1 2 2 -2 0,5 0,7 1 1 -1 0,5 1,2 1 2 -2 0,1 0,7 0 1 -1 1,3 1,1 2 2 -2 0,8 0,6 1 1 -1 0,7 0,5 1 1 -1 0,9 0,4 1 1 -1 1,3 1,0 2 1 -2 1,1 0,9 2 2 -1 1,6 0,5 2 2 1 0,9 0,3 1 1 0 1,5 0,8 2 2 -1 0,5 0,7 1 1 -1 1,3 1,1 2 2 -2 0,6 0,6 1 1 -1 0,7 0,6 1 1 -1 0,9 0,3 1 1 0 0,9 1,2 2 1 -2 1,2 1,2 2 2 -2 1,3 1,0 2 2 -2 0,7 0,6 1 1 -1 1,3 1,0 2 2 -1 0,5 0,7 1 1 -1 1,4 0,9 2 2 -1 0,8 0,5 1 1 -1 0,6 0,7 1 1 -1 0,8 0,5 1 1 -1 0 1,4 0 1 -1 1,0 1,3 2 2 -2 1,1 1,2 2 2 -2 0,3 0,8 1 1 -1 0,1 0,6 2 2 -2 0,2 0,8 1 1 -1 1,0 1,2 2 2 -2 0,7 0,5 1 1 -1 125 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) 4. Conclusões 4.1. Discussão dos resultados O conjunto de resultados para as sete amostras de emulações utilizadas neste estudo dá destaque para dois fatores: a originalidade do produto e a familiaridade dos sujeitos com as características do material sonoro. Outros fatores relevantes para parte das amostras utilizadas incluem os descritores agradável, vinculado a aspectos fortemente subjetivos, e bem feito, que corresponde à aferição dos aspectos técnicos do produto. Tendo em vista os escores nesse grupo de fatores, cabe tecer algumas considerações sobre as limitações observadas nos descritores semânticos utilizados no processo de aferição. O problema maior apontado pelos resultados é a variabilidade das pontuações obtidas com os outros seis descritores (expressivo, relaxante, interessante, inspirador, simples e completo). Essa variabilidade é esperada em descritores vinculados ao perfil individual dos sujeitos. Por exemplo, o que é expressivo para um avaliador pode ser considerado sem expressão por outro avaliador dependendo da vivência sonora prévia e da predisposição do indivíduo. No entanto, no caso dos descritores vinculados às características dos materiais sonoros – como simplicidade ou completitude – caberia esperar um alinhamento entre as respostas. Esse não foi o caso, o que põe em discussão a aplicabilidade do uso de descritores semânticos para fins quantitativos e de classificação das informações musicais8. Cabe salientar que uma das lições dos estudos linguísticos iniciados no século passado por Saussure (2006), é a relação arbitrária e convencional entre significado e significante9. Em outras palavras, não há certezas absolutas sobre uma correspondência compartilhada entre certos descritores e certos conceitos, e isso explica em parte a falta de correspondência entre as respostas. Outro aspecto a ser considerado é o tipo de material sonoro utilizado. Desde os estudos pioneiros de Ballas (1993) com sons cotidianos, reconhece-se a importância da familiaridade com as fontes nos processos perceptuais, com potencial impacto nas escolhas criativas subsequentes. Entende-se que participantes com traços sociais comuns têm históricos de experiências sonoras similares nos seus contextos cotidianos. No entanto, pela sua característica dinâmica, a experiência sonora cotidiana é específica para cada indivíduo e se renova de forma permanente. Por esse motivo, é compreensível que a utilização de sons cotidianos aumente a variabilidade do processo de aferição. Porém, como já foi colocado no contexto da discussão sobre ancoragem, a utilização de sistemas de referências locais fomenta a implementação de mecanismos de apoio compartilhados socialmente (ver seção Ancoragem Semântica Criativa). Desta feita, é possível que apesar da variabilidade na aferição dos fatores criativos, a partir de um processo de estabilização mútua a ação criativa permita convergir em estratégias compartilhadas de uso dos materiais sonoros. Se essa descrição dos processos criativos for correta, o estudo das atividades criativas indicaria um afunilamento progressivo no uso dos recursos sonoros. Sons in natura, ou eventos cotidianos fora do contexto das atividades musicais, forneceriam um potencial alto de aplicação numa diversidade de 126 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) domínios. Portanto, eles serão avaliados de forma muito diversa. Sons sampleados, ou eventos cotidianos delimitados via processos de captação e via descrições semânticas, teriam um potencial mais baixo de aplicação. Porém, neste caso, o conhecimento do contexto serviria para atingir resultados criativos com maior facilidade. Já nos estágios avançados do ciclo criativo, as emulações instrumentais de sons cotidianos teriam um uso ainda mais restrito – fortemente vinculado à manifestação da criatividade musical profissional – e forneceriam um contexto de aplicação limitado aos códigos da prática performática instrumental. 4.2. Limitações do estudo Dentro do contexto da relação entre os materiais sonoros e o potencial de utilização dos mesmos por parte dos agentes criativos, o caráter exploratório deste estudo – focado na aferição passiva dos materiais musicais – abre questionamentos quanto à sua relação com a prática criativa. O estágio seguinte da presente pesquisa consiste na aplicação dos materiais em atividades criativas – com viés performático ou composicional. Acreditamos que nesse contexto é possível testar a efetividade das estratégias de transferência de conhecimento musical, baseadas nos fatores identificados pelos participantes deste estudo: em primeiro plano a familiaridade e a originalidade, e em segundo plano a qualidade técnica ou a relevância do material desde a perspectiva específica dos sujeitos participantes da atividade. O conteúdo semântico do presente estudo foi introduzido através dos signos linguísticos usados para avaliar os fragmentos escutados pelos participantes. O potencial das indicações verbais de Flausino Valle e das fichas interpretativas (Feichas 2015) pode não ter sido aproveitado integralmente. A nossa hipótese, em vista de estudos futuros, é que o confronto com as indicações verbais de Valle no contexto da prática criativa possa influenciar a avaliação dos fragmentos por parte dos participantes (cf. Discussão dos resultados). Finalmente, acreditamos que o caráter exploratório e preliminar deste estudo, com conclusões provisórias em relação à aplicabilidade nas atividades criativas e nas técnicas performáticas estendidas, não invalida a proposta metodológica. Ao contrário, observamos que existe um forte potencial de aplicação da ancoragem semântica criativa no contexto de pesquisas analíticas e na esfera das atividades artísticas. Os resultados dão destaque para a necessidade de um embasamento empírico firme antes da ampliar a quantidade de recursos semânticos disponibilizados nos estágios iniciais do ciclo criativo. É possível que a aplicação livre de descritores como forma de controle paramétrico encontre limitações sérias se não estiver atrelada à familiaridade dos recursos utilizados (cf. Seetharaman e Pardo 2016; Stables et al. 2016 para exemplos do uso livre de descritores semânticos). 4.3. Desenvolvimentos futuros A ancoragem semântica criativa pode ser útil no campo das práticas criativas e na performance situada, complementando o uso de descritores semânticos. Tendo em vista a proliferação de formatos dinâmicos de notação10 – desde as técnicas de geração algorítmica de sistemas de notação visual 127 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) (Fober et al. 2014; Healey et al. 2005) até a adoção de partituras sonoras como forma de compartilhamento do conhecimento musical (Nance 2007) - identificamos uma lacuna no suporte das práticas instrumentais que adotam os sons cotidianos como recursos sonoros. É necessário considerar o nível de familiaridade dos participantes da atividade criativa com o tipo de recursos sonoros disponíveis durante o ciclo criativo. Além desse requisito, é importante atentar para o afunilamento do potencial criativo dos recursos - desde os sons cotidianos in natura, os eventos delimitados por processos de captação sonora, até as emulações instrumentais dos sons ambientais. A principal hipótese teórica lançada neste trabalho é que a diversidade de aplicações criativas seria inversamente proporcional à especificidade do recurso sonoro: eventos do ambiente caracterizados como sons achados [found sound] teriam um potencial de uso mais amplo do que as imitações instrumentais dos eventos [emulations]. No entanto, também é necessário considerar a quantidade de investimento criativo necessário para atingir resultados satisfatórios com as diversas classes de recursos. Uma das características dos sons cotidianos é a variação permanente do seu perfil meso-temporal sem perder a identidade da sua classe sonora (Keller e Berger 2001). Nenhum som cotidiano é igual a outro, porém a maioria dos ouvintes pode reconhecer as similaridades dos sons pertencentes a uma mesma classe. Por conta disso, a transcrição literal em notação musical não faz jus à variabilidade das classes sonoras cotidianas. São necessárias estratégias mais flexíveis. Essa lacuna pode ser preenchida por métodos embasados em recursos semânticos, complementando a utilização de representações expandidas como é proposto - citando uma técnica com amplo potencial de aplicação - nas partituras sonoras (Nance 2007). Apesar das possibilidades de uso da ancoragem semântica criativa em contextos diversos, existem ainda desafios para sua aplicação com sons cotidianos. O uso de sons biofônicos como material criativo tem uma longa tradição, amplamente documentada na literatura composicional (cf. Izarra e Keller 2015). O repertório musical escrito inclui diversos casos de emulações instrumentais de sons produzidos por animais, por exemplo. No entanto, os critérios de seleção de parâmetros sonoros e as estratégias utilizadas para dar suporte aos procedimentos de emulação geralmente não estão sustentados em estudos de cunho experimental e portanto só são aplicáveis a casos isolados. Os resultados do presente estudo apontam para a familiaridade com os recursos sonoros como um dos fatores determinantes nas escolhas dos sujeitos. Cabe investigar se essas conclusões também se aplicam às escolhas das representações semânticas e se é possível construir sistemas de organização de recursos e de processos sonoros a partir de módulos semânticos familiares. Esperamos que as propostas e os resultados do presente trabalho ajudem no avanço da pesquisa musical com sons cotidianos, dando um maior alicerce para a utilização de estratégias semânticas nas práticas criativas. 5. Notas 1. Parte dos resultados obtidos no projeto relatado neste artigo foram apresentados no Simpósio Internacional de Música na Amazônia (SIMA 2017), realizado na cidade de Macapá, AP. 2. Evite as decisões prematuras. 128 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) 3. Lima et al. (2012) definem a restrição prematura de domínio como a adoção de procedimentos que limitam as escolhas criativas antes de atingir o conhecimento necessário dos recursos disponíveis. Esse conceito pode ser também vinculado à produção de resíduos criativos (creative waste) que pode ter impactos diversos na conceituação da sustentabilidade criativa (Ferraz e Keller 2014; Pereira et al. 2018). 4. Por sinal, a incrível similaridade entre o minucioso trabalho de Valle e a estética da “música concreta instrumental” formulada várias décadas depois pelo compositor alemão Helmut Lachenmann, está sendo analisada de forma crítica por Messina et al. (2019; 2020). 5. Além do foco do presente projeto, é interessante apontar as implicações para o campo da performance situada. O enfoque aqui proposto tem o mesmo perfil epistemológico que a análise por modelagem (Keller e Ferneyhough 2004; Coelho de Souza e Santos da Costa 2019). Propõe-se um método aberto com fins criativos, em lugar de um sistema rígido baseado em hierarquias estabelecidas a priori. 6. A característica imitativa e evocativa foi o critério de escolha dos excertos por Leonardo Feichas. Algumas dessas imitações são explicadas detalhadamente por Valle no seu Catálogo de Imitações de Vozes da Natureza. 7. Os procedimentos utilizados neste estudo foram aplicados em projetos diversos, formando um corpo de dados que permite comparações para fins de validação mais ampla. 8. Aqui é importante salientar que uma das perspectivas atuais onde há mais investimentos em pesquisa tecnológico-musical é a recuperação de dados musicais ou Music Information Retrieval (MIR). Esse campo enfatiza o uso de ferramentas semânticas como interface para os produtos sonoros. 9. As implicações das propostas linguísticas dentro do campo das práticas criativas musicais vão além do escopo do presente artigo, veja-se (Keller e Capasso 2000; Messina, 2013; Monelle, 2000; Stoianova, 1987) para discussões críticas dessas perspectivas. 10. Recentemente surgiram eventos acadêmicos específicos voltados para a notação musical embasada em recursos tecnológicos, por exemplo, TENOR. 6. Referências Audacity (2016). Editor de áudio. http://www.audacityteam.org/. Ballas, J. A. (1993). Common factors in the identification of an assortment of brief everyday sounds. Journal of Experimental Psychology: Human Perception and Performance 19, 250-267. Barreiro, D. L. & Keller, D. (2010). Composição com modelos sonoros: Fundamentos e aplicações eletroacústicas. In D. Keller & R. Budasz (eds.), Criação musical e tecnologias: Teoria e prática interdisciplinar (pp. 97-126). Goiânia, GO: Editora ANPPOM. Basanta, A. (2010). Syntax as sign: The use of ecological models within a semiotic approach to electroacoustic composition. Organised Sound 15(2), 125-132. (Doi: 10.1017/S1355771810000117.) Boden, M. A. (2003). The Creative Mind: Myths and Mechanisms. New York, NY: Routledge. (ISBN: 9780415314527.) Bergstroem-Nielsen, C. (2012). Words as music notation. Aalborg, Denmark: Aalborg University. http://www20.brinkster.com/improarchive/cbn_legno2.htm. Burtner, M. (2005). Ecoacoustic and shamanic technologies for multimedia composition and performance. Organised Sound 10(1), 3-19. (Doi: 10.1017/S1355771805000622.) Buxton, W. (2007). Sketching User Experiences: Getting the Design Right and the Right Design. New York, NY: Elsevier and Morgan Kaufmann. (ISBN: 9780123740373.) Capasso, A., Keller, D. & Tinajero, T. (2000-2020). Coletivo Capasso+Keller+Tinajero. http://www.capassokellertinajero.com/. Coelho de Souza, R. N. & Santos da Costa, G. H. (2019). A Modelagem Digital do Timbre da Viola Caipira como Fundamento para a Composição de Bestiário III. Orfeu. (Doi: 129 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) 10.5965/2525530404012019166.) Connors, T. M. (2015). Audiovisual installation as ecological performativity. In Proceedings of the Create World Conference. Brisbane, Australia: Griffith University. Farias, F. M., Keller, D., Pinheiro Da Silva, F., Soares Pimenta, M., Lazzarini, V., Lima, M. H. & Costalonga, M. J. (2014). Suporte para a criatividade musical cotidiana: mixDroid segunda geração. In D. Keller, M. H. Lima, & F. Schiavoni (eds.), Anais do V Workshop em Música Ubíqua. Vitória, ES: Ubiquitous Music Group. Farias, F. M., Keller, D., Lazzarini, V. & Lima, M. H. (2015). Bringing aesthetic interaction into creativitycentered design: The second generation of mixDroid prototypes. Journal of Cases on Information Technology (17), 53-72. (Doi: 10.4018/JCIT.2015100104.) Feichas, L. V. (2015). The Program Music in Valle’s 26 Characteristic and Concert Preludes for Violin Alone: The Performer-Audience Relation on Stage. European Society for Cognitive Sciences of Music (ESCOM), 9, 2015. Manchester, 2015, p. 64. Feichas, L. V., Keller, D., Silva, C. E., Silva, M. H. (2017). Sons biofônicos e criação musical: Estudo exploratório dos fatores criativos utilizando emulações instrumentais de sons cotidianos. In Anais do VI Simpósio Internacional de Música na Amazônia (SIMA 2017) (pp. 363-374), Macapá, Brazil: UEAP. Feichas, L. V., Ostergren, E. & Tokeshi, E. (2012). As Fichas Interpretativas na obra de Flausino Valle: a construção de uma interpretação musical. Anais da Associação Nacional de Pesquisa e Pós Graduação em Música (ANPPOM), 22 (pp. 1048-1055), João Pessoa. Ferraz, S. & Keller, D. (2014). MDF: Proposta preliminar do modelo dentro-fora de criação coletiva. Cadernos de Informática 8(2), 57-67. Ferreira, E., Keller, D. & Lima, M. H. (2016). Sonic sketches in ubiquitous music: Educational perspectives (Esboços sonoros em música ubíqua: Perspectivas educacionais). Sonic Ideas 8(15), 12. http://www.sonicideas.org/mag.php?vol=8&num=15&secc=nuevasacademias. Friedman, K., Smith, O. F. & Sawchyn, L. (2002). The fluxus performance workbook, Vol. Performance Research 7 (No. 3: 'On Fluxus'). Swinburne University of Technology, Melbourne, Australia: Performance Research e-Publications. Green, T. & Blackwell, A. (1998). Cognitive dimensions of information artefacts: A tutorial. http://www.ndirect.co.uk/thomas.green/workstuff/Papers/. Fober, D., Orlarey, Y. & Letz. S. (2014). Representation of musical computer processes. Proceedings of the ICMC / SMC 2014, Athens, Greece, 1604-1609. http://hdl.handle.net/2027/spo.bbp2372.2014.243 Healey, P. G. T., Leach, J., Bryan-kinns, N. (2005). Inter-Play: Understanding group music improvisation as a form of everyday interaction. in Proceedings of less is more - Simple computing in an age of complexity. Cambridge, UK: Microsoft Research Cambridge. Hutchins, E. (2005). Material anchors for conceptual blends. Journal of Pragmatics 37, 1555-1577. Izarra, A.; Keller, D. (2015). La bioacústica y las prácticas creativas musicales (Mesa Redonda). In: Anais do Simpósio Internacional de Música na Amazônia (SIMA 2015) (pp. 530-539). Boa Vista, RR: Editora da UFRR. Keller, D. (2000). Compositional processes from an ecological perspective. Leonardo Music Journal 10, 55-60. (Doi: 10.1162/096112100570459.) Keller, D. (2001). Social and perceptual dynamics in ecologically based composition. Electronic Musicological Review 6. http://www.rem.ufpr.br/_REM/REMv6/Keller/SPD.html. Keller, D., Barreiro, D. L., Queiroz, M. & Pimenta, M. S. (2010). Anchoring in ubiquitous musical activities. In Proceedings of the International Computer Music Conference (pp. 319-326). Ann Arbor, MI: MPublishing, University of Michigan Library. 130 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Keller, D., & Berger, J. (2001). Everyday sounds: synthesis parameters and perceptual correlates. In Proceedings of the VIII Brazilian Symposium on Computer Music. http://compmus.ime.usp.br/sbcm/2001/papers/rDamin_Keller.pdf Keller, D., & Capasso, A. (2000). Social and perceptual processes in the installation The Trade. Organised Sound 5(2), 85-94. (doi:10.1017/S1355771800002053) Keller, D., & Feichas, L. (2018). Ecocompositional and Performative Strategies for Creative Usage of Everyday Sounds: Creative Semantic Anchoring. Leonardo, 51(2), 195-196. Keller, D., Ferreira, E., Pinheiro da Silva, F., Lima, M. H., Pimenta, M. S., & Lazzarini, V. (2013). Criatividade musical cotidiana: Um estudo exploratório com sons vocais percussivos. In Anais do Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música–ANPPOM. Natal, RN: ANPPOM. Keller, D., Lazzarini, V. & Pimenta, M. S. (2014). Ubiquitous Music. Berlin and Heidelberg: Springer International Publishing. Lima, M. H., Keller, D., Pimenta, M. S., Lazzarini, V. & Miletto, E. M. (2012). Creativity-centred design for ubiquitous musical activities: Two case studies. Journal of Music, Technology and Education 5(2), 195-222. (Doi: 10.1386/jmte.5.2.195_1.) McCormack, J. & D'Inverno, M. (2012). Computers and Creativity. Berlin, Heidelberg: Springer. (ISBN: 978-3-642-31726-2.) Messina, M. (2013). James Dillon’s Crossing Over: An attempt to conduct a morphemic analysis on a musical score. In: M. Zatkalik, D. Collins & M. Medic (eds.). Histories and narratives of music analysis. Cambridge Scholars Publishing, pp. 451 - 487. Messina, M., Feichas, L. V., Ribeiro, L. P. (2019). Musique Concrète Instrumentale and Coloniality of Knowledge: Helmut Lachenmann, Flausino Valle and the Euro-normative Bias of New Music Genealogies. II Congreso MUSAM: En, Desde, y Hacia las Américas. Migraciones Musicales: Comunidades Transnacionales, Historia Oral y Memória Cultural. Madrid: Universidad Complutense de Madrid. Messina, M., Gómez Mejía, C. M., Feichas, L. V., Silva, C. E. & Martins, A. J. S. (2020). Música Experimental, Técnicas Estendidas e Práticas Criativas como Ferramentas Decoloniais: um relato de várias torções e tensões. PROA: revista de antropologia e arte. No prelo. Miletto, E. M., Pimenta, M. S., Bouchet, F., Sansonnet, J-p. & Keller, D. (2011). Principles for music creation by novices in networked music environments. Journal of New Music Research. 40(3), 205216. Monelle, R. (2000). The sense of music: Semiotic essays. Princeton NJ: Princeton University Press. NAP (2003-2019). Núcleo Amazônico de Pesquisa Musical. Rio Branco, AC: UFAC. https://sites.google.com/site/napmusica/, http://dgp.cnpq.br/dgp/espelhogrupo/4273727401001550. Nance, R. W. (2007). Compositional explorations of plastic sound. Doctoral Thesis in Music, De Montfort University, UK. Pereira, V. S., Keller, D., Silva, F. G., Ferreira, E., Silva, S. L. & Bessa, W. R. B. (2016). A notação verbal como alternativa para o desenvolvimento de sistemas musicais ubíquos: Estudo exploratório de interação com código fonte e interfaces gráficas. In Anais do Simpósio Internacional de Música na Amazônia (SIMA 2016). Belém, PA: EMUFPA. Pimenta, M. S., Keller, D., Flores, L. V., Lima, M. H. & Lazzarini, V. (2014). Methods in creativity-centred design for ubiquitous musical activities. In D. Keller, V. Lazzarini & M. S. Pimenta (eds.), Ubiquitous Music (pp. 25-48). Berlin and Heidelberg: Springer International Publishing. (ISBN: 978-3-31911152-0.) Pinheiro da Silva, F., Keller, D., Ferreira, E., Pimenta, M. S. & Lazzarini, V. (2013). Everyday musical creativity: Exploratory study of ubiquitous musical activities (Criatividade musical cotidiana: Estudo exploratório de atividades musicais ubíquas). Música Hodie 13, 64-79. 131 International Journal of Digital Media and Interaction Vol.3, No.5, (2020) Saussure, F. (2006) Curso de Linguística Geral. São Paulo: Cultrix. Silva, C. E., Medeiros, S. F., Messina, M., Keller, D. (2017). Experimentação criativa com Csound: exploração, imitação e criação musical no protótipo mixDroid 2G CS. In Anais do VI Simpósio Internacional de Música na Amazônia (SIMA 2017), Macapá, Brazil. Seetharaman, P. & Pardo, B. (2016). Audealize: Crowdsourced audio production tools. Journal of the Audio Engineering Society 64(9), 683-695. Stables, R., De Man, B., Enderby, S., Reiss, J. D., Fazekas, G. & Wilmering, T. (2016). Semantic description of timbral transformations in music production. In Proceedings of the 2016 ACM on Multimedia Conference (pp. 337-341). New York, NY: ACM. (ISBN: 978-1-4503-3603-1.) Stoianova, I. (1987). Testo-musica-senso. 'Il canto sospeso'. In E. Restagno (ed.), Nono (pp. 126- 141). Turin: EDT. Wenger, E. (2010). Communities of practice and social learning systems: The career of a concept. In C. Blackmore (ed.), Social Learning Systems and Communities of Practice (pp. 179-198). Springer London. (ISBN: 978-1-84996-132-5.) 132 International Journal of Digital Media and Interaction Special Issue on Ubiquitous Music, Vol.3, No.5, (2020) On Ecocomposition: An interview with Damián Keller 1 Tate Carson1 Louisiana State University 1 [email protected] Abstract Composer and professor Damián Keller has been researching ecologically grounded sounds, which come out of a study of ecology and the everyday environment, since the late 1980s. His work has dealt with a range of issues, including naive creativity, ubiquitous music making, and ecologically-based granular synthesis. He is interviewed here on topics of ecocomposition, everyday sound, and environmental activism. Keywords: ecocomposition, ubiquitous music, installation, environmental activism 1. Introduction Keller earned a DMA from Stanford University in 2004 and teaches music and computing at the Federal University of Acre (UFAC), Brazil. He is a member and co-founder of the Ubiquitous Music Group (g-ubimus); his research focuses on everyday creativity, software design and ecocomposition within the context of ubiquitous music making. During an interview with Keller via email over the course of two years starting November 2017, we examined themes such as the empowerment of the audience as co-creator and the use of everyday settings as a primary source of sonic materials and creative support. Also covered is the question of how ecologically grounded sounds (Keller and Truax 1998) relate to environmental activism, sonification, and physical modeling. 2. Interview Over the years, you have researched and written music that deals with ecologically grounded sounds. Where does your interest in this music come from? An event from your childhood, or something that developed later in life? My interest in everyday sound dates from my first experiences in music making. The first piece I published on CD was done in 1987 (Damián Keller 1996). It uses recorded sounds with very little processing. It was done with almost no resources: my own four-track portable cassette recorder and a fairly cheap stereo microphone. At that time, I was starting my first experiments in sound synthesis, using a Commodore 64. But it took me almost ten years to adopt computer-based techniques in my creative processes. If I were to select two goals that have shaped my work and others’ in ecologically grounded creative practice, I would pick empowerment of the audience as a co-creator and everyday settings as the main sources of sonic materials and creative support. I think the use of everyday sounds fits well within this context, but I don’t think it is a prerequisite for ecocomposition. Other composers — such as Adam Basanta (2010), Rick Nance, Matthew Burtner (2011) and Agostino Di Scipio (2002) — have given ISSN: 2184-3120 CC 2020 DIGIMEDIA International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) important contributions to ecologically grounded creative practice using acoustic instruments and electronic sounds. It’d be interesting to investigate how the body of work produced within the ecocompositional paradigm relates to a concrete-abstract continuum. This applies both to the materials and the methods. I suppose Agostino’s music tends towards the abstract. Rick’s and Matthew’s works sit somewhere in middle. And my installations and Adam’s artworks are closer to the mundane experience of sound. By the way, note that I use interchangeably the terms ecocomposing, ecocomposition, sonic ecologies and ecologically grounded creative practice. I could argue that the first musical examples of eco-approaches were the works I published on the earsay label in 1998 and 1999. Though I don’t see the point in trying to separate the creative ecological approaches by the names attached by each composer. Some have used ecostructuralism, others ecosystemics, others ecoacoustics and others have adopted sonic ecology. Some of us argue for a neutral and flexible term that could grasp the common methods and objectives of eco-based practices, hence the proposal “ecologically grounded.” Where does the interest in everyday sounds come from? Is it from a Cageian notion of allowing all sounds to have equal musical value? Or from somewhere else? Do you think Cage’s ideas created affordances in music or sound art to address with ecocomposition? I believe your question touches on issues that have gained weight in creative music making over the last twenty years. Despite the historical importance of the New York School, I do not see Cage’s practice as a stepping stone in ecocomposition or more generally in ecologically grounded creative practice. Tracing the intellectual antecedents of musical perspectives is very hard. That’s why I tend to give more value to collective contributions than to individual composers or artists. If forced to individualize, I’d say that Varèse’s concept of organized sound and Satie’s idea of furniture music have more weight than the performance and stage-oriented practices exemplified by Cage’s work. Readings on Satie are good examples of the Cage-centric views of many musicological discussions (to me, Satie is important because of his ideas and his work, not because he was adopted as a flag by other composers). Satie’s proposal of furniture music targets musical processes tailored for everyday settings, not for the stage. The Italian composer Nicola Bernadini said that “musical sound is used nowadays as a vehicle of specific information, with the result that our soundscapes are polluted with sonic interjections of all sorts produced by the most diverse appliances” (Bernardini 2008). This utilitarian usage of sound is exactly the opposite of what Satie envisaged, music that would not demand attention, music that could be incorporated into everyday activities unobtrusively. A computational concept close to this idea is “calm technology”, proposed by Jeremijenko, Weiser and Brown in the early 1990s (1995). Technology is calm when it can enhance experiences without demanding exclusive attention. Ecocompositional projects such as the Urban Corridor , the Green Canopy series (Capasso, A., Keller, D., and Tinajero, P. 2013) or Palafito/Home-on-stilts (Capasso, A., Keller, D., and Tinajero, P. 2012) provide examples of this aesthetic perspective on musical interaction. But my answer only addressed part of your question. Why everyday sounds and not – for instance – acoustic-instrumental sources? Well, I think the choice depends on the theme of the project. Most of the artistic projects I have developed since I had my first contact with the Amazon in 2002 target aspects 134 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) of my experiences here. Vivir sin Después (Keller & Capasso, 2005), Green Canopy (Capasso, Keller & Tinajero, 2013) and Palafito used biophonic sources and location recordings made in the Western Amazon. InMesh (Capasso, Keller & Tinajero, 2014) also used location recordings and added processed voice, though not any voice. The video Clarita features readings by Shuar poet Clarita Sharupi Jua. A recent collaborative work – Atravessamentos – with composer Luzilei Aliel and dancer Valeska Alvim incorporates synthesized orchestral sounds. The piece proposes an unusual context for the dance, the tropical rainforest. Luzilei and I explored this contrast by using a sonic palette that mixes everyday sounds with instrumental sources. So, the sonic result is a continuum, having on one end “realistic” biophonic sources that match the expected forest soundscape and on the other end the sound of unexpectedly large instrumental ensembles. Does the use of ecologically grounded sounds in your work have any relation to environmental activism? Would you like the audience to gain an understanding of humans’ connectedness to nature or are you using those sounds because they are the ones we most naturally perceive? Are you trying to say anything specific about the complexity of nature that you would want the audience to perceive? There have been some criticisms coming from the soundscape community as to my use of the term ecology. Historically, the term adopted to identify art-based environmental activism is “acoustic ecology.” We have used the term ecology as a methodological ground-truth. Ecological validity is widely accepted as the attempt to replicate everyday conditions within the context of experimental procedures. This has nothing to do with activism. While it is true that several ecocomposers are sympathetic with the environmental cause, I do not think that ecologically grounded creative practices necessarily imply political activism. I believe that an artwork may be read as a political statement depending on its topic and on its contextual elements. Most of my production addresses social issues, including the destructive impact of mining, logging and oil extraction on the Amazonian communities and ecosystems. The video-artist Ariadna Capasso, the sculptor Patricia Tinajero and myself have produced a series of installations addressing these topics (Vivir sin después, Green Canopy 1–5, Palafito 1 and 2, and InMesh 1). These pieces invite the audience to walk within the installation space, touching, seeing and listening. We rarely use text, so the individual experience is very different from reading a political statement. The visitors have a shared responsibility to construct a positive aesthetic outcome. During the last few years we have gathered data through targeted questionnaires. While most people give positive feedback — pointing to heightened states of perception and shared community feelings — some get fixed on trivial details, like the sand on the floor or the noise of other participants. From these observations, I’d say that our artworks provide opportunities for reflection. But whether people want to share or engage in political and social issues depends on a variety of factors on which we as creators have no control whatsoever. While replicating everyday sounds in music might not be directly seen as ecological activism do you see any truth to the idea that any art that breaks down the division between humans and nature might be considered a type of activism? I am thinking of the writings and ideas of Gregory 135 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) Bateson and Timothy Morton, who in different ways seek to use art to break down those divisions. Yes, I agree. Unfortunately, defending the survival of all living creatures on earth has become the most radical and most urgent political statement today. This issue has implications on both art and science. Initiatives such as the Intergovernmental Panel on Climate Change are necessary to provide a bridge between scientifically reliable results and reasonable political decisions. Similarly, artistic initiatives that engage with the social and environmental problems motivated by the current political and economic systems serve to push forward a progressive agenda. Do you see your work as related to sonification in any way? I see a similarity between attempts to model real-world phenomena with sound and your ecologically grounded synthesis techniques. Several sonification approaches that appeared from the mid-2000s onward have adapted our ecological modeling work published between 1998 and 2001. Some researchers — such as Stephen Barrass (formerly at Canberra University) — have acknowledged the source and have applied ecologically grounded synthesis to the realm of tactile interaction (Castle, Adcock & Barrass, 2002). Stephen and his team have also given an important contribution to sonification. Another use of sonification in ecologically grounded creative practice is the technique proposed by Tim Opie and Andrew Brown (2011). They used data from environmental sounds to control audio processing. This proposal was further extended by Álvaro Barbosa (Gomes, Barbosa & Penha, 2014) and his group based in Macau. All these techniques are closely related to the ideas laid out in the initial formulations of ecologically grounded synthesis. I hope we eventually get a chance to gather these proposals and develop a conceptual framework that can be applied to the design of digital audio processing tools. I feel they have a good potential for applications in daily settings. In your MFA thesis, “touch’n’go: Ecological Models in Composition,” (Keller, 1999) you mention “generic physical models” as one technique of ecological composition. Did you ever use actual physical modeling as a synthesis technique or only the techniques of physical modeling to inform your granular synthesis parameters? Are they implemented in the granular control functions? I am looking for some clarification on what you meant by physical models. Is this just another term for ecological models? If you do actually use physical modeling to make sounds, how do you see the technique as being related to ecologically based granular synthesis? This is an interesting issue that needs clarification. While working on … soretes de punta, touch´n´go, and other works I did between 1997 and 2000, I was using physical modeling techniques. But I used the term “generic” because in contrast with most work on physical modeling until then, I was not interested in reproducing specific musical instruments. I worked on models of pipes and strings that resembled the sounds of objects rather than the sounds of “instruments.” In 1999, Chris Rolfe and I read a paper by Perry Cook (1997) where he discussed synthesis of percussive sounds. He said (more or less) that granular synthesis was useless for percussive sounds 136 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) because it was computationally too expensive. Chris and I had implemented MacPOD based on Barry Truax’s POD system and had it running on an old Macintosh computer. So, we thought, well granular synthesis is not so expensive and percussive sounds can be done efficiently with granular synthesis. So, to answer your question, yes, some forms of physical modeling are useful for ecologically grounded synthesis. But given the multiple advances on both fronts during the last few years, I’m sure we can do much more now than what Chris and I did back in the 1990s. In your MFA thesis, you explained three examples of ecological models: bouncing, scraping, and breaking. I’m assuming there were more examples that you didn’t have the space to discuss. Which others have you discovered and used? Did you ever find a pattern from nature that you wanted to model but could not create a suitable algorithm to recreate its behavior? Bouncing and breaking were inspired by the pioneer study by Warren and Verbrugge (1984). Bouncing was a good starting point because it was conceptually simple but presented some interesting (unintended) sonic features. That study reported fairly successful results in simulating a few examples for usage in perception studies. Of course, their cutting and pasting technique could not have worked for a large number of samples, but their preliminary results were encouraging. During my presentation at ICMC (Keller & Truax, 1998), I showed several shattered glass synthesis examples. Their overall characteristics were similar, but each example was clearly an individual specimen of a shared class. The results were so convincing that one of the members of the audience stood up and said that I was cheating (!). I was a bit under time pressure while doing the development of the models. I had to code, produce convincing sonic results, produce a CD-length sound work, develop the multimedia elements of the piece and report the whole thing in writing in less than a year. I’m sure more could have been done and as you mentioned several models that I developed ended up not being used or documented. I did a lot of trials and variations on water sounds, such as filling and the impossible sound of emptying a jar! Drops on hard surfaces and drops on liquid. Some of that material made it into … soretes de punta (I recommend Basanta’s 2010 analysis of that piece (2010)). I also played around with multiple variations of sounds of fire. A feature of these models that caught my attention was the possibility of creating conceptual paradoxes. One example is the piece Action to be taken in the event of a fire (one of the modules of touch’n’go). Here I used a model of fire to play a physical model of a string. In a way, it is similar to Nam June Paik’s One for Violin Solo (1962). But since I didn’t have the money to buy a violin and burn it, I did it digitally. After reading the analysis by Basanta I was interested in his notion of ‘hybridization of signs’, combining micro- and meso-level events (a drop of rain or the whole rainstorm). How do you see hybridization of signs manifesting in your work? Do you see it happening in other places than what he mentions? I agree with many proposals Adam has made in his publications and I like his musical output. His analysis of the piece is accurate and rich. Hybridization is a potentially powerful strategy that can be explored in various contexts. I have also used it in the soundtrack for the short film, Drop by Canadian 137 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) filmmaker Luke Carroll (1999). The script is about a guy – possibly a businessman – that runs an errand in a deserted town. For some reason (the script has no dialogues or explanations), the guy is forced to climb over a wall. When he jumps from the wall he falls into a bottomless pit filled with water, entering a dreamlike dimension. This scene was an excellent opportunity to create a huge, slow-motion splash, that turns into a shower of glass splinters. Obviously, this type of event does not happen in real life. But the scene was tailored as fantastic realism, that is, an imaginary situation that becomes feasible if we stretch the boundaries of reality. So, hybridization has been a recurring theme in many of my works. But I am not quite convinced whether Adam’s usage of signs is applicable to ecocomposing. My problem with semiotics-oriented approaches is that signs can be attached to anything. This may be the case when we deal with spoken languages, but are arbitrary relationships possible when we target sonic events? This issue, of course, demands detailed and careful studies. Some composers aligned with the acousmatic tradition argue for arbitrary bonds between sources and sonic results. This is usually enabled by the isolation of sonic units (or musical objects) from their original context. According to them, this procedure is necessary because referential sounds are less amenable to musical usage than abstract sounds. Interestingly, this polemic has spilled over to related fields such as auditory cognition and sonification. I believe this debate may be particularly relevant to ubiquitous music initiatives that target creative outcomes in contexts where it is very hard to be isolated from the local soundscape. In the section of your MFA thesis, “Ecological Echoes,” you state that “the piece requires the active participation of a conscious user.” Can you explain your reasoning for designing a work in this way? Do you feel as though engaging the audience in this way might aid in their realization that they themselves are connected to these ecologically generated sounds? This question relates back to one of the two targets for ecologically grounded creative practice that I mentioned above, the empowerment of the audience as a co-creator. I think this is a separate issue from the materials used in the artwork. There are many examples in the musical literature — even within the soundscape perspective — of works that employ environmental sounds while adopting a fully composer-centric creative process. I see the experimental works of the 1950s as interesting predecessors of an alternative aesthetic stance, particularly in the work of Morton Feldman. Despite writing completely scored instrumental music, some of the late Feldman works let the listener be free to experience sound at her own pace. The combination of a small amount of material, a very slow tempo and a narrow dynamic range, lacking any type of short-term directionality can be compared to some environmental sonic phenomena — such as a dripping faucet, a spinning wheel or the sounds of leaves blown by a soft breeze. Rather than demanding highly focused attention, these phenomena tend to trigger daydreaming, a mental state that has been recently linked to creative outcomes. While I still believe that having a conscious audience helps to achieve a participatory aesthetic experience, now I think that giving a chance to the unconscious processes might also provide a path to collective creative outcomes. The main point is that I am not THE composer of the aesthetic experience. I see myself just as a facilitator of experiences created by the audience, the materials and the settings. 138 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) This is an interesting response that I didn’t expect from someone whose music, at least on touch’n’go cannot be described as static or minimalist, like might be attributed to Feldman or even La Monte Young. I agree that the long timespans and the indeterminacy of not really knowing what would come next allows the audience to experience and “finish” the work. How does this work with music that happens in a more condensed timespan such as your own? I know that since touch’n’go you have done a lot of work with installations, was this issue of time one of the reasons for that? Exactly. I explored other formats, such as multitrack tape, film soundtrack and theater soundtrack. But the installation format seems to provide a nice context for open forms that foster social interaction. In that sense, La Monte Young’s work is a good reference. touch’n’go was an initial exploration on how to deal with form when the materials can be freely combined by the listener or co-creator. When this problem is placed within the context of installation artwork, other dimensions come to the foreground. How are the sonic sources distributed in space? How is density handled? How are the visual events related to the sonic events? This last aspect triggered yet another strand of interesting possibilities when visual expectations are not met by the sonic outcomes. Another avenue to be explored has recently been proposed by Luzilei Aliel. He adapted a concept coined by Heidegger for usage in ecologically grounded improvisatory works, the Gelassenheit (Messina & Aliel, 2019). The basic idea is that rather than targeting deterministic methods to deal with parametric control, musical interaction could embrace factors that are beyond the control of the participants. The difference from previous proposals is that rather than mapping external sources to musical parameters directly, these sources are used for aesthetic decisions that lie at the verge of the performers’ possibilities. You say that “The piece’s structure (or lack of it) is centered on the idea of the forking path (Borges, 1962). In other words, the piece is designed by the listener/reader at the moment he establishes a path through the material of the piece.” Is this non-deterministic method of structuring form related to your studies of ecology? I was thinking about the way that a sound is never the same in nature twice, and that things never interact the same way either, and how this could be shown in the form. That’s a sharp observation. Yes, one of the characteristics of the ecological approach is the emulation of real-world behaviors. One consequence is the avoidance of mechanistic audio-processing techniques such as looping. Another consequence is the adoption of creative procedures that take into account the randomness inherent to decision-making when biological agents are involved. This second aspect has only recently started to emerge within the context of creativity theories. Some researchers take as granted that artistic endeavors are just another form of problem solving. My collaborators and I have argued that in order to solve a problem, first you need to know what you are looking for. How many artistic projects start by defining a target without knowing the materials and their potential for exploration? Arguably, instrumental counterpoint could be taken as an example of a compositional procedure that defines the target beforehand and proceeds to unfold the materials according to preexisting rules. The label for this class of procedures is teleological. We have argued that a more 139 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) common procedure in artistic endeavors involves the exploration of materials and the environment in order to increase the knowledge of the creative possibilities afforded by the agents and the materials. This strategy is labeled exploratory and the activities that do not necessarily yield creative products are called epistemic (Kirsh & Maglio, 1994). My suspicion is that investment in supporting epistemic activities will have deep and long-lasting consequences for musical creativity. Another aspect to highlight from an ecological perspective is the impact of decision-making on the material and the behavioral resources for future activities. In touch’n’go, I used the Borgean metaphor of the forking path because I was interested in providing the audience with the possibility of experiencing (almost) infinite versions of the piece (I say infinite because even if somebody wanted to try all the available versions of touch´n´go, it would be impossible to experience them in one lifetime). Another implication of the participatory approach to creative activity is the shared responsibility on the impact of our actions on the environment. The consequences of our decisions are not obvious because we do not usually measure the quantity of resources consumed and discarded during our creative acts. Should we stop to think about the investment made on each artistic endeavor and whether that endeavor produced a considerable amount of unwanted byproducts? Do the positive outcomes outweigh the social cost? Those are questions that we need to address if we want to fight for an equitable treatment of the arts when compared to the investment on scientific and educational long-term policies. In “Compositional Processes from an Ecological Perspective,” (Keller, 2000) you list four alternatives to atomistic approaches to discussing complex auditory stimuli: experimental aesthetics, acoustic communication, cognitive approaches, and ecological acoustics. Could you mention briefly how each of these has informed your work and how you viewed the perception of sound structure? This is a subtle issue that demands a thorough review of the relevant literature. If I were to pick the two most influential perspectives, I would say ecological cognition and experimental aesthetics have kept their relevance over the years. Again, loose usage of terminology might confuse some readers. Ecological cognition is a branch of ecological psychology, firmly grounded on the experimental scientific methodology. It is not straightforward to translate experimental data and results to creative artistic practice. But I believe it is worth the effort. Particularly in the humanities, the tendency to produce a discourse completely devoid of actual field work and observations has grown enormously during the last few years. I do not say that we musicians need to adopt the scientific method and start dissecting each and every musical phenomena. What I propose is to keep our ears open to the contributions of experimental psychology. What ideas lead you to formalize a concept of ubiquitous music (ubimus), a form based on everyday musical creativity? Ubiquitous music is still a field of study searching for methods, definitions and conceptual boundaries. Everyday musical creativity emerged as one of the important phenomena targeted by ubimus research. It is not the only one. Another emergent issue is lay-musician interaction. A series of experiments carried out by my research group indicated that music making involving professional 140 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) musicians and casual participants is particularly attractive to non-musicians but at the same time it presents difficult methodological challenges. An important motivation for ubimus proposals is the lack of support tailored for untrained participants in creative musical activities. This goal is an extension of ecologically grounded creative practice. Hence ubimus research receives the contributions of the eco-based approaches and fosters advances in the development of support for creative music making. How does the opening up of music to naive musicians relate to the idea of ecologically grounded sound? Does it have something to do with showing people a connection to the natural world through sound? A stronger awareness of our sonic reality increases the potential for meaningful interactions with our ecosystems. Sometimes this is a byproduct of musical training. But more often than not, traditional musical training works against a careful attitude toward our sonic environment. Surprisingly, an experience carried by Helena Lima — one of my permanent collaborators — showed that trained musicians were less aware of the environmental sources and had a huge difficulty when faced with the task of using everyday sounds creatively (Lima et al., 2012). If “naive” participants are better equipped than musicians to deal with everyday sound sources, we just need to provide the necessary support for them to put their creativity to full use. This is the objective of creativity-centered design, one of the methodological strategies of ubimus research. References Basanta, A. (2010). Syntax as sign: The use of ecological models within a semiotic approach to electroacoustic composition. Organised Sound, 15(2), 125-132. Bernardini, N. (2008). Erik Satie’s Musique d’Ameublement, some ninety years later. In Furniture Music / Der Blauer Hase. Venice: Blauer Hase Collective. Retrieved from <http://www.blauerhase.com/index.php/textspubli/furniture-music-/> [Accessed 14 Apr 2020]. Burtner, M. (2011). EcoSono: Adventures in interactive ecoacoustics in the world. Organised Sound, 16(3), 234-244. Capasso, A., Keller, D., & Tinajero, P. (2014). InMesh. Multimedia Installation with video projectors and surround sound. Retrieved from <https://capassokellertinajero.squarespace.com/portfolio#/inmesh> [Accessed 14 Apr 2020]. Capasso, A., Keller, D., & Tinajero, P. (2013). Green Canopy 6.0. Retrieved from <http://www.capassokellertinajero.com/portfolio#/green-canopy> [Accessed 14 Apr 2020]. Capasso, A., Keller, D., & Tinajero, P. (2012). Palafito / Palafita / Home-on-Stilts 2.0. Multimedia installation with two video projections, 1 LCD screen, surround sound, 1 directional speaker and found wood. Retrieved from <http://www.capassokellertinajero.com/portfolio#/palafitos> [Accessed 14 Apr 2020]. Carroll, L. (1999). Drop. 35-mm Short Film. Vancouver, BC: Drop Productions. Castle, G., Adcock, M., & Barrass, S. (2002). Integrated modal and granular synthesis of haptic tapping and scratching sounds. In Eurohaptics 2002 Conference proceedings, Edinburgh. Cook, P. R. (1997). Physically informed sonic modeling (phism): Synthesis of percussive sounds. Computer Music Journal, 21(3), 38-49. Lima, M. H., Keller, D., Pimenta, M. S., Lazzarini, V., & Miletto, E. M. (2012). Creativity-centred design for ubiquitous musical activities: Two case studies. Journal of Music, Technology & Education, 141 International Journal of Digital Media and Interaction Vol. 3, No. 5, (2020) 5(2), 195-222. Gomes, J. A., Barbosa, Á., & Penha, R. (2014). An Eco-Structuralism approach in soundscape (data) composition. In Proceedings of the 9th Audio Mostly: A Conference on Interaction With Sound (pp. 1-7). Keller, D., & Capasso, A. (2005) Vivir Sin Después. On Organised Sound DVD. (2005). Organised Sound, 10(3), 279-282. doi: 10.1017/S1355771805001007 Keller, D., & Truax, B. (1998). Ecologically-based Granular Synthesis. In ICMC. Keller, D. (2000). Compositional processes from an ecological perspective. Leonardo Music Journal, 10: 55-60. Keller, D. (1999). touch'n'go: Ecological Models in Composition (Doctoral dissertation, Simon Fraser University). Keller, D. (1996). Persecución. On Música Eletroacústica Brasileira Vol. I. Brasília, DF: Sociedade Brasileira de Música Eletroacústica. Kirsh, D., & Maglio, P. (1994). On distinguishing epistemic from pragmatic action. Cognitive science, 18(4), 513-549. Messina, M., & Aliel, L. (2019). Ubiquitous Music, Gelassenheit and the Metaphysics of Presence: Hijacking the Live Score Piece Ntrallazzu 4. In 14th International Symposium on Computer Music Multidisciplinary Research (p. 685-695). Marseille, France. Paik, N. J. (1962). One for Violin Solo. Performance. Kammerspiele, Düsseldorf, June 16. Opie, T., & Brown, A. R. (2011). Eco-Structuralism in Practice. In Proceedings of the Australasian Computer Music Conference. Scipio, A. D. (2002). The synthesis of environmental sound textures by iterated nonlinear functions, and its ecological relevance to perceptual modeling. Journal of New Music Research, 31(2), 109117. Warren, W. H., & Verbrugge, R. R. (1984). Auditory perception of breaking and bouncing events: a case study in ecological acoustics. Journal of Experimental Psychology: Human Perception and Performance, 10(5), 704-712. Weiser, M., & Brown, J. S. (1995). “Designing Calm Technology.” Mountain View, CA: Xerox PARC. Retrieved from: <http://www.ubiq.com/weiser/calmtech/calmtech.htm> [Accessed 14 Apr 2020]. 142