sabato 11 novembre 2017

Le emissioni otoacustiche: effetti ed ausili per la composizione


Tra le compositrici non più con noi, una delle più sottovalutate è stata certamente l'americana Maryanne Amacher. Con scarsissima visibilità mediatica, la Amacher ha costruito un portafoglio installazioni di tutto rispetto ed è stata, nel campo dell'elettronica, una fonte di creatività che si è concentrata su uno dei più interessanti fenomeni dell'acustica, ossia le emissioni otoacustiche.
Se si introduce uno stimolo uditivo, sotto forma di determinate frequenze, anche ritmicamente cadenzate, l'orecchio interno, attraverso la coclea, restituisce sempre un terzo suono, musicalmente soggettivo, che non esiste fisicamente all'esterno. Con un paio di cds per la Tzadik (che possono essere reperiti e ricostruiti con facilità sulla rete), la Amacher ha aperto un varco in ciò che le emissioni possono costituire; alla Amacher piaceva affermare che è come se l'orecchio "cantasse" e fosse in grado di proporre una polifonia involontaria. Grazie alla microfonazione e alle possibilità introdotte dall'elettronica sintetica, la Amacher percepì la necessità di tirare fuori questi suoni, per usarli a scopo compositivo. Il suo lavoro fu molto apprezzato negli ambienti accademici, un approfondimento della scoperta empirica del violinista Tartini, che finalmente poteva essere trattata secoli dopo in maniera scientifica e soprattutto poteva essere messa a disposizione della composizione. Su quest'ultimo aspetto bisogna dire che purtroppo fu scarso l'interesse (e lo è ancora oggi) e la Amacher non riusciva a spiegarsi il perché. Al pari del fenomeno dell'olofonia, che consisteva in una tecnica di registrazione in studio capace di riprodurre i suoni/rumori esterni come se essi fossero accanto a noi*, le emissioni otoacustiche probabilmente facevano un pò paura all'audience, dal momento che si trattava di assistere ad eventi musicali in cui mettere sotto pressione la mente aurale e la protezione acustica per via dei volumi esaltati. Sebbene la Amacher invitasse gli udenti ad un'altra prospettiva di ascolto, immaginifica e partecipativa, sono stati pochissimi i compositori che hanno sviluppato i suoi concetti, anche dopo la sua morte; il più intrepido e immersivo discepolo è stato senza dubbio il danese Jacob Kirkegaard che nella sua installazione titolata Labyrinthitis, ha cercato di oltrepassare qualche limite, portando su un piano compositivo speciale i principi della Amacher: infilandosi un microfono-sonda nell'orecchio registrava quel "terzo suono" e, attraverso la conduzione esterna delle casse amplificative, lo porgeva all'ascolto dei suoi uditori nelle stesse condizioni. Gli esiti furono, per molti, esaltanti, poiché durante la produzione sonora vennero in aggravio alcuni fenomeni corporei non volontariamente provocati: qualcuno avvertì formicolii variabili su ventre e schiena, addirittura i più anziani con handicap uditivo provarono l'ebbrezza di un mini ritorno all'udito pieno (dato anche il volume sostenuto). 
La mia riflessione, però, si concentra su questa domanda: se è vero che l'emissione otoacustica può diventare uno strumento compositivo fenomenale, utilizzabile oltre il campo medico, in quali termini si deve parlare della sua estetica musicale? Alcuni "sound characters" della Amacher, sopratutto quelli impostati su frequenze basse o in arpeggi salvifici, nonché la stessa suite di Kirkegaard appena accennata, delineano quel solito criterio di valutazione che deve superare l'ottica di quelli che pensano che questa roba sia solo art performance. La sostanza dei suoni deve comunque indurre a trovare quella bellezza che è criterio generale, e poi specifico, per sostenere la corretta valutazione estetica e se guardiamo bene a cosa sta avvenendo nella ricerca musicale, possiamo accorgerci che esiste una divergenza di obiettivi, che può essere letta in settori musicali affini all'elettronica o anche nel mondo dell'improvvisazione: prendete il lavoro di specifici ricercatori all'Ircam come Alex Chechile, che manipola i segnali otoacustici per una folta schiera di strumenti al fine di creare spazi musicali "superdotati", in una rincorsa verso nuove frontiere della psicoacustica e della biomeccanica dell'ascolto, o il lavoro di intercetta dell'argomento profuso da improvvisatori come Hans Leeuw e Diemo Scharwz (all'interazione di elettronica e digitale) che segue il taglio stilistico di molta produzione di Evan Parker al sassofono, costruita con sortite nel mondo dell'elettroacustica; sono tutti esperimenti che fanno pensare che uno dei traguardi della musica sia proprio la sua materializzazione scientifica e il raggiungimento di una consistente valutazione estetica, che si contrappone alla realtà di giovani compositori come Christopher Haworth o Thomas Ankersmith, che propongono sistemi complessi di sintesi e composizione, che lavorano su alcune frequenze otoacustiche e digitalizzazione, suscitando evidenze musicali soggettive, di difficile interpretazione. Sembra, dunque, che il drone, lo spazio o una riorganizzazione di elementi calibrata sul progetto espressivo, sia più in grado di suscitare sentimenti rispetto ad una asettica scoperta di reazioni della mente: droni, spazialità e tessiture lavorano però in modo diverso rispetto al caso classico. Pensate ai tanti droni dell'ambient music che, tramite la ripetizione o il sostenuto uso delle note, provocano dopo alcuni minuti la "fusione" mentale, ossia lo scollamento dell'attenzione da ciò che si sta ascoltando; qui, invece, si vuole provocare il contrario, una presenza attiva dell'ascolto e soprattutto regolata dalle leggi invisibili degli organi umani (in questo caso l'orecchio).

_____________________________
Nota:
*l'esempio lampante ci viene fornito nel rock dei Pink Floyd, come applicazione delle teorie di Hugo Zuccarelli, in varie porzioni di The Final Cut, dove elicotteri ed esplosivi sorprendono auralmente l'ascoltatore.


Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.