Ce texte a déjà été publié aux Presses de
l'Université du Québec, Montréal, 1995, in Esthétique
des arts médiatiques,(Tome 1, L Poissant, ed.). Les
références entre crochets renvoient à la bibliographie
établie par A. Vande Gorne, (cf .A.V.G. : Bibliographie).
Introduction
Au début du
XXème siècle, tout concourut à l'éclosion d'un nouvel art
: généralisation de l'électricité dans les villes, premiers vols
en avion, automobiles qui familiarisèrent l'homme à l'idée et la
sensation de la vitesse. Désormais, la communication entre les êtres
humains passe par les machines (télégraphe en 1837,
téléphone en 1876, plus tard télévision, du
grec [[tau]][[eta]][[lambda]][[eta]] : à distance), elle est
médiatisée à la vitesse de la lumière, bien au-delà
des capacités naturelles de transmission du corps humain [1]. La fixation sur un support d'un moment volé
à la vie y fut aussi pour quelque chose : la photographie, le cinéma
habituent l'homme à vivre une réalité différée et
à confier la remémoration, la narration des choses à d'autres
médias que l'écrit. L'illusion ou le détournement de cette
réalité devient l'objet et le sujet de l'art contemporain. La
musique connaîtra également son outil de sonofixation [Chion
1991] : l'enregistrement sonore. Pierre Schaeffer a ouvert une voie
foncièrement nouvelle, en démontrant à partir de 1948 tout
l'intérêt musical à retirer d'une conception perceptive et
morphologique [2] de la composition qu'il appellera
<<musique concrète>>. Celle-ci émane directement de la
possibilité de travailler le son en temps réel, de le considérer dans
la totalité de ses qualités sensibles, d'être à l'écoute
immédiate du temps en cours d'élaboration (attitude expérimentale
du compositeur), de remonter le temps fixé sur un support. Nous
vivons actuellement une nouvelle étape importante de l'histoire musicale en
Occident [Delalande 1994] : Jusqu'au Douzième siècle, la
mémoire du répertoire passait par celle des hommes. De
génération en génération, une constante
répétition, bientôt aidée de quelques neumes, entretenait la
connaissance et l'évolution des musiques. Ensuite, grâce au
développement de l'écriture par codification des neumes, le
répertoire, mémorisé sur parchemin, donne lieu à
d'infinies combinaisons sonores que la mémoire seule n'aurait pu produire : de la
polyphonie aux oeuvres instrumentales contemporaines, l'élaboration d'une
pièce passe désormais d'abord par le signe, et même se sert du
signe comme fondement de l'oeuvre. Il est significatif que la notion d'oeuvre
"signée", la notion de compositeur, apparaisse en Occident en même temps
que la complexité de la polyphonie [3]. C'est aussi, bien sûr, le moyen de communication
privilégié du compositeur avec l'interprète (dont la prise de
pouvoir grandissante a contraint le compositeur à affiner son système
d'écriture pour mieux en préciser la complexité).
Après l'invention des moyens de reproduction directe du son, (les
premiers sont le paléophone de Charles Cros, puis le
phonographe d'Edison, tous deux de la même année 1877),
pourquoi en passer encore par l'écriture ? Sinon comme moyen de
communication avec les instrumentistes éventuels, dans le cadre des musiques
mixtes, ou de transcription graphique aux fins d'analyse ou de spatialisation d'une
pièce déjà réalisée sur support. Pourquoi en passer
encore par la "note" comme fondement de l'oeuvre, alors que l'accès au son lui-
même, avec toutes ses qualités est rendu possible ?
Aujourd'hui, les machines à mémoriser, analyser, traiter,
synthétiser le son transforment nos modes de penser la musique. Micros,
enregistreurs, stations de travail direct-to-disk, échantillonneurs,
séquenceurs MIDI, synthétiseurs sont les outils avec lesquels se forge un
nouveau rapport à la fois concret [4] et
abstrait, instantané, qui porte autant sur la micro que la macro-structure du son et
de l'oeuvre. La musique électroacoustique n'est pas seulement la
résultante d'un nouvel instrumentarium, c'est surtout une autre façon de
penser le sonore et de l'organiser. Son histoire récente ne peut donc se contenter
de l'évolution des seuls moyens technologiques, ou des studios, elle est aussi
liée aux idées, ne serait-ce qu'à travers les termes qui ont
tenté de la définir, aux esthétiques qui la traversent, aux genres
très diversifiés qui l'englobent, aux oeuvres et aux hommes qui la
font. Le sujet ainsi défini étant plus vaste que ce qu'autorise le
cadre d'un article, suivront ici quelques pistes principales pour orienter le lecteur, en un
style qu'il me pardonnera d'être plus efficace que littéraire. De plus, il s'agit
d'une version possible de l'histoire, d'un point de vue d'artiste qui passe
forcément par l'interprétation et le jugement de valeur. 1.
Les prémisses : bruit, mécanique, vitesse.
La civilisation industrieuse du Dix-neuvième siècle, celle des
usines, des métiers à tisser mécanisés, de
l'électricité, celle des expositions universelles et des utopies, d'Eiffel et de
Jules Verne, cette civilisation ne pouvait que générer un bouleversement
des habitudes artistiques. Les futuristes italiens Marinetti et Russolo l'ont
compris, en organisant à travers toute l'Europe à partir de 1913 des
"concerts bruitistes" générés par des bruiteurs :
glouglouteurs, froufrouteurs et autres instruments insolites. Edgard
Varèse frappé par le tourbillon dynamique de New York, et la nouvelle
nature sonore dans laquelle ses habitants vivent -- cf. Amériques (1919-
21) pour orchestre, en attendant mieux... -- mais agacé par la position des
futuristes qui s'arrêtent au bruit comme source et mode de jeu instrumental, appelle
de ses voeux dès 1916 les outils qui lui permettraient une musique cosmique,
élargie au total sonore de l'univers, les machines qui l'aideraient à
organiser, composer avec ces sons. Voeux qu'il eut le bonheur de réaliser en
1954 dans Déserts pour orchestre et interpolations de "sons
organisés" sur deux bandes monophoniques puis dans le Poème
Électronique en 1958. [5]
Conlon Nancarrow, en 1935, écrit un duo pour violon et piano
mécanique : une toccata, première pièce mixte de
l'histoire, où le rouleau perforé, mémoire de l'oeuvre, permet une
restitution exacte du temps (mais non du son) sur lequel l'instrumentiste se synchronise.
C'est la préfiguration du rapport "temps réel" et "temps fixé" qui
caractérise ce genre [Tiffon 1994]. John Cage dans la première
pièce de son cycle Imaginary Landscape (1939-1952), met en
présence un piano, une cymbale chinoise et deux phonographes à vitesse
variable, sur lesquels sont lus des disques de sons sinusoïdaux de
différentes fréquences, manipulés à des vitesses
différentes, selon la partition. Comme cette oeuvre était destinée
à une radiodiffusion, un cinquième interprète est prévu
pour déterminer les dynamiques dans le studio. C'est donc là la
première utilisation musicale d'un son fixé sur un support [Schrader
1982]. 2. Les outils pour le faire : les instruments, les premiers
studios.
Deux catégories d'outils naissent quasi
simultanément à la fin du Dix-neuvième[6]siècle, qui préfigurent deux conceptions
différentes et complémentaires de la musique
électroacoustique : La production de sons nouveaux qui,
du Telharmonium au synthétiseur, conserve une relation plus ou moins
étroite avec le jeu instrumental, le "temps réel" [7]le plus souvent, l'instrumentiste et la notation solfégique.
La reproduction sonore, d'autre part qui, tout comme la
photographie, passe d'un usage utilitaire (garder trace, témoigner, mettre en
mémoire, réécouter) à une élaboration artistique du
média. Après 1950, à la suite de la France, la plupart des studios
européens utiliseront l'enregistrement en ce sens, en attendant que le
support entre dans les moeurs technologiques d'aujourd'hui, par le biais des
disquettes, disques durs et autres CD-ROM. La musique conçue par et pour le
support s'appelle actuellement acousmatique pour la plupart des
praticiens. Enfin, simple outil de transduction sonore au
départ, le haut-parleur devient selon des dispositifs et concepts esthétiques
différents, un outil de projection sonore, de spatialisation, le plus souvent
conçu pour animer, interpréter les musiques de support.
A. Produire le son
Le premier instrument électrique
fut donc celui de Thaddeus Cahill le Dynamophone qui comportait douze
générateurs de courant alternatif produisant chacun sept harmoniques. Il
s'agit donc là de la première recherche en synthèse
additive [8]pour reconstituer un nouveau
timbre ; aujourd'hui on ne compte plus le nombre de synthétiseurs, anciens
ou récents, basés sur ce principe ! Rendu public à
Washington en 1900, il est perfectionné (145 générateurs) et
installé en 1906 à New York au Telharmonic Hall, sous le nom de
Telharmonium. Les New-yorkais pouvaient écouter ses sonorités
retransmises par téléphone. En 1920, Léon
Thérémin directeur du tout nouveau laboratoire d'oscillation
électrique de Saint-Petersbourg, invente un instrument mélodique
spectaculaire : en déplaçant la main par rapport à une
antenne, on crée des interférences de vibrations à haute
fréquence, dont on entend la fréquence différentielle, pendant que
l'autre main agit sur l'amplitude du son. Le Termenvox d'abord appelé du
beau nom d'Aetérophone préfigure une autre direction que prendra
la recherche musicale : celle qui se préoccupe de l'accès gestuel
à la machine, de l'interface homme-machine-son et sa conformation à la
physiologie naturelle de l'être humain et à la traduction gestuelle de sa
sensibilité. Sujet ô combien d'actualité dans nos rapports quotidiens
et minimalistes "oeil-clavier-souris" à l'ordinateur ! Le Termenvox (ou
Thérémin comme on l'appelait plus communément) a
été produit en série par RCA aux USA en 1929. Edgard
Varèse inclura deux Thérémin, qu'il fit modifier, dans
Ecuatorial en création à New-York en 1934.
Dès lors, nombre d'appareils vont voir un jour
éphémère, principalement en Allemagne. Ainsi le
Sphärophon conçu par Jörg Mager qui est
considéré comme le fondateur de la recherche électronique
allemande, produisait avec précision jusqu'au huitième de ton. Alois Haba
(partisan de la musique en quarts de ton) et Hindemith qui l'entendit au festival de
Donaueschingen en 1926, étaient parmi les musiciens les plus enthousiastes.
Mager imagina également des "radiateurs de timbres", haut-parleurs qui
participaient directement à la synthèse du son par leurs capacités
à modifier le spectre harmonique grâce à des membranes
différentes en bois, papier de soie, etc... C'est aussi pour lui permettre de
travailler dans de bonnes conditions que la Studiengesellschaft für elektro-
akustiche Musik, première association en faveur de la recherche
électroacoustique, fut créée à Darmstadt en 1929.
Trautwein construit son Trautonium [9]en 1928, avec le soutien du compositeur Paul
Hindemith (qui composera un concerto pour Trautonium et cordes) dont il était
l'élève au conservatoire de Berlin. Son instrument fut
commercialisé sans grand succès, par Telefunken. Il forma un groupe de
recherches avec quelques condisciples, dont Oskar Sala qui en utilise aujourd'hui encore
une version améliorée par lui en 1949 : le Mixtur-
Trautonium [Künelt 1981]. En France, Maurice Martenot, par
ailleurs auteur d'une célèbre méthode de formation en
solfège, assiste à un concert donné par Thérémin
à Paris et décide de doter l'orchestre symphonique d'une nouvelle
sonorité. Il conçoit un instrument monodique qui produit tant les
fréquences du système tempéré par clavier que des
glissandi par déplacement d'un anneau sur un fil métallique. Le timbre est
modifié par des haut-parleurs de caractéristiques spectrales
différentes, comme l'avait imaginé Mager. Les Ondes Martenot
ont connu un succès immédiat : André Jolivet, Darius
Milhaud et Olivier Messiaen lui ont consacré des oeuvres très
réussies. Toujours utilisées aujourd'hui, elles ont
bénéficié longtemps du statut officiel d'un instrument
enseigné au conservatoire de Paris par Jeanne Loriod. [10] Le synthétiseur aux possibilités
multipliées par le nombre d'oscillateurs et de modules de traitements, et par le type
de synthèse utilisé [11]couronnera les années de recherches
électroniques. Le premier fut construit en 1935 sous le nom de
Variophone par Sholpe à Leningrad. Les premiers studios de musique
électronique étaient équipés de générateurs
électroniques de fréquences volumineux, précis,
commandés manuellement, conçus pour des mesures de laboratoires. Mais
c'est à partir de 1964 que l'américain Robert Moog et l'anglais Peter
Zinovieff (sous le label Ems) vont rendre cet instrument populaire, en appliquant une
commande en tension (Voltage Controler) aux modules oscillateurs (VCO), amplificateurs
(VCA) et filtres (VCF), ce qui en automatise le jeu. Don Buchla construit, sur le
même principe, le premier synthétiseur modulaire de studio, avec l'aide de
Morton Subotnick (entre 1959 et 1966). Le "synthé" fait désormais partie
du studio, comme la célèbre mallette transportable Synthi AKS de
Ems que Stockhausen affectionnait. En 1968, Francis de Coupigny construit pour le
GRM[11] le premier synthétiseur modulaire
à matrice de contrôle par voltage. Les Pink Floyd popularisent le Poly-
Moog, premier instrument à clavier qui pouvait émettre plusieurs
notes et accords simultanément. Aujourd'hui, le Disklavier de Yamaha,
piano acoustique à commande MIDI, renouvelle les possibilités de jeu et
de mémorisation du jeu pianistique dans la lignée des anciens pianos
mécaniques, comme le démontrent les oeuvres que Jean-Claude Risset lui
a consacrées. Cette catégorie des instruments
électroacoustiques à clavier, (de l'orgue Hammond, -- Chicago,
1934 : dix mille instruments vendus jusqu'en 40 -- au synthétiseur), va
d'ailleurs contribuer à la confusion, toujours en cours en raison des claviers
MIDI, entre le genre électroacoustique, qui dérive des expériences
musicales pratiquées dans les studios (musique concrète, musique
électronique) et les instruments électroacoustiques (ou
électroniques, ou informatiques) qui ont proliféré [12] et permis à la musique populaire
(électro-rock, électro-pop, heavy metal, industrielle, etc...)
d'évoluer vers ce qu'elle est actuellement. Il s'agit une fois encore de
l'éternel clivage entre art "savant" et art "populaire", même s'ils se servent
maintenant des mêmes outils, des mêmes "home studios", même si
quelques échanges stylistiques de bon voisinage ont parfois cours, surtout en
Amérique du Nord. Ceci explique le désir actuel, que d'aucun pourraient
trouver excessif, de certains compositeurs ou groupes de compositeurs, de s'inventer
d'autres appellations qui ciblent mieux leur pratique plutôt que le terme
"électroacoustique", trop général. [13]
B. Reproduire, fixer le son
En 1935, la société AEG présente, à l'exposition
de la radio allemande à Berlin, le premier enregistreur sur bande
magnétique qui ait été produit industriellement : le
Magnetophon K1. La bande elle-même était produite par BASF,
(qui s'appelait alors I.G. Farben ; c'était déjà du pigment
métallique collé sur une base en plastique). En fait, l'ingénieur
Oberlin Smith de Cincinnati avait, dans un article intitulé <<Some Possible
Forms of Phonograph>>, déjà proposé l'enregistrement
électromagnétique en 1888. Dès 1878 il en avait construit et
testé deux exemplaires, après avoir vu le phonographe d'Edison [Thiele
1988]. L'enregistreur sur fil métallique de l'américain Webster fut
commercialisé aux USA en 1947 avec un certain succès. Bien sûr,
il y eut les cylindres d'Edison, les phonographes à enregistrement sur disques de
cire, disques de vinyle etc., mais la bande magnétique permettra d'intervenir sur le
déroulement des événements enregistrés. L'heure
du montage sonnera dans les années cinquante [14], montage qui sera alors le véritable point de
départ de la composition musicale sur support, ou plutôt de
l'écriture grâce au support, qui développera progressivement ses
techniques à partir d'une constatation simple et révolutionnaire : on
peut désormais travailler directement avec le son, avec tous les sons, les
écouter et les répéter à satiété, entendre des
objets sonores détachés de leur contexte originel, composer avec les
morphologies (déroulement d'une forme dans la durée, au sens d'une
enveloppe d'amplitude), tenir compte de leur matière, de leur énergie
interne. On peut enfin articuler [Wehinger 1970]tous les sons dans un
langage et leur donner sens. L'attitude phénoménologique face aux sons
sera l'autre conséquence de la sonofixation : par l'écoute
répétée, le compositeur affine sa perception, travaille les
différents registres de son écoute, variables selon les moments et le
contexte, et les retransmet à travers ses oeuvres à un public dont il forme
et espère la même perception attentive.
Le premier concert spatialisé eut lieu en 1951 dans la salle du
théâtre de l'Empire à Paris. Le jeune Pierre Henry est aux
commandes d'un pupitre potentiométrique à quatre canaux conçu
par Poullin et Schaeffer pour, selon la notice technique du programme, <<associer la
forme musicale proprement dite à une forme spatiale statique ou
cinématique, (...) les sons se projettent suivant des plans ou des trajectoires qui
s'inscrivent dans la hauteur, la largeur et la profondeur>>. Un an plus tard, le 23
mai 1952, dans la salle de l'ancien conservatoire de Paris, une commande par effet de
champ ajoute à l'espace matérialisé par de larges cerceaux
croisés, le spectacle des gestes de Pierre Henry agissant sur la balance des haut-
parleurs qui produisaient un mouvement analogue du son dans l'espace de la salle [Bayle
1977]. Actuellement certaines recherches continuent à rendre au geste global, de
type instrumental ou non, la commande des machines de son ou d'espace, à
imaginer de nouvelles formes de relation homme-machine. [16] Après le maelström sonore des 425
haut-parleurs tapissant les murs du pavillon Philips à l'expo 58 de Bruxelles,
Xenakis crée Bohor en 1968, en quatre canaux
stéréophoniques circulaires qui, par l'accroissement des informations,
affinent la perception de la diversité des microstructures du son. En 1970, lors de
l'exposition universelle d'Osaka, il conçoit pour le spectacle audiovisuel du
pavillon de la fédération japonaise de l'acier (Hibiki-Hana-Ma),
une architecture sonore sur 800 haut-parleurs avec une automatisation des mouvements
sur 12 pistes de bande magnétique. Dans la même exposition, Stockhausen
réalise une sphère acoustique, matérialisation d'un espace total
où toutes les directions sont équivalentes, la pesanteur niée,
comme dans le vide cosmique, et <<l'oeuvre magnifiée comme un univers en
révolution autour de l'auditeur qu'elle englobe>> [Chion 1977], les
auditeurs étant placés sur une passerelle au centre de la sphère.
Léo Küpper aura la même volonté d'environner le public avec
sa coupole sonore (la première fut élaborée en 1977 à la
Galerie Nationale d'art moderne à Rome), et d'en construire l'espace à
partir de 54 sources de synthèse distribuées sur plus de 100 haut-parleurs.
Le Halaphon de l'allemand Haller permet le contrôle entièrement
automatique de la direction et de la durée des évolutions spatiales (cercles,
diagonales, forme en huit), avec variations continues pendant le concert. Pierre Boulez
l'emploiera lors de la création de la première version de Explosante-
Fixe en 1973 à New-York [Haller1972]. Mais ce sont là
des installations exceptionnelles ! Encore fallait-il imaginer des systèmes
de spatialisation plus mobiles et qui s'adaptent à n'importe quel lieu, et surtout
à la salle de concert "à l'italienne" la plus courante. En 1973, Christian
Clozier présente le Gmebaphone ensemble frontal de haut-parleurs de
registres différents, qui vont automatiquement distribuer les sons sur l'espace
scénique selon leurs fréquences. Un an plus tard, François Bayle
inaugure son Acousmonium à Paris, avec son cycle d'oeuvres
l'Expérience Acoustique. L'originalité de cet outil de spatialisation
toujours utilisé actuellement et devenu une sorte de standard pour les
pièces stéréophoniques de la musique acousmatique, <<tient
dans la disposition non plus de sources ponctuelles (ce jeu des quatre coins qui, bien que
vieux, se pratique encore), mais de séries d'écrans sonores en paires
stéréophoniques, étagées doublement -- en plusieurs
degrés du très proche au très lointain, et jouant en transparence --,
et en registres et calibres, depuis celui, fin, des "arbres" placés dans le public,
jusqu'aux gros "orchestres" de trompettes et de boomers>> [Bayle, in Dhomont
88]. Ces systèmes font apparaître la nécessité
d'un nouveau métier d'interprète : le spatialisateur met en
évidence la structure de l'oeuvre et les profondeurs de champ inscrites sur le
support, met en relief les dynamiques, augmente la perception des mouvements
intrinsèques des sons (leur énergie interne) en leur donnant une vie
extrinsèque dans l'espace de projection. D. Les premiers studios []
Bien évidemment, la musique
électroacoustique est dépendante des inventions technologiques
dont elle se sert, et le plus souvent les détourne de leurs fonctions
premières, les pousse plus avant, ou en imagine d'autres. Elle se trouve donc tout
naturellement liée, dès le départ, aux studios de recherches
musicales. En Europe, ce sont les stations de radio qui ont
abrité ces studios, étant donné l'équipement de base et les
compétences techniques similaires.
Le Studio d'Essai de Radio-
Paris fut le premier. Pierre Schaeffer y fit, en avril 1948 [Schaeffer 1952], ses
premières expériences de musique concrète en gravure directe sur
disques 78 tours. Il fut le premier à comprendre l'intérêt et les
implications possibles d'une utilisation musicale des moyens d'enregistrement (la
fameuse boucle du disque rayé, qui devient un objet sonore sans début ni
fin, une répétition...). Avec l'aide de Jacques Poullin, il développe
le phonogèneuniversel et le morphophone, premiers
outils de transformation sonore, pour, par exemple, transposer un son de façon
continue ou par demi-ton sans en changer la durée, ou au contraire, l'allonger ou
le raccourcir sans en changer la hauteur [17].
Pierre Henry, compositeur puissant, à la fois baroque par ses vastes brassages
sonores et rigoureux dans sa facture, apportera aux expériences de Schaeffer toute
sa fougue, son savoir faire de musicien percussionniste, ce dont on peut se rendre compte
à l'écoute de son Microphone bien tempéré (1951),
suite de courts mouvements à partir de sons joués dans les cordes du
piano. Leur collaboration produira un des chefs d'oeuvres de la musique
concrète : la Symphonie pour un homme seul (1950), sur laquelle
Maurice Béjart fera sa première chorégraphie en 1955 [18]. Ce tout premier studio de l'histoire de la
musique électroacoustique est toujours en pleine activité dans le
bâtiment de Radio- France avec un répertoire de plus de 1200 oeuvres
à son actif. Sous l'appellation GRM (Groupe de Recherches Musicales,1958), il
poursuit une tradition active à la fois esthétique [19](et c'est d'ailleurs un des rares lieux de réflexion qui,
à l'instigation de son directeur actuel, François Bayle, organise
régulièrement, outre douze concerts par an, des
séminaires [20]et
rencontres de compositeurs), et technologique, comme le système SYTER, outil
de traitement par ordinateur en temps réel. Pierre Henry, Luc Ferrari,
François-Bernard Mâche, Bernard Parmegiani, Ivo Malec, Guy Reibel en
ont été, avec François Bayle, les membres de la première
génération. Jacques Lejeune, Michel Chion dont les écrits ont
contribué à la diffusion des idées esthétiques du groupe,
Jean Schwarz, Christian Zanési, Denis Dufour, puis Daniel Teruggi, et
François Donato forment une deuxième et troisième
génération de membres compositeurs permanents. A la radio de la
West Deutsche Rundfunck à Cologne, le D[r] Werner
Meyer-Eppler et Robert Beyer, bientôt rejoints par Herbert Eimert font entendre, en
1951, leurs "modèles sonores" électroniques, persuadés d'avoir
trouvé en la génération électronique des sons le moyen
d'en contrôler tous les paramètres (fréquence, durée et
amplitude surtout) pour une écriture sérielle plus précise [21]. L'idée que la <<structure interne
du son peut devenir une partie de la structure compositionnelle>> sera reprise aux
débuts de la musique par ordinateur et par l'école spectrale
française. Kalheinz Stockhausen fera, par ses oeuvres, la renommée
internationale du studio. Déçu par la musique concrète
(Étude aux mille collants, 1952), il y réalise deux minutieuses
études électroniques sérielles, puis un des "classiques" de la
musique électroacoustique : Gesang der Jünglinge (1956),
toujours construit selon l'esprit sériel, mais cette fois en utilisant deux sources
opposées, la voix d'un jeune garçon et les sonorités
électroniques, chacune variée selon onze catégories de timbre, et
en construisant des analogies entre ces éléments. C'est également
une des premières pièces où l'espace parfois ajouté
à la voix (par réverbération artificielle) participe à la forme
de l'oeuvre. C'est également dans ce même studio que Kontakte,
sera réalisée en 1960. D'emblée, Stockhausen pressent comment
réaliser l'équilibre, la fusion extrêmement fragile entre des
instruments acoustiques et des sons travaillés et fixés sur un support, ce
genre hybride qu'on appellera "musique mixte". Kontakte est pensée
comme une musique de chambre en trio pour percussions, piano et bande, où
chaque partenaire est en dialogue avec les autres, sans prééminence. Ce
sera loin d'être le cas dans beaucoup d'oeuvres mixtes, où la bande n'est
trop souvent qu'un faire valoir de la virtuosité instrumentale. A la
France et l'Allemagne s'adjoint très vite l'Europe du Sud, avec la création
en 1955 du Studio de Phonologie de la RAI Milan) par le chef d'orchestre Bruno
Maderna et le compositeur Luciano Berio [22], qui orienteront leurs recherches, après les
premières oeuvres électroniques, vers une voie médiane entre la
musique concrète française, son attitude expérimentale sur le son
lui-même et la musique électronique allemande, sa rigueur structurelle. Les
oeuvres vocales y seront nombreuses [Gentilucci 1972]. A l'Est, la radio de
Varsovie ouvre en 1957 son studio expérimental à l'instigation du
musicologue Patkowski et du compositeur Wiszniewski, studio qui produira beaucoup de
musiques pour le cinéma, le théâtre, comme celle de Wiszniewski
pour l'Orphée de Cocteau. Il offre la particularité d'accueillir des
compositeurs n'ayant aucune expérience du studio grâce à la
présence permanente d'un compositeur-technicien assistant. Le compositeur
Eugeniuz Rudnick toujours en activité, fut l'un d'entre eux [23]. Les années cinquante ont
été prolifiques en studios de recherche [24]. Citons encore le studio de la radio japonaise NHK à
Tokyo (1956), où Mayuzumi, Moroî, Takemitsu réussiront
l'intégration des instruments traditionnels, la symbiose du goût japonais
à la fois pour les mathématiques et la nature avec les nouvelles
techniques.[25] Le Studio de
Sonologie de l'université d'Utrecht dirigé à partir de 1964 par
Gottfried- Michael Koenig [26], se
spécialise dans la recherche de processus abstraits de composition,
spéculation formelle qui attache plus d'importance à la rigueur complexe
du calcul qu'au résultat perçu. Il sera un des premiers à
développer cette recherche sur ordinateur. Ce studio fonctionne toujours
aujourd'hui, transféré en 1983 dans le cadre du conservatoire de Den
Haag (La Haye), sous la direction de Konrad Boehmer, et fréquenté par
de nombreux chercheurs et étudiants. En Flandre, à Gand,
le studio de l'université est fondé en 1962 avec Karel Goeyvaerts, qui
avait travaillé au studio de Cologne, et Lucien Goethals. Jusqu'en 1985, il
accueille de très nombreux compositeurs belges, comme le très prolifique
Louis de Meester, Boudewijn Bukinx, et des compositeurs étrangers. Il compte
plus de 800 oeuvres à son répertoire. Quelques studios dus
à des initiatives privées ou à du mécénat industriel
naissent également dans ces années de reconstruction après la
guerre : A Bruxelles, l'exposition universelle de 1958 avait permis
de découvrir le Pavillon Philips conçu par Xenakis, écrin de pierre
pour le Poème électronique de Varèse qui réalisait
enfin ce à quoi il rêvait déjà en 1916 : créer
une musique <<avec de nouveaux moyens techniques qui puissent se prêter
à n'importe quelle expression et la soutenir>>. Sur les 425 haut-parleurs
qui créaient des "chemins de sons", Xenakis y fait aussi entendre Concret
PH, reflet sonore de l'architecture du pavillon [Vivier 1973], conçu à
partir d'un enregistrement de charbon de bois réagencé par micro-montage
en densité croissante. C'est dans le cadre du pavillon français que Pierre
Schaeffer et Luc Ferrari créent les études de compositions fondées
sur des critères typo-morphologiques (allures, sons animés, accidents,
sons tendus). Takemitsu, Mayuzumi, Ussachevsky et bien d'autres se font entendre sur
100 haut-parleurs distribués sur la voûte du planétarium. Le jeune
Henri Pousseur décide alors la création d'un studio électronique
à Bruxelles, l'Apelac, où il réalisera plusieurs musiques
de concert, comme Rimes pour trois groupes orchestraux et bande, et des
musiques pour le spectacle. Léo Küpper et Arsène Souffriau y
travailleront également. En Suisse, le chef d'orchestre Hermann
Scherchen, spécialisé dans l'interprétation des musiques
contemporaines, installe trois studios chez lui, s'intéresse à une recherche
technologique sur les haut-parleurs[27], et
édite une revue trimestrielle musicale et scientifique très
documentée : le Gravesano Blätter. Enfin, deux
industries audio-électriques, Siemens à Munich et Philips à
Eindhoven, ouvrent leurs laboratoires de recherche aux compositeurs. Joseph-Anton
Riedl dirigera le studio de Munich, et Edgard Varèse composera son
Poème électronique à Eindhoven. Ce studio s'est ouvert
à la création artistique grâce à l'initiative du compositeur
Henk Badings. Heureuse époque de mécénat direct !
E. Et le continent nord-américain, pendant ce temps ?
Le développement de la musique électroacoustique aux
USA a pris du retard par rapport à ce qui se passait en Europe, entre autres parce
qu'il n'y a pas de politique gouvernementale de soutien aux arts, et pas de radios
subsidiées par l'Etat qui auraient pu abriter des studios. Tout est donc parti
d'initiatives privées[28][Schrader
1982]. En 1951, à New York, John Cage reçoit d'un
mécène privé une bourse importante pour la composition d'une
oeuvre. Il décide un projet collectif de pièces pour bande
magnétique caractérisées par l'emploi du hasard (comme le collage
aléatoire de morceaux de bandes, le tirage au sort, et dans son cas, la consultation
du I-Ching, le Livre des Transformations chinois). Earl Brown, avec Octet,
Morton Feldman, David Tudor et Christian Wolff participent à l'aventure. Cage
produira William Mix, avec l'aide de Louis et Bebe Barron, sorte de grand
kaléidoscope apparemment cacophonique sur huit bandes monophoniques,
formé par un montage précis qui transforme l'enveloppe globale des sons
selon les coups de ciseaux, et par mixage deux pistes de quelques six cents
enregistrements[29]. C'est, en Amérique
du Nord, la première oeuvre qui dissocie les procédés de
fabrication (le faire) du résultat perçu (l'entendre). En mai 1952,
à New York toujours, dans l'auditorium de l'université de Columbia
où il enseigne, Wladimir Ussachevsky, bientôt rejoint par Otto Luening,
présente le premier concert de "Tape music", appellation tout simplement
instrumentale, parce qu'il utilise un "Tape Recorder", sans aucune
référence à l'idée du support (bande). Sans a priori
esthétique, tous les sons (instrumentaux, naturels, de synthèse) font
farine au moulin d'une production pléthorique qui tente, surtout chez Luening, de
faire <<une jonction entre leur propre démarche instrumentale d'un style
assez conventionnel et un emploi extrêmement libre des nouveaux moyens
électroniques>> [Chion 1976]. Ils signent plusieurs musiques en commun,
dont celle du film King Lear d'Orson Welles. Leur studio est relativement peu
équipé de quelques modules de traitement et d'enregistreurs,
modifiés par l'ajout de variateurs de tensions pour en changer la vitesse de
déroulement de façon continue (ce qui donnera lieu à plusieurs
oeuvres, comme Sonic Contour, 1952, de Ussachevsky, fasciné par cette
transformation où spectre, fréquence et durée étant
liés, on donne la sensation d'entrer dans un monde sonore inconnu lorsque on
ralentit fortement la lecture d'une percussion/résonance de piano, par exemple ).
Grâce à une subvention de la fondation Rockfeller et à leur
ténacité, le studio, jusqu'alors "sans domicile fixe", sera rattaché
aux universités de Columbia et Princeton en 1959, sous leur direction conjointe et
celle de Milton Babbitt [30]. Ce studio est
toujours en activité, et très fréquenté. Il est actuellement
dirigé par Mario Davidovsky. Sur la côte ouest, à San
Francisco, Morton Subotnick fonde en 1959, à vingt six ans, le Tape Music
Center. Une des premières femmes qui se soit investie dans ces recherches,
Pauline Oliveiros y a également travaillé, ainsi que Terry Riley. Ce studio
était équipé de modules prototypes de synthèse construits
par Donald Buchla, qui se trouvent être les premiers synthétiseurs
modulaires de studio contrôlés en voltage. Il sera ensuite
transféré au Mills College. Subotnick réussit, grâce
à la précision et aux très nombreuses ressources du Buchla 100,
à construire des timbres en tant qu'éléments structurant la
pièce, en lieu et place des hauteurs de notes. [31] En fait, le premier studio institutionnel fut
créé à l'Université d'Illinois en 1958, sous la direction de
Lejaren Hiller, connu comme pionnier de la "Computer Music", puisque ce studio
expérimental était implanté dans le centre de recherches en
informatique, directement intéressé par une application des calculs de
programmation à la musique. La recherche, la composition et l'enseignement sont
donc liés et encouragés [32]. Toujours en activité, les studios sont aujourd'hui en
partie orientés vers la recherche en Réalité Virtuelle. Dans le
domaine de la "Life electronic music", le "Sonic Art Group", composé de Robert
Ashley, David Berhrman, Alvin Lucier et Gordon Mumma, a provoqué des
réactions très positives avec une musique improvisée, (sauvage
selon Henri Pousseur), à partir de corps sonores en tout genre, branchés
par micros-contact sur un dispositif électroacoustique bricolé pour un
traitement par intermodulation ou ringmodulation. Gordon Mumma , le plus technicien
des quatre, inventa le "cybersonic", étude des intermodulations résultantes
de deux sons en déplacement, comme celui de deux haut-parleurs émettant
chacun une fréquence et qu'il fait tournoyer au dessus du public en les tenant par
leur câble. Aujourd'hui encore, la diversité des origines
culturelles et l'immensité du paysage américain ne permettent pas de
discerner un style, une école électroacoustique. Peut-être y trouve-t-
on quelques points communs : Chaque université
d'importance moyenne possède son centre de "computer music" ou "electronic
music", dont la fréquentation fait partie des études musicales ou audio-
techniques. C'est donc, contrairement à l'Europe, au sein des circuits
d'enseignement, dans des milieux jeunes et privilégiés que se
développe la recherche musicale. Les concerts et manifestations ont le plus
souvent lieu sur les campus, eux-mêmes souvent isolés de la ville qui les
accueille. L'enseignement dispensé met l'accent sur les machines, leur
fonctionnement, les logiciels, la programmation plutôt que sur la musique
même [33]. La recherche elle-
même bénéficie de moyens financiers importants pour
développer des outils informatiques. Aux USA, berceau de l'informatique
musicale, les plus aboutis de ces outils sont ensuite commercialisés. (Ainsi qu'il
en fut, par exemple, de la synthèse par modulation de fréquence de John
Chowning, commercialisée par Yamaha dans le célèbre
synthétiseur DX7.) Il est d'ailleurs symptomatique que le public soit
atteint à travers ces recherches technologiques plutôt que par les oeuvres
musicales qui restent confinées dans des circuits principalement universitaires.
Rarement conçue pour elle-même, comme "musique pure"
selon la terminologie européenne, la musique nord-américaine aime se
fondre et se confronter à d'autres canaux de perception, à d'autres
médias. Le spectacle multimédia (film, vidéo, installation
environnementale, danse, rayons laser, images de synthèse, réalité
virtuelle...) reflète un certain goût pour les défis technologiques, la
mise en place de systèmes interactifs, la création d'un
"événement" original [34].
Le contenu de l'événement semble moins important que sa forme. N'est-
ce pas un piège ? Enfin, actuellement les compositeurs nord-
américains préfèrent le caractère spectaculaire,
instrumental et interactif de certains outils électroacoustiques joués sur
scène en temps réel au travail de studio stricto sensu. La
"performance" individuelle, le concert de Live Electronic Music comme on
l'appelait dans les années 70, la musique interactive des années 80
rencontrent plus de succès sur les campus, dans les concerts et dans les colloques
associatifs. Dans les studios, l'enregistreur, sauf au cours des années cinquante
influencées par l'Europe et la musique concrète, est
relégué dans sa fonction utilitaire : garder en mémoire une
performance, un mixage. Donc, peu d'écriture du support. Au
Canada, la plupart des centres sont également situés au sein des
universités. Sauf le plus ancien, le laboratoire de musique électronique du
conseil national de la recherche, fondé par Hughes Le Caine à Ottawa.
Génial inventeur, il a aussi participé à la fondation des studios de
l'université de Toronto (1959), de l'université McGill à
Montréal (1964), et de l'université de Kingston ! Les quelques
courtes pièces qu'il a composées (99 Generators) servaient
à essayer les possibilités de ses inventions. (Parmi ses inventions,
citons : le Sond, banc de plusieurs centaines d'oscillateurs ; le
Sackbutt, synthétiseur avec touches à enfoncement variable,
etc.). L'essor de la musique électroacoustique dans le paysage culturel
canadien, et singulièrement québécois, est absolument
remarquable. Depuis que Norman Mac Laren et Maurice Blackburn ont eu l'idée
en 1955 de graver directement la pellicule optique, en synchronisme avec l'image,
plusieurs générations de compositeurs ont en commun de conserver le
dynamisme de l'esprit pionnier dans toutes les strates de la vie socioculturelle du pays. A
commencer par un sens aigu de la communauté d'intérêt qui
rassemble les énergies, donne accès aux informations professionnelles,
sans distinctions esthétiques par trop partisanes. C'est le cas d'association comme
la Communauté Électroacoustique Canadienne (CEC), qui compte une
centaine de membres compositeurs, de l'Association pour la Création
Électroacoustique au Québec (ACREQ) fondée par Yves Daoust.
L'autre point fort, c'est l'effervescence créée par un réseau
serré de studios pédagogiques : Vancouver (université
Fraser, où Murray Schafer travailla depuis 1967 à sa vaste enquête
sur l'environnement sonore et son impact sur l'individu), Toronto (avec Gustave
Ciamaga), Québec (à l'université Laval, le studio de musique
électronique est fondé par Nil Parent en 1969, et au conservatoire en 1978
grâce à Yves Daoust) et quatre studios pour la ville de Montréal qui
devient de facto le lieu le plus actif : l'université McGill
(fondé par Anhalt en 1964, actuellement dirigé avec enthousiasme par
Alcides Lanza) ; l'université Concordia en 1971, équipée
progressivement par Kevin Austin, où des concerts réguliers de musiques
sur support sont donnés sur un bon ensemble de haut-parleurs et grâce
à une importante collection de copies d'oeuvres ; le conservatoire (en
1980, Yves Daoust, encore, avec la regrettée Micheline Coulombe Saint-
Marcoux) ; et enfin, l'université de Montréal (1974), où
l'influence du courant acousmatique français est prépondérante
grâce à l'enseignement de Francis Dhomont. Avec sept studios, une
équipe de professeurs qui se complètent et un cursus allant du bac au
doctorat, c'est là, entre autres, que se forme une génération
talentueuse qui remporte de nombreux concours. Stylistiquement, il y a d'ailleurs une
différence marquée entre les "musiques anglophones", technologiques et
abstraites, souvent mixtes et visuelles, et les "musiques francophones", du moins la
plupart, expressives, imagées, sur support.
F. Et
aujourd'hui ?
Depuis ces années
pionnières, le nombre des lieux publics de création a très
fortement augmenté. En Europe, on compte 252 studios en 1992 [Föllmer
1992], et 250 en Amérique du Nord vers 1980. On pourrait
synthétiser les quarante ans d'histoire du genre comme suit :
1950-60 : premiers studios, musique concrète, musique
électronique, Tape Music recherche et adaptation des outils, découvertes
des possibilités musicales. 1960-70 : expansion, musique
électroacoustique, musique mixte, musique expérimentale,
multimédia, synthétiseur modulaire de studio ou à clavier.
Traité des Objets Musicaux : systématisation du
langage. 1970-80 : consolidation, musique acousmatique,
systèmes de spatialisation, synthèse par ordinateur, temps
différé, Live Electronics (traitement en direct), conduites
perceptives. 1980-90 : explosion, musique virtuelle, home
studio, interface MIDI (Musical Interface for Digital Instrument), stations de travail
sur ordinateur, échantillonnage, temps réel, interactivité,
standardisation et commercialisation des outils, expansion du genre grâce au CD,
spatialisation multiphonique. Les années 80 marquent donc un tournant
important : l'informatique temps réel se généralise,
grâce à l'interface MIDI le studio personnel existe, se standardise et permet
des échanges. Paradoxalement, la pensée morphologique concrète
redevient d'actualité en raison des échantillonneurs et enregistreurs sur
disques-mémoires d'ordinateur. La notion de support change de
média : disque dur, CD ROM (sur lequel, et c'est nouveau, une part de
choix est laissée à l'auditeur), commandes MIDI,
séquenceur [35]. Non seulement
l'objet perçu est dissocié de sa source, mais le geste instrumental physique
(clavier par exemple) est un geste de déclenchement dissocié du geste
perçu, simulé. Une nouvelle virtuosité ?
N O T E S
[1]
Cette idée a été déclinée en
plusieurs modes par François Bayle dans le cycle d'oeuvres acousmatiques
Son Vitesse-Lumière, 1983. [2] . Cf., de Schaeffer, ses Cinq études de
bruits (la première, l'Étude aux chemins de fer fut
composée en avril 48). Le lecteur désireux d'approfondir les notions
phénoménologiques appliquées au sonore telles que
l'écoute réduite, l'objet sonore, les sept critères typologiques, les
couples morphologiques, pourra se référer à son Traité
des Objets Musicaux [Schaeffer 1966]. Cf. également son
résumé-commentaire par Michel Chion [Chion 1983].
[3]. Léonin et Pérotin, au
XIIème siècle, à Paris, dans le cadre de la cathédrale
gothique naissante, signe prégnant de la civilisation judéo-
chrétienne dominante. Le rapprochement avec l'étape suivante est
facile : Schaeffer et Henry, à Paris, dans le cadre de la Radio d'Essai
naissante, signe prégnant de la civilisation de la communication dominante
aujourd'hui.
[4]. Concret est pris ici
dans le vrai sens du terme employé par Schaeffer : non comme
désignant la source (où musique concrète signifierait musique
à partir de sons acoustiques ou "naturels"), mais selon la démarche du
compositeur qui inverse le processus habituel de la composition (instrumentale, partant de
la conception abstraite -- plans, graphes, processus, partition, puis réalisation
sonore), au profit d'une conception plus expérimentale, qui prend appui sur les
caractères perceptifs des sons, d'où sont ensuite déduits les
processus et macro-structures, comme une forme sculpturale naît peu à peu
d'un matériau brut. Aujourd'hui, ces caractères ne se limitent plus
à la seule morphologie statique répertoriée dans le
Traité des Objets Musicaux. Les aspects dynamiques, ou
morphodynamiques mis en évidence par François Bayle [Bayle 1992], la
spectromorphologie et ses aspects spatiaux chez Denis Smalley [in Emerson 1986], les
comportements énergétiques, semblables à quelques lois
physiques, la psychoacoustique et les sciences cognitives sont autant de pistes ouvertes
à la recherche musicale.
[5].
Depuis lors, la définition du mot musique a changé. Voici celle qu'on peut
lire dans le Robert : <<art de combiner des sons d'après des
règles (variables selon les lieux et les époques), d'organiser une
durée avec des éléments sonores.>> D'autre part,
Déserts fut créé au théâtre des Champs-
Élysées de Paris, sous la direction d'Hermann Scherchen, en
première retransmission radiophonique mondiale en stéréo. Les
"sons organisés" sur bande ayant été réalisés au
studio de Paris.
[6]. La notion de
"temps réel" est apparue en même temps que son antithèse celle de
"temps différé", lorsque, dans les années soixante, le calcul des
algorithmes de synthèse sonore par ordinateur prenait bien plus de temps que le
résultat ! Toute musique produite hic et nunc par un être
vivant est donc en "temps réel".
[7]. La synthèse additive part du principe qu'un timbre est
dépendant de la quantité, du rang et de l'évolution dynamique des
sons harmoniques d'une fréquence donnée. Schaeffer, entre autre,
démontrera que l'attaque d'un son (les partiels d'attaque) est tout autant
déterminante pour le son.
[8].
Le Trautonium est basé sur la théorie des "formants" : à
partir d'un son fondamental très riche en harmoniques, deux filtres mettent en
évidence les pics d'amplitude de certains harmoniques et font varier la couleur
sonore selon leur position dans le spectre total et leur étendue spectrale (largeur de
bande).
[9]. Cf. de Jolivet :
Danse incantatoire 1937, Concerto pour Onde Martenot 1947 ; de
Messiaen : Fête des belles eaux 1937, pour six Ondes Martenot,
Turangalîla symphonie, 1948, avec Ondes en soliste. Cf.
également, du jeune compositeur québécois Gilles Gobeil, la
pièce pour bande et ondes Martenot, Voix blanche, de 1988-89.
[10]. Pour plus de renseignements
théoriques à ce sujet, cf. Fatus, 1994 (pp. 171-176), et Davies,
1990.
[11]. Le Groupe de
Recherches Musicales fait partie du service de la recherche de la Radio
Télévision Française depuis 1959, et remplace le Groupe de
Musique Concrète.
[12].
Deux modèles de synthés à claviers produits aux USA en 1968.
24 surtout aux USA et au Japon en 1980. 35 en 1986. Au total, 286 modèles
différents de claviers entre 68 et 90. [13] . Ainsi la reprise du terme historique de "musique
concrète" par Michel Chion et celui de "musique acousmatique" par
François Bayle puis Francis Dhomont, Christian Zanési, Bernard Fort,
Denis Dufour et Jean-François Minjard (qui préfèrent cependant
l'expression "art acousmatique"), Jonty Harrison, Annette Vande Gorne, Robert
Normandeau et bien d'autres pour qualifier leur pratique compositionnelle sur
support.
[14]. La Symphonie
pour un homme seul de Schaeffer et Henry, créée en mars 1950
à Paris, est la première oeuvre qui utilise quelques techniques
d'écriture offertes par le montage de la bande magnétique.
[15]. Pour une étude plus
détaillée concernant ces questions, se reporter aux deux volumes de la
revue Lien sur "L'espace du Son", édités sous la direction de Francis
Dhomont [Dhomont 1988 et 1991] et à l'article historique "naissance et
évolution d'une nouvelle dimension du son : l'espace" [Vande Gorne
1988].
[16]. Ainsi les recherches en
réalité virtuelle, dans le domaine proprioperceptif, entreprises depuis 1978
à l'ACROE (Association pour la Création et la Recherche sur les Outils
d'Expression) où Claude Cadoz et son équipe étudient sur le
Clavier Rétroactif Modulaire le geste instrumental et sa relation à des
modèles physiques appliqués à la synthèse par
ordinateur ; De même, le Media Lab du MIT et Tod Machover travaillent sur
la relation à l'ordinateur par décodage des gestes instrumentaux
humains ; Michael Waisvisz, au studio Steim d'Amsterdam, en relation avec le
Studio de Sonologie de La Haye (Den Haag), déclenche des
événements par une gestique corporelle dans un espace scénique
(The Hands, 1986). Leo Küpper (Bruxelles) invente le kinéphone,
clavier qui articule la distribution spatiale sur 50 canaux selon le toucher
(vélocité-pente d'attaque, poids-amplitude). Todor Todoroff mène
actuellement au conservatoire de Mons (Belgique) une recherche qui se sert du gant de
données pour déplacer des sons entre plusieurs haut-parleurs.
[17]. <<Le phonogène permet
d'étaler ou condenser la forme dynamique d'un son sans en modifier la hauteur,
par une transposition uniquement temporelle, ou bien déplacer ce son dans la
tessiture sans en modifier la durée, par une transposition uniquement
harmonique>>, Pierre Schaeffer. Il s'agissait de quatre têtes de lecture
tournant sur un seul axe à vitesse de rotation variable. Le morphophone, quant
à lui, était un magnétophone constitué par un tambour
tournant et 12 têtes de lecture.
[18]. Michel Chion a consacré à Pierre Henry une
monographie très complète, avec analyses de ses oeuvres [Chion 1980,
épuisé]. Cf. également les nombreuses analyses et commentaires
dans "les Musiques électroacoustiques" [Chion 1976].
[19]. Cf. les nombreux textes de P. Schaeffer, M.
Chion, F. Delalande, F. Bayle, et de F. Dhomont, D. Smalley entre autres.
[20]. Séminaires sur des
thèmes aussi "pointus" que réel/virtuel, cinq questions d'acousmatique
(en 1991-92), du temps à l'oeuvre (en 1993), la représentation graphique
des musiques de support (1994) ou les morphologies (1995).
[21]. Heimert et Beyer, Klangstudie 1 et
2, 1953 ; Karel Goeyvaert, Composition n° 5 aux sons purs, 1953 ;
Karlheinz Stockhausen, studie 1 et 2, 1953 ; Gottfried-Michael Koenig,
Klangfiguren 1 et 2. 1954. Cf., d'autre part, dans le présent
numéro, la traduction de l'article de Robert Beyer, (Le problème de la
<<musique à venir>>, 1928).
[22]. Maderna, sequenze e strutture, 1955 ;
Inventione su una sola voce, 1960 ; Berio, Mutazioni,
1955 ; Omaggio a Joyce, 1958.
[23]. La première oeuvre de concert réalisée
à Varsovie fut l'Étude sur un seul coup de cymbale de
Kotonski. [24]Par ordre chronologique,
voici les principaux studios fondés autour de cette décennie : Studio
d'Essai de Radio-Paris 1948 ; Paris, studio Apsome (Pierre Henry), 1950 ;
Cologne, West Rundfunck, 1951 ; New York, Louis et Bebe Barron,
1951 ; Suisse, Gravesano (H. Scherchen), 1954 ; Berlin, Studio de
l'université technique, 1954 ; Milan, RAI, 1955 ; Tokyo, Radio
NHK, 1956 ; Eindhoven, studio Philips, 1956 ; Varsovie, Radio,
1957 ; Moscou, studio MOSFilm, 1957 ; USA, Université
d'Illinois, 1958 ; Ann Arbor (Michigan), CSEM (Sonic Art Union), 1958 ;
Bruxelles, APELAC 1958 ; Munich, Siemens, 1959 ; New York,
Columbia-Princeton Electronic Music Center, 1959 ; San Francisco, Tape Music
Center (Morton Subotnick) 1959 ; Toronto, université, 1959 ; Radio
Suisse-Romande, 1959 ; Stockholm, Radio Suédoise, 1959 ;
Vienne, Hochschule für Musik, 1959 ; Utrecht, université :
Institut de Sonologie, 1960 ; Yale Electronic Music Studio, 1960 ;
Waltham, université de Brandeis, 1961 ; Gand, IPEM, 1962 ;
Turin, conservatoire, 1964 ; Montréal, université McGill,
1964 ; Bratislava, Radio, 1965 ; Stockholm, studio EMS, 1965. [25]Mayuzumi et Moroï, Variations sur un
principe numérique de 7 ; Takemitsu, Water Music ;
Ciel, Cheval, Mort, 1957.
[26]. Koenig dirigea le studio d'Utrecht après un
séjour de dix ans au studio de la West Rundfunck à Cologne, pendant
lequel il aida notamment Stockhausen à réaliser le Gesang der
Jünglinge en 1956 et Kontakte en 1960. Cf., à ce sujet,
l'entretien avec Konrad Boehmer paru dans Ars Sonora Revue n° 1, en juin
1995.
[27]. Notamment, le
stéréophone, haut-parleur sphérique et rotatif. Cf.,
à ce sujet l'entretien avec Luc Ferrari, dans le présent numéro.
[28]. Citons le couple Barron, qui
s'est équipé d'un studio électronique dans leur appartement New-
Yorkais dès 1951, après s'être intéressé aux
manipulations d'enregistrement depuis 1948, sans rien connaître des travaux de
Schaeffer. Les Barron ont réalisé plusieurs musiques électroniques
pour film, comme la Planète oubliée en 1956, qui contribua
beaucoup à l'association que fait encore le grand public entre science-fiction et
sonorités synthétiques.
[29]. Pour une analyse détaillée de cette oeuvre, se
référer au livre de Barry Schrader [1982] pp25-28.
[30]. Babbitt, compositeur sériel et
mathématicien. Il fut le principal utilisateur, patient et méticuleux, de
l'imposant synthétiseur à tubes "temps différé" Mark II de
RCA, (1955). Celui-ci occupait un espace de 6 mètres sur 2 (20 feet/7 feet) au
Columbia-Princeton Electronic Music Center. Les sons s'obtenaient après
description précise de tous leurs paramètres par clavier alpha-
numérique, commande mémorisée sur rouleau de papier
perforé. L'outil idéal pour une écriture précise, abstraite et
entièrement pré- déterminée, proche des productions du
studio de Cologne.
[31]. Comme
dans Touch, basé sur un timbre purement électronique et sur le
mot prononcé par une voix féminine, décomposé en quatre
éléments plus bruités, retravaillés et associés en
recherchant les contrastes ou les ambiguïtés avec les sons
électroniques. Cf. l'analyse de Schrader pp. 131-134 [Schrader 1982].
[32]. Quatre secteurs, au
départ : musique par ordinateur, musique électronique sur bande,
acoustique, recherche instrumentale. Cf., à ce sujet, l'article de Marc Battier paru
dans Ars Sonora Revue n° 1, en juin 1995 (Entre l'idée et
l'oeuvre : Parcours de l'informatique musicale).
[33]. A contrario, l'enseignement de
certaines universités du Québec, îlot francophone du continent
américain, reprend à la France son goût de l'esthétique, de
l'enseignement qui tient compte du résultat musical, tout en le métissant de
quelques épices techno-rock. C'est le cas de l'Université de
Montréal où la présence de Marcelle Deschêne et surtout de
Francis Dhomont, qui y a propagé les idées schaefferiennes et
acousmatiques, joue un rôle important à cet égard.
[34]. Ce concept, que le plus
"américanisé" des compositeurs français, Michel Redolfi, qui a
longtemps travaillé au studio de l'université de Californie à San
Diego, a importé en Europe par ses concerts subaquatiques (La Jolla, 1981-83),
avec chanteuse et percussionniste sous eau (Grenoble, 1993) ou par l'organisation de
concerts virtuels entre deux claviéristes improvisant ensemble, l'un à
Nice, l'autre à Santa Monica grâce à une liaison par satellite (1992).
[35].
Échantillonneur : appareil qui numérise n'importe quelle source
sonore. On peut ensuite rejouer les échantillons à partir d'un clavier
MIDI, les transformer (boucles multiples, superpositions, filtres, transposition,
étirer/comprimer, etc.) Séquenceur : logiciel enregistreur
multipiste de données MIDI qui vont activer directement les
périphériques-sources de sons.
B I O G R A P H I E
Annette Vande Gorne est née à Charleroi (Belgique). Études
musicales classiques aux Conservatoires Royaux de Mons et de Bruxelles. Études
de musicologie à Bruxelles. Études de composition
électroacoustique avec Guy Reibel et Pierre Schaeffer (Conservatoire de
Paris). Fondatrice de Musiques et Recherches, centre de création et
de diffusion de musique acousmatique, et du studio Métamorphoses
d'Orphée, (1982). Organisatrice du Premier Festival Acousmatique de
Bruxelles, en 1984, qui sera suivi d'une série annuelle de concerts.
Édite la revue Lien, consacrée à la musique
électroacoustique. Enseigne la composition électroacoustique depuis
1986, aux conservatoires de Liège, Bruxelles et Mons.
Annette
Vande Gorne a reçu en 1996 le prix "Nouvelles formes d'expression musicale" de
la SABAM.
D I S C O G R A P H I
E
Tao, CD iMÉdia, 9311, coll.
Empreinte Digitale,
Montréal.
Le Ginkgo ;
Architecture Nuit ;
Noces Noires, CD IMSO 9504,
Montréal. Action/Passion,
CD DIVIDED, Chicago.
1996, CIRM Nice - France
Designed and Programming by Gilles Grand