On extended, boundless, vibratory and in-the-now sympathy music

http://jeromejoy.org/


  || NEWS                 || BIO   | SHOWS   | CATALOG                 || PROJE(C)TS   | MP3s   | CDs   | VIDEOS                         || BIBLIO   | STUDIES   | DOCUMENTATION   | PH.D.   | EDU                 | COLLECTIVE JUKEBOX   | NOCINEMA.ORG   | CONCERTS FILMS   || AUDITO   | QWAT?                   || home   | contact  |     |    🔎  |

  Last changed - (French time): 2015/02/26 10:01     > Recent changes

 

<<<<<<<< prev.   —   next >>>>>>>>



Publishings/Publications :
— ∇ Biblio
— ∇ 2014-2011 Texts
— ∇ Ph.D. research / Recherche Ph.D.    — ∇ Studies / Études




INTRODUCTION À UNE HISTOIRE DE LA TÉLÉMUSIQUE

(Jérôme Joy)
Ph.D. en art audio et musique expérimentale — Université Laval Québec (CAN)
Locus Sonus – audio in art, Groupe de Recherche en Art Audio, http://locusonus.org/
École Nationale Supérieure d’Art de Bourges, École Supérieure d’Art d’Aix en Provence, France
joy(at)thing.net , support(at)locusonus.org



Version 7 jun. 2010. Rev. 2012.
Version non publiée. Version courte publiée sur http://fr.wikipedia.org/wiki/Musique_en_reseau .


Article Wikipedia (FR)     Article (proof) (FR)




Sommaire(Edit)





Résumé / Abstract(Edit)

Explorer le domaine de la télémusique et celui des transports de sons par les techniques de médiatisation et de diffusion, tout comme investir aujourd'hui la question des auditoriums dans leurs formes les plus dispersantes et dématérialisées, permet d'avoir une vue éclairante sur les modifications contemporaines des pratiques de création et de réception sonores liées à la musique et, de manière plus large, à nos activités et capacités d'écoute.
Ces questions ouvrent des prismes qui éclairent à nouveau les problématiques qui animent la musique aux XXème et XXème siècles quant

  • à ses relations à l'espace et aux formes les plus exploratrices de la spatialisation sonore
    • par corrélations et articulations entre des espaces distants, excités, captés et traversés à l'aide de techniques du direct et du temps réel (par synchronisation et désynchronisation) et de celles de propagation et d'amplification du son,
    • par les pratiques immersives d'écoute et de production sonore et musicale dans des contextes sonores et collaboratrices avec ces derniers,
  • à l'emploi des techniques de reproduction, de diffusion, de transmission et d'enregistrement qui se trouvent en conséquence soumis à des nouveaux régimes plus mobiles et individuels, et, à la fois, plus partagés et modulaires,
  • aux investigations de processus de production et de réception (d'écoute) liés aux étendues sonores, c'est-à-dire à la perception de celles-ci et de l'activité de modulation au travers elles, et à la colonisation sonore d'espaces et, corollairement, à la décolonisation d'autres ou au défaut de perception et d'activation de certains régimes sonores et musicaux.

Dans ce sens, la notion du direct et celle du temps réel, ainsi que celles liées aux flux, aux continuités spatiales, aux synchronisations et aux modulations que nous opérons lors de la perception et de la participation au sein des espaces, sont au cœur des recherches actuelles.
Il ne s'agit pas de définir un nouveau genre musical mais d'élucider et de cerner les points les plus actifs et questionnants dans la musique actuelle et dans les pratiques audio en général au travers de l'exemple de la musique en réseau. De nouveaux régimes d'écoute et de productions sonores sont en train de se mettre en place en liaison avec le développement des technologies et des effets de spatialisation qu'elles permettent et qu'elles engagent.
Peut-on faire aujourd'hui une histoire de la musique sans prendre en compte les pratiques musicales en réseau ? Même si les réseaux, ou plutôt les capacités de spatialisation, d'interaction et de modulation qu'ils permettent, ne sont pas encore complètement entrés dans le système musical, les étudier aujourd'hui permettra de couvrir le faisceau des problèmes liés à la musique mécanisée et médiatisée.




(Ce texte est la version complète de l’article “Musique en réseau” rédigé en février 2010 pour le site fr.wikipedia.org sous licence Creative Commons, à partir de la traduction française de l’article “Networked Music Performance” du wikipedia anglophone. Cette traduction a servi de squelette à la construction de ce texte. http://fr.wikipedia.org/wiki/Musique_En_Reseau )







1.INTRODUCTION(Edit)



1.1. Approches(Edit)

Explorer le domaine de la télémusique et celui des transports de sons par les techniques de médiatisation et de diffusion, tout comme investir aujourd'hui la question des auditoriums dans leurs formes les plus dispersantes et dématérialisées, permet d'avoir une vue éclairante sur les modifications contemporaines des pratiques de création et de réception sonores liées à la musique et, de manière plus large, à nos activités et capacités d'écoute.
Ces questions ouvrent des prismes qui éclairent à nouveau les problématiques qui animent la musique aux XXème et XXème siècles quant

  • à ses relations à l'espace et aux formes les plus exploratrices de la spatialisation sonore
    • par corrélations et articulations entre des espaces distants, excités, captés et traversés à l'aide de techniques du direct et du temps réel (par synchronisation et désynchronisation) et de celles de propagation et d'amplification du son,
    • par les pratiques immersives d'écoute et de production sonore et musicale dans des contextes sonores et collaboratrices avec ces derniers,
  • à l'emploi des techniques de reproduction, de diffusion, de transmission et d'enregistrement qui se trouvent en conséquence soumis à des nouveaux régimes plus mobiles et individuels, et, à la fois, plus partagés et modulaires,
  • aux investigations de processus de production et de réception (d'écoute) liés aux étendues sonores, c'est-à-dire à la perception de celles-ci et de l'activité de modulation au travers elles, et à la colonisation sonore d'espaces et, corollairement, à la décolonisation d'autres ou au défaut de perception et d'activation de certains régimes sonores et musicaux.

Dans ce sens, la notion du direct et celle du temps réel, ainsi que celles liées aux flux, aux continuités spatiales, aux synchronisations et aux modulations que nous opérons lors de la perception et de la participation au sein des espaces, sont au cœur des recherches actuelles.
Il ne s'agit pas de définir un nouveau genre musical mais d'élucider et de cerner les points les plus actifs et questionnants dans la musique actuelle et dans les pratiques audio en général au travers de l'exemple de la musique en réseau. De nouveaux régimes d'écoute et de productions sonores sont en train de se mettre en place en liaison avec le développement des technologies et des effets de spatialisation qu'elles permettent et qu'elles engagent.
Peut-on faire aujourd'hui une histoire de la musique sans prendre en compte les pratiques musicales en réseau ? Même si les réseaux, ou plutôt les capacités de spatialisation, d'interaction et de modulation qu'ils permettent, ne sont pas encore complètement entrés dans le système musical, les étudier aujourd'hui permettra de couvrir le faisceau des problèmes liés à la musique mécanisée et médiatisée.

Si la musique en réseau est situable et située dans l’histoire, nous devons sonder et examiner à nouveau sa définition au regard des développements, engendrés par les investigations technologiques et par les propositions musicales et sonores, qui modifient les natures de l’interprétation, de l’organologie, de la lutherie, des pratiques d’écoute et de la composition (instrumentale et électroacoustique/électronique). Nous sommes amenés à clarifier et à distinguer les caractéristiques des dispositifs en réseau quant à leurs constituants musicaux. Cette première exploration pourra ouvrir de nouvelles études et analyses sur ces objets et nous permettre d’approcher et de mettre à jour les enjeux actuels et communs, présents dans la recherche et dans les pratiques artistiques. Nous sommes certainement au début d’une ère musicale marquant le développement des formes musicales de collaboration et de participation en ligne et en réseau. Simultanément à cette exploration il semble nécessaire de continuer à interroger les notions historiques musicales et à élucider les nouveaux problèmes et problématiques qui progressivement apparaissent au sein de ces pratiques, d’auteur et d’auditeur, impliquées dans les relations et les intrications entre musique et technologies, tout autant que les modifications et corrélations sociales qu’elles décèlent ou prolongent.

Il semble opportun de considérer et de bâtir aujourd’hui un historique de la télémusique, c’est-à-dire de mettre à jour un corpus, d'une part, de visions et d'anticipations littéraires, et, d'autre part, d’expériences et de réalisations artistiques qui ont exploré, les uns et les autres, la prise en compte d’interconnexions d’espaces (par les transports de sons) et de l’écoute à distance au sein même du processus musical et de la réalisation sonore (Joy & Sinclair, 2008; 2009a)[1]. Cet historique participe aussi à une investigation singulière concernant des changements de paradigmes dans le dernier quart du XXème siècle qui se poursuivent en ce début du XXème siècle : 1) le passage de l’art sonore, dit historique, à l’art audio; 2) le développement musical d’instruments spatiaux; et 3) l’entrée de l’écoute à distance dans la typologie des écoutes. Prolongeant l’« Euphonia » d’Hector Berlioz[2], « Giphantie » de Tiphaigne de la Roche, ou encore le clavier microphonique du « Roi-Lune » imaginé par Guillaume Apollinaire, et finalement, le « Telharmonium » de Thaddeus Cahill[3], la télémusique ou musique en réseau est en pleine évolution — musique distribuée, répartie dans des espaces acoustiques et virtuels interconnectés au travers desquels les sons sont transportés, captés, joués et diffusés.




1.1.1. Qu’est-ce que la musique en réseau ?(Edit)

L’emploi du terme “musique en réseau” dans la musique actuelle permet de poser plusieurs hypothèses de départ : 1) il y a musique en réseau lorsqu’au moment où cette musique est jouée et exécutée, les musiciens et auditeurs sont répartis dans des espaces distincts et disjoints reliés par Internet ou par un système de communication télématique; 2) un ensemble de musiciens en réseau s’établit sur un système d’interdépendances instrumentales : des inputs et outputs des instruments étant reliés les uns aux autres (l’excitation des instruments peut être pilotée par un ou d’autres intrumentistes); 3) une troisième acceptation est celle de comprendre la musique en réseau comme toute musique diffusée sur un réseau de communications non-centré[4] (Internet), et devenant ainsi accessible en plusieurs points à la fois. Nous voyons que ces trois approches amènent des définitions qui peuvent plus ou moins différer : la mise en réseau concerne-t-elle la communication musicale entre des éléments spatiaux du dispositif d’un concert ? l’interaction instrumentale mécanique ou informatique entre des musiciens ? l’utilisation d’un support de diffusion pour véhiculer la musique vers chacun des auditeurs ?

Cette première approche permet de noter que la musique en réseau s’appuie sur une modulation entre ces trois facteurs : communication musicale spatiale, interaction instrumentale, et diffusion. Nous pouvons également avancer que cette modulation semble d’ordre organologique : c’est-à-dire de comprendre comment le dispositif en réseau devient un instrument, qui peut être qualifié à cette occasion d’hybride[5]. Ce basculement de machines à instrument prolonge plusieurs siècles de tradition musicale et, à la fois, offre des modifications importantes en termes d’exécution et d’instrumentation musicale (entre musique de chambre et la musique spatialisée), de lutherie (électronique et télématique) et de techniques de jeu, du dispositif de l’audition et de la réception (auditoriums et contextes acoustiques), et finalement des modes compositionnels. Celles-ci nous invitent à reproblématiser les notions propres de l’instrumentalité, de l’expressivité et de l’orchestration musicales. Les aspects organologiques des dispositifs musicaux en réseau amène une redéfinition des modes d’interaction entre les musiciens, ainsi qu’avec les environnements acoustiques et avec le public, tout autant que le développement de cadres de composition, voire de co-composition.

Les conditions relationnelles dans un dispositif en réseau font entrer plusieurs niveaux instrumentaux (Cance, Genevois & Dubois, 2009)[6] :

    • les relations instrumentales traditionnelles (corps, instrument de production sonore, acoustique et environnement) ;
    • les relations instrumentales liées aux configurations numériques (instrument numérique, instrument logiciel, instrument virtuel) et nécessitant des interfaces musicales : « Pour faire accéder une configuration informatique au statut d’instrument, il faut une interaction avec le corps, c’est-à-dire une interface qui produise de l’information à partir de l’énergie, ce qui caractérise en propre l’organologie traditionnelle » (Rondeleux, 1999)[7] (caractérisée par les relations humain/ordinateur, “human computer interaction”, quelque soit le degré de physicalité, de matérialité et d’immatérialité de l’interface (Cadoz, 1999)[8]) ;
    • les relations instrumentales communicationnelles dues à la nécessité de connecter ou de faire communiquer des instruments entre eux, mais aussi aux distances entre les acteurs (musiciens, performeurs, auditeurs) ou entre les espaces disjoints dans lesquels ils sont localisés : cela requiert le développement d’interfaces de communication instrumentale (souvent couplées avec un système de communication textuelle et/ou visuelle).

Ces dernières sont spécifiques à la musique en réseau et plus généralement aux systèmes interactifs musicaux. Dans ce sens, la musique en réseau est une forme de la musique interactive, en sachant que la première peut considérer en supplément l’interconnexion d’espaces (espaces distants, espaces acoustiques) sans autre forme d’interaction instrumentale, exceptée celle de perception/action qui peut déterminer des décisions musicales et d’écoute. Les formes d’interaction développées dans la musique en réseau demandent à être explorées car leurs systèmes semblent être reproductibles et sujets à accroître leur précision.

En effet, l’interface de communication instrumentale doit être évaluée selon son potentiel d’expression musicale (Ferguson & Wanderley, 2009)[9], c’est-à-dire sa capacité à offrir un contrôle continu sur le résultat, autant déterminé ou indéterminé soit-il selon les critères compositionnels décidés, et aussi réactif que ce contrôle soit (pour faciliter l’expression spontanée et la coordination gestuelle). Cette particularité lui permet de pouvoir être adoptée par d’autres performeurs et musiciens. Elle doit également ne pas interférer et ne pas faire obstruction à la perception environnementale, c’est-à-dire que l’expérience musicale et sonore doit rester fluide et préserver l’interprétation spontanée liée au direct et aux perceptions spatiales. Ce potentiel d’expression entre le performeur/musicien et l’instrument conjugue l’optimisation de conception (tactile, haptique, visuelle, auditive) de l’interface et la pratique optimisée de la performance sur cette même interface.

Dernier point, la nature numérique des dispositifs instrumentaux en réseau pose, ou, plutôt, pose à nouveau, le problème de la conservation des œuvres musicales et, à la fois, des systèmes technologiques qui les constituent (et qui restent sans notation). Ce problème est dû à la rapide obsolescence des technologies numériques depuis plus de 25 ans de création d’œuvres interactives temps réel et plus de 50 ans de création d’œuvres électroniques : ceci est en cours de résolution avec le développement de méthodes de documentation structurée (OAIS - Open Archival Information System) (Lemouton, Bonardi & Ciavarella, 2009)[10] afin de viser une indépendance vis-à-vis des implémentations techniques. Dans ce sens, Serge Lemouton (et al.) questionne « l’émergence d’une lutherie sans organologie » (Lemouton, Bonardi & Ciavarella, 2009)[11] (i.e. ici, les systèmes informatiques considérés comme situés « entre le paradigme de la partition et celui de l’instrument ») ou en attente des moyens d’une classification organologique rendue possible par la description des instruments.

En parallèle, nous pourrions évoquer le développement d’une lutherie « étendue », c’est-à-dire conçue à partir d’une extension, que nous pourrions qualifiée de topologique, des configurations spatiales des outils et des instruments de la musique et de l’informatique musicale. Dans nos études précédentes à propos d’une approche de la télémusique et des homestudios (Joy, 1998) et d’une étude préliminaire sur les conditions organologiques de ceux-ci (Joy, 2003), il s’agissait d’explorer, en amont de notre recherche actuelle,

[l’expérimentation] sur l’Internet [du] déploiement d’œuvres musicales évolutives et processuelles, prenant les réseaux électroniques comme extension du studio informatique traditionnel, et conditionnant ainsi l’apparition de formes musicales de manière inédite, et un nouveau positionnement du public (“auditoriums”). (Joy, 1998; p. 35)

De même, Jean-Claude Risset relève dans son rapport Art-Science-Technologie à propos des perspectives à étudier pour les Centres de Recherche Musicale en France :

Internet conduira à une “délocalisation” des ressources de l’informatique musicale, par le biais des “studios en ligne” utilisables à distance ([qui se développent depuis 1996 à l’]Ircam, [à] York, [et à] Barcelone[12]) : mais les centres continueront de développer ces ressources et à régir la diffusion. (Risset, 1998; p. 93)

On voit ainsi dans la musique en réseau un prolongement des problématiques liées à la lutherie informatique, aux systèmes temps réel, aux simulations acoustiques (via l’électroacoustique et la psycho-acoustique) et à la spatialisation sonore (contrôle spatial du son), avec sans doute pour la première fois après le développement de la radio au début du XXème siècle, une convergence entre outils de création et outils de communication et de diffusion.

La musique en réseau, en étant basée sur un circuit télématique qui à la fois porte, transmet et peut produire des matériaux sonores, et même si les configurations en réseau (LAN et WAN) n’ont pas été prévues pour la production musicale (mais pour le support, le transfert et l’accès à des informations), questionne la notion d’instrument dont la dimension excède celle des instruments traditionnels en intégrant une interface de communication instrumentale. Cette exploration demande de définir comment ce dispositif devient un instrument et comment l’espace des réseaux devient musical : sans doute s’agit-il moins de réaliser des performances et des concerts qui abolissent les distances tout en répliquant des formes connues, que de considérer l’irruption des réseaux, en tant qu’acoustiques virtuelles et générateurs de sons, dans l’espace musical.




1.1.2. Le terme « télémusique »(Edit)

Le terme “télémusique”, si nous nous en tenons à l’étymologie (têle : au loin), couvre la notion de “musique à distance”, et est entendu communément comme la contraction de “musique télématique”. Le premier emploi de ce terme se trouve dans un article de H. Gernsback dans “The Electrical Experimenter” du mois de mai 1916[13] qui décrit, à la suite du Telharmonium (ou Dynamophone) de Thaddeus Cahill[14], la création imaginée d’un service continu qui délivre de la musique aux auditeurs via les lignes téléphoniques. Cahill n’a jamais utilisé le terme de “télémusique”, mais ceux de « electrical music » (Cahill, 1897; 1917)[15] (qualifiant dans ce sens la nature de la production des sons) et de « telharmonic music », musique télé-harmonique, pour nommer la transmission à distance des données “harmoniques” (les vibrations électriques) de la musique distribuée via les lignes téléphoniques (1900-1901) :

Distance and multiplicity of production make no difference to the Telharmonium[16]

Le terme “télémusique” utilisé à partir des années 1910, fait suite (dans la langue française) à ceux de télescope (1611), télégraphie (1790), téléphonie (1796), télégramme (1859), téléphérique (1887), téléphotographie (1890), télépathie (1898), téléobjectif (1903), télécommunications (1904), télévision (1913), télécommande (1945), télétransmission (1947), téléguidage (1949), télédétection (1960), téléinformatique (1968), télésurveillance (1968), télématique (1977), téléchargement (1985),[17] et celui moins commun de “télacoustique”[18], ainsi que tous les noms des appareils destinés à des actions à distance (télétraphone, téléphonoscope, télégraphone, télélographe, téléphote, télectroscope, telekine, etc.). Et finalement le préfixe télé- participe aussi à toute une série de noms de personnages mythologiques : Télégonos (qui est né au loin), Télémaque (qui se bat au loin), Téléphassa (qui brille loin), Télèphe, Téléthuse, Télèsphore, Télédicée, Télédamos, Téléon, Télesto, Télémus, etc. Nous retrouvons quelques années plus tard le terme repris en 1929 dans une publicité vantant un service hôtelier : « All rooms with bath, telephone and telemusic »[19]. Plus récemment[20], Karlheinz Stockhausen compose au studio de la NHK à Tokyo son œuvre électronique « Telemusik » (1966) : il s’agit pour lui « d’atteindre un universel de passé, de présent et d’avenir, de pays et d’espaces éloignés les uns des autres : Tele-Musik »[21] au travers de rencontres simultanées et s’interpénétrant de musiques et de musiciens de différentes cultures. La symbiose revendiquée par Stockhausen a pour objectif (symbolique) de révéler la télémusique comme une musique de la terre et de l’humanité toute entière. Coïncidence ou pas, le terme fut repris plus tard en 1989 par trois chercheurs japonais des NHK Laboratories pour nommer le développement technique des diffusions de la musique par satellite (Yanagimachi, Ohya & Suzuki, 1989)[22], avec des applications qui seront réalisées dès l’année suivante : « Telemusic : A musician plays an electronic keyboard in NHK’s studio in Tokyo and the station transmits the codes by the same satellite which it uses for direct broadcasting of TV into Japanese homes; the codes are received by a home dish and fed to any MIDI instrument. So a pianist in Tokyo can make pianos all over Japan play in unison »[23]. En 1980, l’auteur James Martin décrit dans son livre « Telematic Society » comment les technologies de l’époque annoncent de futures applications : “telemedecine”, de “teleshopping”, de “telewars” et de “telemusic” (James, 1980)[24].




1.1.3. Les premiers télé-instruments et télé-concerts(Edit)

Le premier dispositif de télémusique est semble-t-il le Telharmonium de Thaddeus Cahill. La transmission de la musique par les lignes téléphoniques existait déjà à cette époque[25], mais Cahill relève que la puissance des sons transmis est trop faible (Cahill, 1914)[26]. C’est ainsi qu’il décida de réaliser le Telharmonium, à partir des recherches et réalisations antérieures de Elisha Gray (« Musical Telegraph » ou « télégraphe harmonique », 1874), d’Ernst Lorenz (« Sound-generating circuits », 1885), de William Duddell (« Singing Arc », 1899, non bréveté), de Charles Grafton Page (« Galvanic Music », 1837), et, dans un temps plus ancien, de Jean-Baptiste Delaborde (« Clavecin Électrique », 1759). Inventé en 1895 et 1897, un prototype sera effectivement réalisé en 1901 et joué entre Washington et Baltimore[27], mais c’est en 1906 qu’il prendra son essor en levant des contrats avec des cafés, des hôtels, et des théâtres, ainsi que des privés, pour recevoir la musique à distance, via un pavillon acoustique accolé au récepteur téléphonique (bien avant l’invention de l’amplification qui sera développée vingt ans plus tard). Installé dans les caves d’un immeuble à Broadway, le Telharmonium diffusait la musique “synthétisée” (Cahill, 1897)[28] sur les lignes téléphoniques des abonnés à New York, mais aussi dans une salle de concert, le Telharmonic Hall, pouvant accueillir un public d’à peu près 275 auditeurs au rez-de-chaussée du même immeuble[29], et dans les rues attenantes. Il fût même évoqué de diffuser la musique telharmonique dans les wagons du trolley. Il pouvait y avoir jusqu’à quatre performances par jour. En février 1908, le service s’arrêta à cause du manque de souscripteurs et des perturbations et interférences causées par la puissance trop grande utilisée par le Telharmonium sur les lignes téléphoniques. D’autres problèmes techniques, dont, par exemple, la perte d’intensité du signal par l’addition de plus en plus complexe de notes (accords) et de voies (claviers), et demandant des développements et investissements supplémentaires, accentuèrent son déclin. Le Telharmonium fût utilisé que pour jouer du Bach, Liszt, Beethoven, Grieg, Rossini, Schumann, Schubert, Chopin, ainsi que des ragtimes et des airs populaires, et ne suscita aucune création de musique de l’époque (à part Ferruccio Busoni qui écrivit en 1907 son essai intitulé « Sketch of a New Aesthetic of Music » dans lequel il voit le Telharmonium ouvrir la musique aux espaces microtonaux (Busoni, 1907)[30]). Après la troisième version du Telharmonium en 1911, cette invention fût éclipsée par le développement commercial de la radio[31].

Il faut rappeler que durant la même période d’autres instruments, précurseurs des synthétiseurs, furent développés, dont le « Choralcelo » de Melvin L. Severy et George B. Sinclair, dont les premiers concerts eurent lieu en 1905, et bien entendu l’« Audion Piano » de Lee de Forest en 1910, l’« Optophonic Piano » de Rossiné (1916), le « Theremin » (1920), le « Cellulophone » (1927), les « Ondes Martenot » (1928), le « Trautonium » (1930), le « Rhythmicon » (1931), l’« Électronde » de Martin Taubmann (1931), l’orgue « Hammond » (1934), le « Terpsitone » vers 1936, le « Hammond Novachord » (1939), etc. Dans un autre registre instrumental, après la Tonotechnie développée en 1775 par Engramelle[32] et avant les Disklaviers actuels, les pianos mécaniques étaient développés et utilisés depuis 1880 : le Piano mélographe-mélotrope (1880, Jules Carpentier), le piano mécanique (1895, Edwin Scott Votey), le Pianola (1897), le Melodiograph ou Melograph (1928, Milton Metfessel, Charles Seeger).

Mais aucun de ces instruments nouveaux n’envisageait l’utilisation de la distance ou de la diffusion à distance de la musique. Seules les expérimentations de Charles Wheatstone peuvent être pris en référence, avec l’« Enchanted Lyre » (aussi appelé « Aconcryptophone » ou « Acoucryphone », et le « Diaphonicon »), qu’il construisit en 1821 et qui permettait de faire “sonner” un instrument à distance, d’un espace à un autre, par le biais de fils et de tringles reliés à la mécanique d’autres instruments (par conduction sonore et par sympathie)[33].

Par ailleurs, comme nous l’avons déjà noté, les applications relevant de la diffusion de la musique via les lignes téléphoniques ont pris un essor dès le dernier quart du XIXème siècle, assurant un nouveau mode de distribution de la musique jouée en direct pour des auditeurs distants (Théâtrophone, 1881)[34]. Cela fût poursuivi par les radio-concerts à partir des années 20. Il s’agissait de diffuser de la musique jouée en concert : il n’y a pas eu de création musicale pour de tels dispositifs. La seule référence évoquée est l’opéra « Lauriana » d’Augusto Machado qui fût retransmis en direct au Palais royal lors de sa création en 1884, au Théâtre San Carlos de Lisbonne sous la direction d’Arturo Toscanini; mais nous ne pouvons pas dire que cette diffusion téléphonique simultanée ait influencée la composition musicale. Il faudra attendre un peu plus tard pour voir apparaître de nouveau (deux siècles après la musique créée, par Mozart et Haydn notamment, pour des instruments automates et mécaniques[35]) un domaine de création musicale pour les appareils de reproduction, de diffusion et d’enregistrement : la GrammophonMusik (1922 Milhaud, 1929 Hindemith, Toch), la création radiophonique (1922 Angelloz et Charpentier, 1922 Radio drama in Chicago, 1924 Germinet, 1928 Bischoff, 1929 Brecht, Wolf, Kesser, 1930 Ruttmann), la composition et interprétation musicale pour le gramophone (1930 Stravinsky).

Plusieurs journalistes remarquent l’abolition des conventions “sociales”, commensales et festives lors de ces concerts à distance : les musiciens se conduisent comme “s’ils étaient en scène, devant le public, avec les gestes, la mimique, et les tics traditionnels”, alors qu’ils ne font “face” à aucune audience durant ces concerts transmis par téléphone ou par la radio (et, de manière similaire, lors des séances d’enregistrement sur gramophone), et qu’il n’y a en retour aucun applaudissement ou huée de la part de ce public hypothétique[36]. De même Wolfgang Martini remarque que lors de ces concerts dans lesquels les musiciens et les auditeurs ne sont pas dans le même espace, les applaudissements sont superflus. Dans une telle situation, les “concertgoers” (le public amateur de concerts), portant chacun des écouteurs téléphoniques (ou bien face à un pavillon acoustique à la maison) sont isolés les uns des autres : la différence avec une salle de concert est criante, il n’y a pas d’ambiance collective, d’excitations mutuelles des émotions, chaque auditeur est dans une écoute privée (Martini, 1925)[37]. De nombreux articles de l’époque, aux alentours des années 20, relatent des témoignages de musiciens et d’auditeurs à propos de ces concerts à distance et des solutions trouvées pour “re-créer” une situation musicale collective (dont notamment les appels téléphoniques d’auditeurs après les concerts pour transmettre leurs réactions aux musiciens et artistes).




1.1.4. Être « en ligne »(Edit)

Un troisième terme, “musique en ligne”, demande à être également décrit. L’expression dérivée directement de l’anglais “online”, est employée pour informer qu’un matériel fonctionne en relation directe ou en connexion avec un autre, et, en général, elle indique une mise à disposition d’un “objet” sur le Web via une adresse ou un “lien”, une liaison (par exemple : un document en ligne, une conférence en ligne, une aide en ligne, etc.). En radio, il est dit communément : être en liaison, avec un studio, avec une personne, à distance et en simultané (en duplex, en multiplex). Dans le domaine des transports, une ligne est un tronçon de réseau avec deux ou plusieurs extrémités. Une “musique en ligne” peut indiquer que celle-ci ou ce qu’elle contient est, d’une manière ou d’une autre, utilisée, transportée et accessible sur les réseaux, soit parce qu’elle y est déjà disponible ou soit parce qu’elle emprunte ce mode de transmission momentanément ou de manière événementielle. Afin d’assurer l’émission et la réception, les auditeurs (et les musiciens si il y a lieu) sont également “en ligne”, c’est-à-dire connectés. La musique en ligne nécessite une connexion (ou un réseau de connexions) pour être exécutée, elle ne peut pas l’être “hors ligne” (offline).







1.2. Approche comparative(Edit)

Un rapide comparatif peut donner :

  • musique en réseau
    • communication, interdépendance, voire interaction, d’espaces et/ou de machines
    • basée sur l’échange et l’interconnexion
    • (autre acception, plus généraliste : qui est diffusée ou distribuée sur les réseaux)
    • (équivalents anglophones : “network music” ou “networked music performance”)
  • télémusique
    • musique à distance, le plus souvent par voie télématique (réseaux électroniques)
    • n’est pas influencée par la distance entre les points répartis d’émission et de de réception
  • musique en ligne
    • sur les réseaux (i.e. n’existe pas en dehors des réseaux)
    • nécessite d’être connecté (sur le service de communications) pour écouter et pour jouer.
    • (équivalent anglophone : “netmusic”)







1.3. Musique en réseau(Edit)

La musique en réseau couvre, de manière large, tous les systèmes d’interaction entre musiciens dans une œuvre sans que l’interconnexion télématique de lieux et d’espaces soit nécessaire, elle peut être informatique et sur des distances courtes : l’espace entre deux musiciens. En effet, la musique en réseau concerne les dispositifs instrumentaux, électroniques et informatiques dans lesquels les interactions sont comprises comme éléments compositionnels et de réalisation d’une œuvre.

Dans un concert traditionnel d’une œuvre composée ou improvisée, les relations de communication et de contact entre les musiciens, basées sur des suivis auditifs et visuels qui maintiennent l’attention, établissent des codes et des instructions en supplément de la partition ou du cadre d’organisation, et viennent sensiblement influer, orienter voire modifier le jeu des musiciens[38]. Ces relations communicationnelles et phatiques entre émetteurs et récepteurs assurent la participation à une expérience commune, et, parfois, elles sont utilisées directement dans la composition ou dans les règles d’improvisation, mais il n’y a pas d’interactions directes entre les instruments, ou entre un performeur et l’instrument d’un autre performeur.

Il est à noter en supplément que les relations du performeur à l’espace acoustique et environnemental, comprenant aussi les auditeurs et l’espace des auditeurs, induisent le même type d’influence, mais, là aussi, l’interconnexion directe avec l’instrument et l’intégration de données variables liées à cet environnement dans la composition ou dans le jeu même, ne sont pas présentes.

Dans le cas de la musique en réseau, les configurations “instrumentales” individuelles sont interconnectées entre elles, basées sur l’échange et la mise en relation. Les décisions en direct d’un musicien modifie, via son instrument, à la fois, le jeu d’un autre ou des autres musiciens, et le résultat musical collectif. Ces interactions se déroulent selon des règles établies de co-composition et d’interprétation (partitions, signaux, instructions, réservoirs, etc.), ou via des protocoles techniques insérés au sein de l’instrumentarium et de l’instrumentation (via des commandes de paramètres, des embranchements d’inputs et d’outputs entre les configurations instrumentales des musiciens, etc.), ou encore selon des configurations de jeux collectifs (les utilisations de matériaux sonores communs et en commun, etc.). La musique en réseau est une musique dont les éléments, ou certains d’entre eux, sont variables en direct, les sources de ces variations étant externes à “l’instrument” du musicien, qu’elles proviennent d’un autre ou d’autres instruments des partenaires musiciens, ou d’un flux ou d’une modulation produite synchroniquement et indépendamment. Les contenus de ces variations sont généralement non reproductibles d’un concert à un autre. Cette musique est donc variable en partie ou intégralement au moment de son exécution, et elle est influencée par des événements en direct. D’autres distinctions seront à explorer entre musique en réseau et musique interactive, ainsi qu’entre musique en réseau et musique participative ou collaborative. Dans cette exploration nous devrons remarquer aussi que de nombreuses caractéristiques sont communes à plusieurs de ces systèmes.

Dans ce sens, Andrew Hugill en 2005 propose une première classification (Hugill, 2005)[39] :

  • musiciens connectés au travers d’un réseau informatique lors d’un concert (Internet, jamming software, tele-music making)
  • mondes virtuels (les avatars des musiciens dans un environnement en ligne)
  • des données liées au réseau transposées en son (sonification de trafics de données)
  • interaction musicale en ligne, du simple click-and-play à des interfaces web plus élaborées (Internet radio, sound toys, etc.)







1.4. Télémusique(Edit)

La télémusique consiste généralement en un dispositif de concert dont un ou plusieurs de ces acteurs sont délocalisés par rapport à l’espace du concert, ou, si ce dernier est absent, lorsque les acteurs (musiciens, chef d’orchestre, auditeurs) ne sont pas dans le même espace physique et acoustique, tout en étant “synchrones”. Cette situation correspond à celle d’un concert synchronisé multi-sites consistant en des jeux et performances simultanés entre des espaces interconnectés. Ainsi un système de communication (télématique, téléphonique, etc.) en duplex ou en multiplex est à établir pour connecter ces acteurs qui se retrouvent de cette manière en situation acousmatique. Il peut s’agir dans ce cas d’une transmission à deux sens à partir de captations et de diffusions simultanées, d’un lieu à l’autre, ou entre plusieurs lieux. Cet exemple est pris en compte par le terme de télémusique et peut être complexifié, en plus de la transmission sonore, par l’utilisation de communication et de transmission de données et de flux de variables entre les machines et les instruments. Dans ce sens, il sera intéressant d’identifier, à la suite de Michael Pelz-Sherman et de Timothy Place (Place, 2000; Pelz-Sherman, 1998)[40], les différents constituants et acteurs d’une situation musicale et les relations qui les associent dans chaque type de musique en réseau : environnement, auditeur, instrument, performeur, compositeur.

Un dispositif de télémusique comprend une instrumentation inter-spatialisée (dans et entre plusieurs espaces) combinée avec des interactions en réseau entre musiciens et entre les instruments, et entre des éléments de l’environnement et des inputs et outputs instrumentaux. Ceci peut être étendu (via des interfaces de communication instrumentale) à des systèmes d’interaction et de communication entre les auditeurs et les musiciens, entre les auditeurs et les instruments, etc. Cette inter-spatialisation nécessite de construire sur les instruments des extensions de communication instrumentale et de contrôle de modulation qui permettent d’articuler l’évolution musicale collective.

Ceci rejoint les propos de Franziska Schroeder :

« Un concert de musique en réseau multi-sites [ce que nous nommons télémusique] peut aller de l’exécution d’une œuvre musicale à partir d’une partition avec un autre musicien situé dans un lieu distant, à l’improvisation avec d’autres performeurs situés dans différentes espaces virtuels et acoustiques, à jouer des algorithmes (le partenaire pouvant être alors une machine), de jouer un concert dans un espace virtuel [tel que l’environnement multi-utilisateurs Second Life]. » (F. Schroeder, site web, SARC, Queen’s University Belfast)[41]

La télémusique se caractérise moins par sa capacité à être communiquée et transmise sur les réseaux que par son système organologique propre à l’interconnexion d’instruments et/ou de musiciens au travers d’espaces acoustiques et virtuels. Les caractères liés à la spatialité (distribution spatiale) et à la temporalité (synchronisation et a-synchronisation) qui se trouvent associés dans le cas de la situation télémusicale, font apparaître le développement de scénarios. En effet, les actions dans un dispositif de télémusique sont engagées dans la construction d’un scénario et d’une grille de “circuits”, que chaque acteur (compositeur, performeur, auditeur) “travaille” et expérimente. C’est-à-dire qu’aujourd’hui, au stade actuel de son développement, la télémusique embrasse deux situations :

  • l’une, s’établit sur une configuration “expérimentale” offrant un aspect expérientiel de la situation musicale “live” par l’investigation en direct (l’expérience du présent), propre à l’improvisation (tout autant que la composition), des limites et des excès des possibilités du système et des contextes environnementaux ;
  • la seconde, explore les questions liées à l’écriture et la structure musicales comprenant autant les dimensions de l’orchestration (le dispositif spatial instrumental et l’organisation des actions instrumentales), que la composition pour de tels dispositifs.

Ces deux facettes ne sont pas antagonistes et peuvent être combinées et associées dans une même œuvre : ce que peut couvrir par exemple le terme de “comprovisation” pour discerner une composition écrite comportant des éléments d’improvisation et d’indétermination qui permettent d’élargir les échelles de temps. Notons au passage qu’il n’y a pas lieu d’opposer la composition et l’improvisation, afin, d’une part, d’éviter tout centrisme de l’histoire de la musique occidentale, qui de fait fragilise aujourd’hui cette opposition, et, d’autre part, de considérer l’acte musical dans ses dimensions anthropologiques croisant de multiples cultures et pratiques.

L’intérêt d’une telle démarche est de prendre en compte la situation “hic, illic, simul et nunc”[42] d’un concert de télémusique et d’y développer des formes d’écriture et d’expériences d’écoute et de jeu.

Ces situations de réactions propres à la co-présence dans un même espace physique (face-à-face) seront compensées dans la musique en réseau, multi-sites et utilisant la simultanéité, par des effets de téléprésence (pour un rendu de la coprésence) et de téléacoustique (rendus d’acoustiques à distance ou d’acoustiques jumelles[43]) tout en incluant les propriétés de la communication en réseau (latence, désynchronisation, etc.) en tant qu’acoustique virtuelle (i.e. la traversée d’un troisième espace conjoint aux espaces d’émission et de réception)[44].







1.5. Description d’un concert de télémusique(Edit)

Un concert de musique en réseau ou de télémusique (« Networked music performance » ou NMP) consiste en une ou des interactions en temps réel, en direct et à distance, assurées par un réseau informatique (et télématique) qui permet aux musiciens répartis dans différents lieux distants de jouer ensemble de la même manière que s'ils étaient dans le même espace et dans la même salle de concert (Lazzaro & Wawrzynek, 2001)[45]. Les applications actuelles comprennent des performances ou concerts public[46], des répétitions d'ensembles instrumentaux et d'orchestres[47], des sessions de musique improvisée et des sessions pédagogiques tels que des master-classes[48]. Ce nouveau type de "scène" (« stage ») se développe donc autant dans la musique la plus actuelle (contemporaine, improvisée, électronique[49]) et dans la musique classique (concerts, répétitions, concours internationaux[50], master-classes).

Les musiciens utilisent des connexions soient standards (Internet, ADSL), soient issues de l'informatique musicale (en combinant le langage MIDI, l'Ethernet et l'Internet), soient encore de très haut débit (ISDN et Internet2), ces dernières étant des connexions multiplex audio et video de haute fidélité[51]. Le développement informatique de la musique en réseau a permis d'élaborer des outils logiciels de collaboration à distance et des logiciels spécifiques (tels que « Quintet.net » de Georg Hadju, et, au milieu des années 90, « ResRocket ») ou des ajoûts de fonctions à des logiciels existants la plupart modulaires (tels que Max/MSP et PureData). (Tout en ne prétendant pas se substituer) Lorsqu'elle ne se substitue pas au concert traditionnel (les musiciens et les auditeurs dans la même salle de concert), la musique en réseau correspond à un dispositif utilisé lorsque la co-présence des musiciens (et des auditeurs) est impossible. Dans ses aspects les plus avancés, la musique en réseau permet l'approche de nouvelles formes d'expression musicale. Le dispositif en réseau peut aussi intégrer des audiences à distance (public réparti) ou permettre des configurations dans lesquelles par exemple la direction d'orchestre est exécutée à distance[52].







1.6. Le dispositif du concert(Edit)

Le concert est un dispositif spatial tout autant qu’un système temporel d’exécution et de de réalisation d’une œuvre musicale. Il est un dispositif géométrique d’interactions continuelles entre tous les acteurs qui forment le concert : compositeur, performeur (ou interprète), audience et environnement. Au fur et à mesure de l’histoire, ces rôles peuvent s’agréger ou s’intervertir, créant ainsi des statuts tels que ceux de compositeur-performeur et d’auditeur-performeur, comme c’est le cas dans les cadres récents appareillés par les technologies (de communication et d’écoute), et la plupart du temps liés à l’improvisation ou la performance en direct. Cela couvre aussi et historiquement tout un éventail de configurations : le compositeur classique interprète de ses œuvres (un exemple historique); l’auditeur écoutant une musique en direct ou en différé par l’intermédiaire d’un relais (enregistrement, radio) qu’il peut contrôler ou moduler dans son propre espace; le compositeur improvisateur suivant des systèmes processuels qu’il règle au fur et à mesure de sa performance face à un public ou à distance via un média de communication et de diffusion; l’auditeur dont les déplacements (dans un ou des espaces) et les actions lui permettent de syntoniser son écoute selon des “angles” proposés ou d’agir sur le déroulement d’une œuvre (dans le cas d’une œuvre distribuée spatialement ou d’une “installation” sonore et musicale; etc.

Ces interactions forment et participent au jeu musical, qui, de son côté, engagent des natures diverses de déploiements spatiaux et temporels, et de rappels ou d’embarquement de contextes connexes ; à titre d’exemples :

  • le canon et la fugue dans la musique baroque disposent les interprètes tout autant que les auditeurs dans un suivi en direct du processus de développement d’une idée musicale, dont nous pourrions trouver des prolongements dans la musique contemporaine dans les systèmes de jeux (« Duel » (1959) et « Stratégie » (1962) de Iannis Xenakis), d’instructions (« Aus den Sieben Tagen » (1968) de Karlheinz Stockhausen, « Piano Piece for David Tudor #1 » (1960) de La Monte Young), de sonification (« Atlas Eclipticalis » (1961/62) de John Cage, « Earth’s Magnetic Field » (1970) de Charles Dodge), et de combinatoires et de systèmes de composition (musique sérielle, musique spectrale, musique algorithmique ou basée sur des modèles tels que les fractales et les attracteurs étranges, etc.);
  • les citations et les emprunts, comme chez Gustav Mahler (« Symphonie n°2 », 1895) et Charles Ives (« Central Park in the Dark », 1906)[53] par le rappel de références populaires au travers du contenu même ou du jeu musical (les rapports entre “bien-joué” et “mal-joué” rappelant les pratiques amateures chez Ives), et, plus récemment, dans la pratique musicale du sampling, de la phonographie et du field recording ;
  • l’intrication de l’espace présent et en direct dans l’œuvre, comme chez John Cage (« 4’33” » (1952) ouvert au plein air, « Imaginary Landscape IV » (1951) avec le jeu en direct et fortuit avec les ondes radio[54]), chez Alvin Lucier (« I’m sitting in a room »(1969)), Karlheinz Stockhausen (« Sternklang », 1971), etc., poursuivant les œuvres anciennes de Giovanni Gabrieli[55] ou de Guillaume Dufay[56] qui étaient réglées sur les conditions acoustiques et des répartitions spatiales des lieux du concert, et qui seront constituantes de la musique électroacoustique et acousmatique liée à la spatialisation sonore, notamment par la construction des orchestres de haut-parleurs (acousmoniums) ;
  • et, finalement, en tant que dernier exemple, dans l’extension technologique des factures instrumentales par le contrôle continu par des systèmes de mises en réseau et de sonification[57], dans lesquels le développement musical est partagé entre les performeurs et les instruments (informatiques et/ou télématiques), et où la restitution musicale est liée à variables et des variations en direct et en flux, chacune s’influençant les unes sur les autres (« Music for a solo performer » (1965) et « Sferics » (1981) d’Alvin Lucier, « Brainwave Music » (1971/1975) de David Rosenboom, « Cloud Music » (1974) de David Behrman, Bob Diamond et Robert Watts, et les œuvres réalisées avec des machines/systèmes / instruments inter-connectés de The League of Automatic Music Composers et de The Hub (1978/83 et 1985/1997).

Ces investigations ont accompagné et interagi continuellement avec l’évolution des dispositifs d’écoute qui ont permis de donner un rôle de plus en plus prépondérant à l’auditeur : le phonographe (puis le cd), la radio, le jukebox, le walkman, les lecteurs mp3s, le streaming sur Internet, les playlists d’écoute (Deezer, audioblogs, etc.), , jusqu’aux prototypes actuels développés par l’Ircam : SemanticHifi[58], ML-Annotation, jUST), etc.

Dans un concert, les éléments principaux sont, comme nous venons de le voir, le compositeur, le ou les interprètes (dans le cas de la musique interprétée) ou bien les performeurs, les instruments, le public (l’audience) et l’espace où a lieu le concert (l’environnement) (Place, 2000)[59]. Dans le cas d’un concert “traditionnel”, l’espace est commun à tous les éléments et est un des constituants réactifs de la situation concertante. Pour un concert en réseau, il y a multiplication des environnements dans lesquels sont répartis les performeurs, les instruments et les auditeurs. Ceci multiplie et rend plus complexe les interactions avec les environnements qui sont à la fois disjoints et interconnectés, chacun des constituants étant influencés et sensibles à ces environnement. Ceux-ci peuvent affecter directement la composition, comme par exemple en intégrant les composants acoustiques des espaces du concert (Gabrieli, Cage, Lucier); et peut aller jusqu’à intégrer des processus d’interactions en direct dans l’œuvre (comme la participation des auditeurs, l’utilisation de matériaux fortuits de l’environnement, et la mise en place de jeux d’improvisation, via les instructions ou le système de communication entre les performeurs, etc.).






  —   chapitre suivant >>>>>>>>










  1. C'est la mission actuelle du NMSAT — Networked Music & SoundArt Timeline développé et édité par Jérôme Joy et Locus Sonus, http://locusonus.org/nmsat/
  2. http://www.hberlioz.com/Writings/SO25.htm
  3. http://earlyradiohistory.us/1906telh.htm. Et aussi : Foulon F. & Jedrzejewski, F. (2009). Instruments expérimentaux et sens haptique. CIM 09, 5ième Congrès Interdisciplinaire de Musicologie, "Music and its instruments", 26-29 oct 2009, Paris. http://cim09.lam.jussieu.fr/CIM09-en/Proceedings_files/40A-ProvFF-FJ-paper.pdf
  4. Une musique diffusée à la radio n’est pas qualifiée de musique en réseau, pourtant il faudrait interroger les dispositifs “radiophoniques” engagés dans des œuvres comme RadioNet et Public Supply de Max Neuhaus, ou dans le projet Polymorphous Radio de Tetsuo Kogawa.
  5. Dans le prolongement de la proposition d'une organologie désorganisée du noise décrite par Boyan Manchev : Boyan Manchev « Noise : l'organologie désorganisée », Multitudes 1/2007 (no 28), p. 157-165. http://www.cairn.info/revue-multitudes-2007-1-page-157.htm
  6. Cance, C. ; Genevois, H & Dubois D. (2009). What is Instrumentality in New Digital Musical Devices ? A Contribution from Cognitive Linguistics & Psychology. In Actes de la International Conference on Interdisciplinary Musicology, CIM 2009, Paris.
  7. Rondeleux, Luc (1999). Une Histoire de l’Informatique Musicale entre Macroforme et Microcomposition. In Actes JIM’99, 17-19 mai 1999, Paris.
  8. Cadoz C. (1999). Musique, Geste, Technologie. In “Les Nouveaux Gestes de la Musique”, H. Genevois & R. de Vivo (eds.), pp. 47-92. Marseille : Éditions Parenthèses.
  9. Ferguson, S. & Wanderley, M. (2009). The McGill Digital Orchestra : Interdisciplinarity in Digital Musical Instrument Design. In Actes de la International Conference on Interdisciplinary Musicology, CIM 2009, Paris.
  10. Lemouton, S. ; Bonardi, A. & Ciavarella, R. (2009). Peut-on envisager une Organologie des Instruments Virtuels de l’Informatique Musicale. In Actes de la International Conference on Interdisciplinary Musicology, CIM 2009, Paris; voir aussi : les projets de l’IRCAM, CASPAR (Cultural, Artistic and Scientific Knowledge for Preservation, Access and Retrieval) et ASTREE (Analyse et Synthèse de Traitements Temps Réel).
  11. Lemouton, S. ; Bonardi, A. & Ciavarella, R. (2009). Ibid.
  12. Le studio en ligne à l’Ircam, le traitement du son à distance à l’Université d’York et à l’Université Pompeu Fabra de Barcelone.
  13. « Tele-Music. An “industry” rivaling the moving picture business can be created when some genius perfects a means supplying telephone subscribers with all kinds of music from a brass band down to a violin concert. » (Gernsback, Hugo. (1916). What to Invent. In The Electrical Experimenter, May 1916, (p. 3). Accessible à http://earlyradiohistory.us/1916tele.htm). Le terme fut repris par la société Telemusic, Inc., qui distribuait dans les années 40 aux États-Unis des appareils appelés “Telotone” (systèmes de musique par téléphone) (In The Billboard, Vol. 58, no. 42, Oct. 19, 1946, p. 128)
  14. Cf. chap. 1.1.1., Infra 3. — http://earlyradiohistory.us/1906telh.htm. Et aussi : Foulon F. & Jedrzejewski, F. (2009). Instruments expérimentaux et sens haptique. CIM 09, 5ième Congrès Interdisciplinaire de Musicologie, “Music and its instruments”, 26-29 oct 2009, Paris. http://cim09.lam.jussieu.fr/CIM09-en/Proceedings_files/40A-ProvFF-FJ-paper.pdf
  15. « The grand objects of my invention are to generate music electrically with tones of good quality and great power and with perfect musical expression, and to distribute music electrically generated by what we may term “originally electrical generation” from a central station to translating instruments located at different points and all receiving their music from the same central point. [...] More particularly the objects of my invention are a) to generate by a practical and simple apparatus different styles of rhythmic electrical vibrations, answering to the different notes of music with great power; b) to produce pure electrical elemental tones, or at all events elemental tones free from harshness; c) to produce the notes and chords of a musical composition with any timbre desired out of their electrical elements; d) to afford facility to the performer to govern the expression perfectly, and e) to distribute music, produced as before mentioned, from one central station to many translating instruments located in different places, so that many persons, each in his own places, so that many persons, each in his own place, can enjoy the music produced by a distant performer. [...] Mine is a system of producing what may be called emphatically termed “electrical music”, in contradiction to the music produced mechanically by the vibrations of sounding bodies [...]. » (Cahill, Thaddeus. (1897). Art of and Apparatus for Generating and Distributing Music Electrically. Patent no. US000580035, dated April 6, 1897, (pp. 1-2); completed by Patent no. US1213804, dated Jan. 23, 1917, and Patent no. US1295691, dated Feb. 25, 1919) — « Several performers playing together, but on different keyboards, will thus produce several qualities, which means that complete orchestral effects will be had at the points where the translating devices (substantially telephone) are placed. » (Telharmonie - The Music of the Future, In New York Electric Music Company, Confidential document & circular, dated Aug. 17, 1906) — « Le Téléharmonique - C’est l’orchestre à domicile, - comme l’eau potable ou le gaz ! Et l’appareil “recepteur” est tout petit. Les 80 instrumentistes sont logés dans une boîte à cigares ! ... Que nous réserve le XXIème siècle ! » (In Le Monde Artiste, daté du 23 juin 1907) — « The perfection of the wireless telephone will also means that houses will not have to be wired to receive Telharmonic music. With a receiver they can make it from the air. » (Music by Wireless to the Times Tower, In New York Times, March 8, 1907, (p. 16)) — « More particularly, the objects of my invention are to improve the character or quality of music that is produced electrically; to increase the facilities for expression, afforded to the performers; to increase the number of subscribers’ instruments that can be supplied with musical electrical vibrations for a single central-station instrument and to enable the individual subscribers to regulate the power of the musical sounds produced upon their premises by the electrical vibrations transmitted from the central station, each subscriber independently of the others. » (Cahill, Thaddeus. (1917). Art of and Apparatus for Generating and Distributing Music Electrically. Patent no. US1213804, dated Jan. 23, 1917, (pp. 1-2); and also : Patent no. US1295691, dated Feb. 25, 1919, (pp. 1-2)). Voir http://magneticmusic.ws/Frame.htm
  16. Magic Music from The Telharmonium, in New York Times, Dec. 16, 1906.
  17. Á part quelques faux-amis : téléréalité, téléfilm, télédiffusion, téléspectateur, télescoper.
  18. « Daqui na sua forma mais rudimentar, a primeira telescopia, e também a primeira telefonia, ou, antes, um ramo particular dela a que poderíamos chamar telacustica (de - ouvir ao longe). » (ma traduction : “entendre au loin”) (De Paiva, Adriano. (1878). A telefonia, a telegrafia e a telescopia. In “O Instituto - revista científica et literária”, XXV ano, Segunda Serie, Julho de 1877 a Junho de 1878, no. 9, (pp. 414-421). Coimbra : Imprensa da Universidade. Accessible à http://deec.fe.up.pt/telescopia/teleart.htm
  19. In The South American Book, Vol. 6, (p. 388).
  20. Pour information : en 1967, la société “Tele Music” est créée, son nom étant certainement dérivé de l’expression “musique pour la télé(vision)”; son objectif est de développer une banque sonore (échantillons musicaux, signalétique, habillage, etc.) composée par un groupe de musiciens (dont Bernard Lubat), et mise à disposition pour les productions télévisuelles, audio-visuelles, publicitaires, etc., via l’édition discographique (vinyles, puis cds), et depuis récemment par une base de données accessible en ligne offrant de nouvelles fonctions (robot de recherche, playlists, etc.). http://www.telemusic.fr/ (information whois : domaine créé le 29 mai 2002)
  21. « Rather — through the process of intermodulation between old “found” objects and new sound events which I made using modern electronic means — a higher unity is reached : a universality of past, present and future, of distant places and spaces : TELE-MUSIK. » (Stockhausen, Karlheinz. (1967). [Notes à propos de] Telemusik, Deutsche Grammophon, Coll. Avant Garde, no. 137012)
  22. Yanagimachi Akio, Ohya Akira, & Suzuki Hiroshi. (1989). Codec music data transmitting service (Telemusic) with direct broadcast satellite. In NHK Laboratories Note (ISSN 0027-657X), no. 370, NHK Science and Technical Research Laboratories (Ed), Aug. 1989, 20 p.; Yanagimachi Akio & Suzuki Hiroshi. (1989). A Study on Time Differences between Program-related Telemusic Piano Sound and Television Program Picture. In the Journal of The Institute of Television Engineers of Japan, no. 43(1), Jan. 20, 1989, (pp. 78-80). Le terme fut cité également dans la revue “Japanese Technical Abstracts” en 1987 (Vol. 2, no. 11-12, (p. 405), University Microfilms International & Japanese Technical Information Service Eds.) : « The Broadcast of Telemusic involves three items simultaneously : video, audio, and performance data. [...] Two forms of Telemusic are possible. One would transmit data for each number, which would be recorded in the memory of ... »
  23. Dans un article de Barry Fox, In New Scientist, Vol. 126, 1990, (p. 35).
  24. Martin, James. (1980). Telematic Society — A Challenge for Tomorrow. Prentice Hall, Inc, Englewood Cliffs, New Jersey.
  25. Le Théâtrophone à Paris en 1881, le “Telefon Hirmondó” à Budapest en 1893, l’Electrophone en 1895 à Londres, l’Araldo Telefonico à Rome en 1910 et le Telephone Herald à Newark N.J. (1911-12), suivis par de nombreux “telephone concerts” à partir de 1881, dont les premiers d’entre eux ont été réalisés en 1877 (transmission de l’opéra Don Pasquale de Gaetano Donizetti à Bellinzona en Suisse (1878), ainsi que les concerts par téléphone entre Philadelphie et New York organisés par Maurice Strakosch (1877)).
  26. « Attempts have been made to distribute music heretofore, by a) first producing, with the usual instruments of music, vibrations of the air; b) translating these vibrations into electrical vibrations by means of microphones or other similar devices; and c) transmitting these electrical vibrations from the central station to a plurality of places simultaneously and there translating the electrical vibrations into aerial vibrations by means of receiving telephones of the well known kind. The practical difficulty with this method of generating and distributing music electrically, lies in the fact that the aerial vibrations produced in the first instance, measured dynamically, are of little power and the electrical vibrations produced from them, by means of microphones, are usually of much less power, so that the sounds produced by the receiving instruments are feeble - so feeble that ordinarily it is necessary to hold the receiving telephone to the ear to hear the music. And if a loud-sounding telephone apparatus be used by microphone transmitters, then the sounds produced are usually harsh. Another method of generating and distributing music electrically has been contrived, which consists in producing the requisite electrical vibrations at the central station, by means of rheotomes. » (Cahill, Thaddeus. (1914). Music-Generating and Music-Distributed Apparatus. Patent no. US1107261, dated Aug. 18, 1914, (p.1))
  27. Lors d’un dîner de promotion au Maryland Club à Baltimore, Cahill dans son usine à Washington joua sur son Telharmonium le Largo du Xerxes de G.F. Haendel.
  28. « A mistaken idea that most people have of the instrument is that “we transmit music”. A s a matter of fact, we transmit only electrical vibrations; and when these vibrations reach the receiver diaphragm in your house, irrespective of distance, the diaphragm responds just as it does in this room. [...] Each key in the keyboard controls dynamos, which generate, not the musical note itself, but the exact number of electrical vibrations necessary to produce that note. » (In Telharmony, edited by New York Electric Music Company, Dec. 1906, (p. 5) —« [...] I synthetize composite electrical vibrations answering to the different notes and chords required. The amplitude of these electrical vibrations as electrical vibrations is governed at will by the performer, so that any expression desired is given to the music [...]. Every tone, except a pure tone, is composed of or reducible to a plurality of pure tones or sine-function vibrations to each other. The different pure tones or elemental tones entering into the composition of a single musical note, considered by the ear and by musicians as a single sound, are called its “partial tones”, “tone-partials”, or, more shortly, “partials”. The first partial by way of distinction is called the “fundamental” or “ground” tone and the other partials are called “overtones”. A tone is agreeable when it is formed of accordant partials. » (Cahill, Thaddeus. (1897). Art of and Apparatus for Generating and Distributing Music Electrically. Patent no. US000580035, dated April 6, 1897, pp. 2-3; completed by Patent no. US1213804, dated Jan. 23, 1917, and Patent no. US1295691, dated Feb. 25, 1919)
  29. « One enters a large salon, arranged like a private conservatory, with divans and easy chairs, ornamented by banks of potted plants and hung with great baskets of flowers. At the far end of the room, seated on a high stool as at an organ, are one or two musicians playing upon a double-banked keyboard, arranged with steps. Behind them rises a structure, bearing hundreds of wires, as might well passe for the interior of a complicated musical instrument, with the ornamental cover which would naturally hide its mechanism purposely emitted to rid its demonstration. The room is filled with the full, sweet notes of a Beethoven symphony or a Mendelssohn sonata, interpreted in notes wonderfully like the reed tones of an organ, but sharper, clearer, sweeter, purer. [...] Searching the room for the source of sound, it is found to proceed from the bank of flowers in the centre, where, hidden in its depths is a horn, from the mouth of which issue the full organ tones, as from a chamber below. And again from above one hears the musical notes. Looking closely at the hanging flower vases a tiny telephone receiver can be seen, which, too, is singing forth its melodies in concert with the horn, notes that are caught, amplified, and repeated to the listeners below. [...] » (Magic Music from The Telharmonium, In New York Times, Dec. 16, 1906)
  30. Busoni, Ferruccio. (1907). Sketch of a New Aesthetic of Music. (p. 33). G. Schirmer.
  31. Alexander Popov découvre en 1896 la télégraphie sans fil et en 1895 et 1897 Guglielmo Marconi expérimente la transmission sans fil, à la suite des premières tentatives de Natham Stubblefield en 1885 et 1892, et des essais de William Preece et d’Oliver Lodge en 1894. En 1900, Reginald Fessenden effectue la première transmission sonore par la radio, et le 24 décembre 1906, il diffuse de la musique par les mêmes moyens (Largo de Haendel, et une mélodie de Gounod). (Nota : cette référence est souvent controversée par manque de documentation sur l’événement lui-même)
  32. L’art de noter les cylindres et de créer des règles de notage destinées à simuler le jeu digital. (Jean Haury)
  33. « M. Wheatstone a fait assez récemment une expérience très curieuse. Quatre longues tringles en sapin, de 2 centimètres de diamètre, s’appuient par leur extrémité inférieure, la première sur la table d’harmonie d’un piano, la seconde sur le chevalet d’un violon, la troisième sur celui d’un violoncelle, et la quatrième sur la base de l’anche d’une clarinette. Ces instruments sont placés dans une cave, dont les tringles traversent la voûte, de manière que leur extrémité supérieure se trouve dans une chambre élevée de l’édifice, où elles soutiennet des caisses renforçantes en bois mince et élastique. Quand les instruments sont joués, ensemble ou séparément, leurs vibrations sont communiquées aux caisses par l’intermédiaire des tringles, et l’on entend la musique du petit orchestre, avec tous ses caractères et sans qu’il y ait aucune confusion. Vient-on à séparer une des tringles de la caisse qu’elle soutient, on n’entend plus l’instrument qui lui correspond; l’extrémité de la tringle frappant l’air par une trop grande étendue. » (Daguin, Pierre Adolphe (1861). Traité Élémentaire de Physique Théorique et Expérimentale avec les applications à météorologie et aux arts industriels. 2nd édition, Tome 1, (pp. 452-453), Toulouse : Privat). Il est dit aussi que Charles Wheatstone réussit en 1822 à utiliser un orchestre entier pour faire sonner son “Enchanted Lyre”.
  34. Cf. Infra 1 (24).
  35. W.A. Mozart : “Adagio et Allegro en Fa mineur pour orgue mécanique” KV. 594 (Ein Stuck für ein Orgelwerk in einer Uhr, 1790); “Fantasia pour orgue mécanique” KV. 608 (Ein Orgel-Stück für eine Uhr, 1791 - injouable par un instrumentiste); “Andante pour un cylindre dans un petit orgue mécanique” KV. 616 (Andante für eine Walze in ene kleine Orgel, 1791) — F.J. Haydn : “32 pièces pour horloge mécanique” (Flötenuhr) (1792) — L.V. Beethoven : “La Victoire de Wellington” pour Panharmonicon (1813) — « Le terme de musique mécanique s’applique à une musique produite sans instrumentiste, ou une musique transmise à longue portée et à long terme. » (Leichtentritt, Hugo. (1934). Mechanical Music in Olden Times. In The Musical Quarterly, 1034, Vol. XX (1), (pp. 15-26))
  36. In L’Illustration, no. 2947, Paris 1899.
  37. Martini, Wolfgang. (1925). Radio und Musik. In Deutsche Musikpflege, éd. par Josef Ludwig Fischer, Frankfurt a.M. : Bühnenvolksbund.
  38. Ceci est particulièrement relevé par Jason Freeman : « In one sense, almost all music is networked music : whenever musicians play together, their eyes and ears are connected by a complex, real-time network of aural and visual signals that have a tremendous impact on what they play and how they play it. And musicians are usually part of a second network as well, which connects them back to the composer who created the score and the listeners who hear the performance (of a recording of it). » (Jason Freeman, Interview par Helen Thorington sur le site turbulence.org, le 3 novembre 2007, http://turbulence.org/networked_music_review/2007/03/11/interview-jason-freeman/ ). Cette réflexion rejoint les études menées par Alfred Schütz sur la relation sociale dans la musique.
  39. Hugill, Andrew. (2005). Internet Music : An Introduction. In Contemporary Music Review, Vol. 24, no. 6, (pp. 429-437). Et aussi : Álvaro Barbosa (2003), Peter Traub (2005), Golo Föllmer (2005), Rohrhuber (2007).
  40. Place T.A. (2000). Object Frameworks in Game-Based Musical Composition. University of Missouri - Kansas City, Dec. 2000; Pelz-Sherman M. (1998). A Framework for the Analysis of Performer Interactions in Western Improvised Contemporary Art Music. PhD diss., University of California - San Diego.
  41. http://www.sarc.qub.ac.uk/~fschroeder/
  42. Du latin : hic (ici), illic (là-bas), simul (ensemble, en même temps), nunc (maintenant).
  43. Comme dans le cas de Netrooms - The Long Feedback de Pedro Rebelo (2008/2010) : http://pedrorebelo.wordpress.com et http://www.sarc.qub.ac.uk/~prebelo/netrooms/ http://netrooms.wordpress.com
  44. Voir à ce sujet la réalisation du concert en réseau de la création de « Paroxysmes » de Pierre Henry le 15 janvier 2012. Ne pouvant se déplacer pour un long voyage, Pierre Henry jouait à partir de chez lui cette œuvre qui était diffusée et spatialisée simultanément pour un public à Hobart en Tasmanie pour le festival MOFO (MONA FOMA) 2012, avec les moyens de medici.tv . http://fr.medici.tv/event-pierre-henry-paroxysms/embed/
  45. Lazzaro J. & Wawrzynek J. (2001). A case for network musical performance. In NOSSDAV '01: Proceedings of the 11th international workshop on Network and operating systems support for digital audio and video, (pp. 157-166). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/378344.378367
  46. Renaud A., Carôt A. & Rebelo P. (2007). Networked Music Performance: State of the Art. Paper, AES 30th International Conference, Saariselkä, Finland, 2007 March 15-17; Schroeder F., Renaud A., Rebelo P. & Gualda F. (2007). Adressing the Network: Performative Strategies for Playing Apart. In Proceedings of the International Computer Music Conference 2007, Copenhagen, Denmark, August 2007, (pp.133-140); Renaud A. & Rebelo P. (2006). Network Performance: Strategies and Applications. Paper NIME 2006; Barbosa À. (2003). Displaced SoundScapes: A Survey of Network Systems for Music and Sonic Art Creation. In Leonardo Music Journal, Vol. 13, No. 1, (pp. 53-59).
  47. Le GRAME-EOC music ensemble a effectué des répétitions réparties entre l'Université de Genève et le Research Center for Information Technology à Bonn, le 15 novembre 1996. L'œuvre en répétition était « Dérive » (1984) de Pierre Boulez. Les 6 musiciens étaient à Genève et le chef d'orchestre à Bonn (http://asg.unige.ch/projects/dvp/wp434/wp43c.html ). Cette expérience avait précédé d’une autre concernant la répétition en ligne de deux œuvres pour deux chanteurs et piano : Haendel's « Israel in Egypt » and Britten's » Abraham and Isaac ». En 1998, pour la cérémonie d'ouverture des Jeux Olympiques de Nagano, Seiji Osawa a dirigé un ensemble de chœurs répartis sur les 5 continents pour jouer l'« Ode à la Joie » de Ludwig Van Beethoven. Il y avait 200 chanteurs dans chaque ville (Sydney, New York, Beijing, Berlin, False Bay), ainsi que 2000 chanteurs, le chef d'orchestre, huit solistes et l'orchestre sur place à Nagano. (http://www.shinmai.co.jp/oly-eng/alacarte/kaikai.htm , http://www.nytimes.com/1998/02/07/sports/xviii-winter-games-latest-sport-after-worldwide-effort-synchronized-singing-gets.html )
  48. Alexandraki, C., Koutlemanis, P., Gasteratos, P., Valsamakis, N., Akoumianakis, D., Milolidakis, G., Vellis, G. & Kotsalis, D. (2008). Towards the implementation of a generic platform for networked music performance: The DIAMOUSES approach. In EProceedings of the ICMC 2008 International Computer Music Conference (ICMC 2008), (pp. 251-258).
  49. Le groupe Future Sound of London (FSOL) a réalisé la tournée et le cd « ISDN » en 1994 en restant « à la maison ». Ils jouaient à partir de chez eux avec une connexion ISDN. http://www.secondthought.co.uk/fsol/
  50. http://www.piano-e-competition.com/ (concours international sur Disklavier, et à l’aide d’auditions virtuelles et à distance, organisées, pour l’édition 2011, dans huit villes dans le monde entier : Tokyo, en Chine, Paris, Moscou, Toronto et Vancouver, Los Angeles et New York; chaque performance est enregistrée sur le piano Disklavier et en vidéo ; il n’est pas précisé si le jury est également en réseau)
  51. Sawchuk, A., Chew, E., Zimmermann, R., Papadopoulos,C. & Kyriakakis,C. (2003). From remote media immersion to Distributed Immersive Performance. In ETP '03: Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence, (pp. 110-120). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/982484.982506
  52. Cf. Supra 7.
  53. Tout comme Lully, Rameau, Brahms, Bartok et Canteloube. « “Central Park in the Dark” évoque la nuit dans le Manhattan des années 1890 lorsque Ives était un jeune étudiant et un observateur enthousiaste du paysage urbain qui l’entourait. Le parc à la nuit tombée est décrit par une musique intense et douce, à l’harmonie et au rythme changeants, interprétée par les cordes. Au lointain, on entend un myriade d’événements : de la musique sortant d’un bar (l’air populaire « Hello, Ma Baby ! »), un cheval qui s’enfuit, un train, des pianolas jouant du ragtime, jusqu’à ce que la nuit se manifeste de nouveau — par un écho au-dessus du bassin du parc — avant de rentrer chez soi. On y entend effectivement la nuit, les arbres, une douce brise d’été. Á sa façon, Ives était le plus grand impressionniste américain. [...] [Par ailleurs], « Country Band March » (1903) est une évocation ironique et tapageuse des orchestres amateurs qe connut Ives dans sa jeunesse à Danbury. Ainsi qu’il l’écrivit à l’un de ses copistes, ces orchestres “ne jouaient pas toujours juste ni ensemble, mais c’était aussi bien comme cela”. Pour Ives, la maladresse des amateurs, leurs fausses notes et leur imprécision rythmique étaient la manifestation de leur enthousiasme, un symbole d’humanité, qui n’en était pas moins drôle pour autant. [...] Ives ne se moque pas des musiciens sans talent, il se joint à leur joie et insère des “quasi-fautes” pour découvrir des harmonies et des rythmes nouveaux. » (Jan Swafford, traduit par Pierre-Martin Juban, in livret accompagnant l’enregistrement de la Symphony no. 3 (“Washington Birthday”) interprétée par le Northern Sinfonia dirigé par James Sinclair, et publié chez Naxos Classical — enregistrement des 19 et 20 juillet 2000 à All Saints Church, Quayside, Newcastle upon Tyne, UK)
  54. De plus, les récepteurs radio étaient inter-connectés, les uns influençant les autres. (Pritchett, J. (1993). The Music of John Cage. Cambridge University Press, Cambridge UK)
  55. Les “cori spezzati” (chœurs séparés et répartis) utilisés par Giovanni Gabrieli (1557-1612) dans la Cathédrale Saint-Marc à Venise pour les « Sacrae Symphoniæ” en 1597, et avant lui Adrian Willaert (1490-1562) dans les « Salmi Spezzati » (1550).
  56. « Nuper Rosarum Flores » (1436), un motet isorythmique dont la structure est supposée reflèter la structure architecturale de la cathédrale Santa Maria del Fiore à Florence, pour laquelle il a été composé.
  57. Et du développement électronique, utilisant les configurations et les circuits comme des “partitions”, telles que celles des œuvres de Gordon Mumma (“Hornpipe”, 1967, “Mesa”, 1969), de David Tudor (“Rainforest”, 1968-73) ou encore de Paul DeMarinis (“Pygmy Gamelan”, 1975). Voir aussi : Gresham-Lancaster S. (1998). The Aesthetics and History of the Hub : The Effects of Changing Technology on Network Computer Music. In Leonardo Music Journal, Vol. 8, (pp. 39-44).
  58. « Le chapitre du rapport “Quelques propositions touchant les orientations de travail en musique et musicologie du XXième siècle”, rédigé par Hughes Dufourt, propose certaines directions de recherche en musicologie tirant parti des possibilités des réseaux et du multimedia : introduction de liens hypermedia dans les documents musicaux accessibles en réseau; utilisation d’outils de création musicale pour la consultation et l’anayse des matériaux musicaux (sonores ou symboliques) accessibles sur le réseau. » (Risset, 1998; pp. 145-146) http://www.education.gouv.fr/cid1905/art-science-technologie-a.s.t.html
  59. Place T.A. (2000). Objects Frameworks on Game-Based Musical Compositio. working paper, University of Missouri, Kansas City, December 10, 2000.







   
   
   
    [Edit] [Hist] [UP] [List] [New]   [Log out]


1995/2019 — Powered by LionWiki 3.1.1 — Thanks to Adam Zivner — webmaster & webdesign : Jérôme Joy — Author : Jérôme Joy — Any material is under copyleft © with in-line & in-text attributions —
http://jeromejoy.org/ — Hosted by nujus.net NYC since 2007, and by The Thing NYC (between 1995-2007 — Thanks to Wolfgang Staehle and the Thing team).