LE JOURNAL DU CNRS numéro 221 Juin 2008
TITRE : Europe : l’heure des choix
SOMMAIRE GENERAL :
Recherches musicales : Les murs du son
Réalité virtuelle : Le stylo pour apprendre à écrire
Biomatériaux : Les promesses du chitosane
Astrophysique : Des révélations sur le méthane de Titan
Préhistoire : L'ambre aux mille trésors
Environnement : Du sable dans les rouages du climat
8 juin 2008, Journée mondiale des océans : Clair comme l'eau du Pacifique
Synchrotron : Les atomes bientôt vus aux rayons X
8 juin 2008, Journée mondiale des océans : Mesurer la désertification des océans
Fondation Pierre-Gilles-de-Gennes : La recherche médicale à guichet ouvert
Fire Code et Hydroleme : Deux armes contre les feux de forêt
Le bac, un standard bicentenaire
Anthropologie : L'art des mélanges
Astrophysique : Le CNRS traque les astroparticules
8 juin 2008, Journée mondiale des océans : Alerte à l'acidification des océans
Carrières : Où sont les femmes ?
Jeunes : Les lycéens de Corse à la rencontre des chercheurs
Colloque : La Nouvelle-Calédonie, vingt ans après
République de Corée : Une mine d'or pour les sciences
Brèves
Enquête : Europe : l'heure des choix
Recherches musicales : Les murs du son
Le 21 juin prochain, nos rues seront envahies de musiciens amateurs et professionnels, pour célébrer la 27e Fête de la musique. À cette occasion, le département de recherche et développement de l'Ircam nous ouvre ses portes. En cette fraîche matinée printanière, sur la place Stravinsky, entre le Centre Georges Pompidou et l’église Saint-Merri, les touristes croisent les Parisiens pressés. Les premiers admirent les mécanismes colorés de la fontaine de Niki de Saint-Phalle et Jean Tinguely, les seconds rejoignent leurs bureaux d’un pas décidé… Tous inconscients que sous le sol tintent les premiers do-ré-mi d’une « musique scientifique ». C’est en effet là, sous le pavé, qu’est installé le laboratoire (Sciences et technologies de la musique et du son (STMS), unité mixte de recherche CNRS / Ircam) de l’Institut de recherche et coordination acoustique/musique (Ircam), le plus grand centre de recherche publique dans le monde dédié à la création musicale, ouvert en 1977 par le compositeur Pierre Boulez. « Un lieu qui accueille les artistes et les chercheurs pour leur bénéfice réciproque, qui met en relation des langages et des temporalités de réalisation différents à l’aide d’un vecteur commun, la technologie », décrit son directeur scientifique, Hugues Vinet. L’ascenseur nous emmène donc sous terre, dans un espace créé par les deux architectes du Centre Georges Pompidou, Renzo Piano et Richard Rogers : un grand hall surplombé d’une verrière sur un côté duquel s’alignent, sur deux niveaux, des bureaux vitrés. À l’intérieur, acousticiens, ingénieurs du son, mathématiciens, musicologues, électroniciens, informaticiens s’affairent. Plus loin se trouvent les studios d’enregistrement et la chambre dite « anéchoïque », car les murs, recouverts d’impressionnants piquants de mousse, empêchent toute réverbération des sons. Ici sont créés et décryptés les sons d’aujourd’hui, tant musicaux qu’environnementaux. « Nos activités couvrent le cycle complet de production, de la recherche scientifique à la mise en œuvre de la création en passant par le développement technologique, sans oublier l’approche conceptuelle du son », précise Hugues Vinet. Quelque part, un coup de trompette retentit : dans ce temple de la musique synthétique, les instruments acoustiques ont largement droit de cité. L’un des objectifs des chercheurs est en effet de reproduire leurs sons par ordinateur. « Et comme il est très difficile d’imiter tous les détails d’un son émis par un instrument – les changements de timbre, les transitions entre les notes – nous avons dû mettre au point des outils qui nous permettent d’étudier précisément les instruments traditionnels », indique René Caussé, responsable de l’équipe « Acoustique instrumentale ». C’est ainsi qu’est né, pour les instruments à vent, le « robot musicien », en collaboration avec l’École des mines. Ce dispositif est muni d’une bouche artificielle en plexiglas dont les lèvres, tubes en latex remplis d’eau et appuyés sur l’instrument (une trompette pour le moment), vibrent sous l’action de l’air comprimé. Cette bouche, pilotée par ordinateur, permet d’étudier de manière contrôlée les conditions nécessaires à l’émission d’une note. Parallèlement, les chercheurs modélisent les instruments à l’aide de leur logiciel Modalys, un véritable établi de lutherie virtuelle sur lequel on peut frapper, frotter, pincer des tubes, cordes, plaques ou structures plus complexes afin de générer des sons. L’opérateur a alors tout loisir de reproduire des instruments classiques ou d’en inventer de nouveaux. Et si le résultat sonore n’est pas satisfaisant ? Les physiciens prennent le relais. « Pour obtenir des instruments virtuels qui sonnent de manière naturelle, il faut prendre en compte des phénomènes complexes », explique Thomas Hélie, chercheur de l’équipe « Analyse et synthèse des sons ». C’est le cas par exemple de l’échauffement de l’air sur les parois de l’instrument ou encore des changements de timbre selon que le musicien joue fortissimo ou non. Des modèles physiques élaborés à l’Ircam permettent désormais de résoudre ces problèmes pour des instruments simples. Il n’y a pas que les sons instrumentaux que les chercheurs de l’Ircam savent synthétiser. La voix humaine fait aussi partie de leur panoplie. Ils ont, par exemple, donné sa voix de castrat à Farinelli, personnage éponyme du film de Gérard Corbiau et, récemment, transformé la voix de l’acteur Andy Gillet dans Les amours d’Astrée et de Céladon, d’Éric Rohmer. Des prouesses permises par le développement de logiciels d’analyse et de traitement des sons comme Audiosculpt et SuperVP, qui permettent de modifier des caractéristiques physiques d’un son sans le dénaturer. « Nous sommes maintenant impliqués dans un projet destiné au multimédia, indique Xavier Rodet, responsable de l’équipe « Analyse et synthèse des sons ». Notre objectif : créer des voix synthétiques expressives, capables de restituer des affects, des intentions… » Pour cela, des acteurs viennent les épauler. La synthèse de sons peut en outre servir à des projets plus industriels. L’équipe « Perception et design sonores », dirigée par Patrick Susini, étudie la manière dont sont perçus les sons du quotidien et en crée de nouveaux selon leur fonction et leur contexte d’usage. Ils ont par exemple conçu pour le constructeur automobile Renault des alarmes ayant différents degrés d’urgence. « Nous faisons appel à de multiples disciplines, comme la psychoacoustique, la psychologie expérimentale et les sciences cognitives, afin de mieux comprendre notre culture sonore et d’y introduire des sons inédits », explique Nicolas Misdariis, membre de l’équipe. Quelle que soit son application, la création sonore passe souvent par une phase de traitement du signal. L’enjeu à l’Ircam est désormais de capter les gestes du musicien et le son des instruments pour contrôler des processus sonores en temps réel. Après avoir créé un « violon augmenté », avec un archet muni de capteurs de mouvements, analysés par ordinateur en temps réel, les chercheurs réalisent un quatuor augmenté. Le but ? Frédéric Bevilacqua, responsable de l’équipe « Interactions musicales temps réel », explique : « Les effets sonores additionnels synthétiques, choisis au préalable par le compositeur, sont toujours diffusés au bon moment par l’ordinateur, puisque ce sont les mouvements du musicien qui le contrôlent directement. » Nul besoin de bande préenregistrée ou d’assistant aux aguets, le doigt sur la bonne touche. Le lien entre l’ordinateur et le musicien peut être encore plus étroit, grâce au logiciel Omax, fusion de deux logiciels de l’Ircam, Max/MSP, standard mondial pour l’interactivité sonore temps réel, et Openmusic, pour la composition et l’analyse musicale assistées par ordinateur. Le logiciel est capable de capter la musique jouée, d’établir un modèle de la composition (les répétitions, le style, etc.), puis de recombiner des séquences dans un ordre différent afin de jouer une partition inédite. « Le logiciel devient inventif, explique Gérard Assayag, responsable de l’équipe « Représentations musicales ». On peut alors imaginer des concerts où le musicien jouerait et improviserait avec son “clone” virtuel. » Concerts qui, grâce aux travaux de l’équipe « Acoustique des salles », peuvent prendre une dimension impressionnante. Ces chercheurs s’intéressent particulièrement aux techniques de diffusion en trois dimensions, comme la Wave Field Synthesis (WFS). Les systèmes stéréophoniques actuels, comme le 2.1 ou le 5.1, imposent à l’auditeur une position optimale. S’il se déplace, l’effet « d’espace » disparaît, et le haut-parleur le plus proche devient prépondérant. La WFS, elle, se base sur un réseau dense de haut-parleurs, pilotés par ordinateur. « Grâce à cette technologie, tous les spectateurs ont la même impression de spatialisation, quelle que soit leur position dans la salle, indique Olivier Warusfel, responsable de l’équipe. Le système s’efface au profit d’une source sonore virtuelle, identique pour tout le monde. » Une technologie si efficace que l’Ircam a décidé de l’installer dans sa salle de concert : 128 haut-parleurs seront bientôt disposés en nez de scène, pour le plus grand bonheur des futurs spectateurs. L’apport des chercheurs de l’Ircam à la création musicale et sonore ne se limite toutefois pas à la technologie. Ils s’intéressent aussi au processus créatif. Nicolas Donin et ses collègues de l’équipe « Analyse des pratiques musicales » reconstruisent le travail des artistes, compositeurs comme Philippe Leroux ou Florence Baschet, mais aussi interprètes comme la chanteuse Valérie Philippin ou le Quatuor Danel. Enregistrements vidéos, interviews, mises en situation de travail permettent de reconstituer l’histoire de la création ou de l’interprétation d’une œuvre et de mieux connaître les intentions de l’artiste. « Des travaux qui servent non seulement aux actions pédagogiques de l’Ircam, pour expliquer les œuvres au public, mais aussi à la prospective sur les nouveaux usages des logiciels d’aide à la création », indique Nicolas Donin. On le voit, rarement une discipline artistique aura été si bien servie par la science. Alors plus d’hésitations. Lorsque vous flânerez sur la place Stravinsky, jetez un coup d’œil à la programmation musicale de l’Ircam. Prochain rendez-vous du 5 au 20 juin, pour le festival de musique contemporaine Agora.
De la musique avant toute chose
Outre le département de recherche et développement, qui compte une centaine de collaborateurs, l’Ircam dispose d’un département de création qui assure la production des œuvres et leur diffusion au public, et d’un département de pédagogie où les compositeurs peuvent apprendre à se servir des logiciels « maison ». L’Ircam a aussi mis en place le Forum, qui compte quelque 1 500 utilisateurs de ces logiciels dans le monde. Sa médiathèque permet l’accès à la base de données Brahms de musique contemporaine, la plus complète au monde. Quant à la salle de concert de 375 mètres carrés, elle offre une acoustique exceptionnelle grâce à son plafond mobile et à ses murs constitués de plus de 500 modules pivotants. D’un lieu intime et chaleureux, celle-ci peut devenir en quelques instants une véritable cathédrale
Fabrice Demarthon
Contact : Laboratoire « Sciences et technologies de la musique et du son » (STMS), Paris
Hugues Vinet, hugues.vinet@ircam.fr
René Caussé, rene.causse@ircam.fr
Thomas Hélie, thomas.helie@ircam.fr
Xavier Rodet, xavier.rodet@ircam.fr
Nicolas Misdariis, nicolas.misdariis@ircam.fr
Frédéric Bevilacqua, frederic.bevilacqua@ircam.fr
Gérard Assayag, gerard.assayag@ircam.fr
Olivier Warusfel, olivier.warusfel@ircam.fr
Nicolas Donin, nicolas.donin@ircam.fr
Retour
Dostları ilə paylaş: |