Coordination Ircam : Olivier Warusfel L’objet de ce projet est d’exploiter les propriétés perceptives multi-sensorielles afin d’optimiser la qualité et l’interactivité des applications de réalité virtuelle. Notre perception est coordonnée à travers différentes modalités sensorielles, notamment visuelle et auditive mais également proprioceptive. Différentes études ont mis en évidence des phénomènes d’intégration sensorielle dans lesquels une modalité sensorielle est affectée par une autre, notamment en termes de congruence spatiale ou temporelle. Aussi, les algorithmes de restitution visuelle et sonore qui exploitent les propriétés perceptives devraient-ils prendre en compte ces propriétés d’intégration multi-sensorielle dès lors que l’on se situe dans le cadre d’un environnement virtuel multimédia. La démarche générale du projet a consisté à identifier, sur la base d’études bibliographiques, les phénomènes inter-modalitaires les plus prometteurs pour l’optimisation du rendu visuel et sonore. Les candidats principaux sont, par exemple, les effets de congruence spatiale (effet visuo-auditif ventriloque) ou de dominance sonore pour la perception des phénomènes temporels et périphériques. Dans un premier temps, les expériences ont été appliquées à des environnements simples en vue de leur exploitation ultérieure dans les domaines d’application comme le jeu, les simulateurs pour l’architecture, les transports ou la médecine, et les applications artistiques et culturelles. Les travaux menés par l’Ircam au cours de ce projet ont fait l’objet de nombreuses publications en collaboration avec les autres partenaires [Suied09a ; Suied09b ; Nguyen09a ; Bonneel10a ; Drettakis07a ; Moeck07a ; Bonneel08a ; Suied08c ; Suied08d ; ViaudDelmon08a].