Equipe concernée : Analyse et synthèse des sons
Financement : ANR - TLOG
Période de réalisation : janvier 2008 à décembre 2009
Partenaires extérieurs : Cantoche, LIMSI, Voxler
Coordinateur Ircam : Xavier Rodet
De nombreux acteurs économiques investissent aujourd'hui massivement dans la création de services, de jeux ou de mondes virtuels où les utilisateurs interagissent entre eux via leur « avatar ».
Le projet Affective Avatars a pour but de créer des avatars affectifs animés en temps réel. La voix de l'utilisateur est l'interface de contrôle de l'expressivité de l'avatar. Les paramètres expressifs/émotionnels extraits par traitement du signal vocal en temps réel, sont utilisés pour piloter l'expression labiale, faciale et corporelle des avatars. Le timbre vocal de l'utilisateur est également transformé en temps réel pour donner à l'avatar une voix cohérente et adaptée à son image. Nous abordons quatre verrous scientifiques/technologiques dans ce projet :
-
Détection d'émotions dans la voix humaine ;
-
Modélisation de l'expressivité corporelle (bodytalk) ;
-
Transformation du timbre vocal en temps réel;
-
Modélisation d'un catalogue de profils vocaux avec expressivité et cohésion multimodale.
Dostları ilə paylaş: |