2.10.2.1Synthèse concaténative basée sur des corpus
La synthèse concaténative basée sur des corpus peut être considérée comme un exemple de synthèse interactive mettant à profit une analyse de sons enregistrés avec des descripteurs sonores (voir la publication dans IEEE signal processing [Schwarz07a]). Cette méthode, implémentée sous la forme du logiciel CataRT, a fait l’objet d’améliorations constantes, en introduisant par exemple une mesure de continuité entre segments sonores, l’utilisation de réduction de dimensionnalité, utilisant des méthodes de multi-dimensional scaling combinées avec des arbres de recherche binaire (kD-Trees) [Schwarz09a, 09b], et des systèmes de visualisation adaptés pour l’interaction [Lallemand11a].
Depuis 2010, le projet ANR Topophonie nous a permis de développer CataRT dans un contexte plus large, en considérant des formes appelées « audiographiques », dans lesquelles les modalités visuelles et sonores sont synchronisées. Précisément, nous avons étendu la synthèse par corpus au problème de la génération de textures sonores en utilisant des paramètres phénoménologiques. Un large travail de recherche bibliographique effectué dans ce contexte a fait l’objet d’une publication et présenté comme une des trois contributions « State of the Art » de la conférence DAFx [Schwarz11c].
Un autre fait marquant concerne la dissémination par deux workshops internationaux que nous avons co-organisé sur la modélisation audiographique en 2011.
Ce travail a établi une base solide pour la thèse de Ianis Lallemand qui, en collaboration avec le Lip6 (UPMC), concerne la structuration des données sonores pour la synthèse concaténative. Une première étape a consisté à caractériser de textures sonores [Lallemand12a].
Dostları ilə paylaş: |