samedi 6 février 2010

La Semaine du Son - janvier 2010 (1)


Outils et pratiques
de la création sonore

Conférences du jeudi 14 janvier – Ircam - Paris

Très riche journée proposée par l’Ircam, sous la forme d'un programme d'exposés consacrés aux outils et aux pratiques de la création sonore, exemples concrets à l’appui. Signal sur bruit a extrait de ce programme les présentations dédiés aux outils plus qu'à ceux relevant des pratiques. Une manière de faire un point sur l’état de l’art en la matière.

Traitements audio avancés par vocodeur de phase - par Axel Roebel

Le Vocodeur de Phase est l'une des techniques les plus performantes pour l'analyse et la transformation des sons. L’implémentation logicielle qui en est réalisée à l’Ircam porte le nom de SuperVP, et consiste en une bibliothèque de fonctions avancées d’analyse et de traitement du signal. Le principe de base de ce vocodeur de phase consiste à calculer au fil de l’eau les transformées de Fourrier à court terme d’un échantillon sonore donné, et d’appliquer à cette décomposition fréquentielle (portant information d’amplitude et de phase des composantes) des opérations de filtrage qui peuvent elles-mêmes être variables dans le temps.

Comme dans toutes les opérations d’analyse et de manipulation du spectre d’un signal, il existe un compromis à ajuster entre précision temporelle et fréquentielle de l’analyse. Un son rapidement variable sera analysé à l’aide de fenêtres temporelles très fines, ce qui entraînera une imprécision sur l’évaluation de ces composantes fréquentielles. Inversement, un signal plus stable peut bénéficier de l’augmentation de sa fenêtre d’observation, et donc d’une détermination plus précise de ses fréquences.

Les applications de cette technique sont principalement orientées sur la transformation et l’analyse des sons vocaux et musicaux. En termes de traitement, elles permettent par exemple de réaliser des transpositions en fréquence et en timbre de grande qualité, d'étirer ou de raccourcir des sons sans en changer l’attaque ni le timbre, de débruiter des séquences, de réaliser des fonctions de filtrages très complexes. Notamment dans le domaine du filtrage croisé - où le spectre d’un signal peut servir à en filtrer un autre (de manière par exemple à donner à un message de parole le timbre d’un instrument) – ou dans celui du «morphing» (glissement progressif du timbre d’un instrument au timbre d’un autre).

En toute fin de présentation, une démonstration spectaculaire : à l’aide de l’application TRaX, interface de pilotage «haut niveau» de SuperVP, l’utilisateur peut extraire une ligne instrumentale d’un morceau  - ici la partie de trompette de Miles Davis dans «So What» -, d’en effectuer une transposition une octave plus haut et de remixer la nouvelle phrase dans le morceau original… On réécoute : Miles joue effectivement une octave plus haut, sans artefact notable, avec une matière sonore préservée !

Le logiciel AudioSculpt constitue une autre interface graphique possible pour SuperVP, qui permet littéralement de sculpter les sons à partir de leur représentation sous forme de sonogrammes. Que ce soit via TRaX ou Audiosculpt, les options de traitement offertes par la technique du vocodeur de phase sont innombrables et permettent des résultats de haute qualité (résolution des fichiers traités : jusqu'à 32-bit/192 kHz, en notation entière et flottante).


Synthèse par modélisation physique et lutherie virtuelle - par René Caussé et Nicholas Ellis

Un des domaines les plus fascinants de la synthèse sonore consiste en la modélisation physique d’instruments. Cette approche ne cherche pas à découvrir quels sont les caractéristiques d’un son existant qui pourraient permettre de le synthétiser a postériori, mais s’interroge sur la manière dont les sons sont produits, par un instrument donné, dès lors que celui-ci reçoit une excitation déterminée.

Il convient donc d’une part de modéliser l’instrument (et par extension, tout objet matériel existant ou fictif) le plus finement possible, c'est-à-dire d’en construire une «image» informatique extrêmement détaillée. Pour ce faire, les ingénieurs de l’Ircam n’ont d’autres moyens que celui consistant à décrire par le menu les différents pièces constitutives d’un instrument donné. D’autre part, il faut décrire le stimulus (touché d’une note, souffle, frappe, frottement d’un archet) dans le maximum de ses composantes (pression, flux d’air introduit, sens et vitesse du geste).

Ensuite, on combine stimuli et comportement modélisé de l’instrument, pour obtenir une forme d’onde, convertible en signal sonore. On conçoit que cette approche soit très gourmande en temps de calcul, et qu’elle n’ait pu se développer que grâce à l’augmentation constante de la puissance des matériels informatiques. Il faut aussi mentionner toutes les difficultés d’adaptation «empirique» des modèles, avant d’obtenir, d’un clavecin modélisé… un véritable son de clavecin !

Ces opérations sont effectuées à l’aide du logiciel Modalys. La qualité des extraits sonores écoutés prouve le bien-fondé de cette approche.

Notons au passage qu’en régime linéaire (excitations d’amplitude faible à moyenne), tout objet vibrant même complexe peut se décomposer en un nombre fini de résonateurs élémentaires unidimensionnels, c'est-à-dire en une série petits «mécanismes simples» comprenant une masse, un ressort et une fonction d’amortissement déterminés. Malheureusement, comme dans beaucoup d’autres domaines de la physique, des non-linéarités apparaissent lorsque les grandeurs d’entrée du système dépassent certains seuils… et ces modèles cessent alors de s’appliquer (divergence de la modélisation par rapport au comportement de l’objet réel).

Une bonne illustration de cette décomposition en résonateurs est donnée par l’exemple d’un son de cloche obtenu par cette synthèse. Le logiciel Modalys permet d’en visualiser la forme, et de visualiser aussi les différents modes de résonance correspondant aux résonateurs élémentaires. Modalys se paramètre en langage textuel Lisp, mais peut aussi faire appel à des bibliothèques de fonctions intégrées à l’environnement OpenMusic. L’interfaçage temps réel avec Max/MSP est également possible.

Hormis leur attaque assez caractéristique, on constate que l’écoute individuelle de chacune des composantes du son de cloche n’a qu’un lointain rapport avec le son «composite» original. Mais c’est leur addition qui reproduit la forme d’onde complète, et donc le son véritable de l’objet en question.

Cette synthèse permet également des expériences intéressantes… Appliquer à un objet modélisé une stimulation inhabituelle (cas d’un vol de moustique excitant cette même cloche : résultat très convaincant, même si cette situation est peu usuelle !). Ou encore, modéliser un instrument qui n’existe pas, tel ce Plaquarillon conçu par Nicholas Elis, constitué de plaques de métal de forme ajustable, dont on peut jouer en temps réel, et qui présente toute la richesse d’un véritable instrument (la frappe des plaques peut se faire en tout point de celle-ci ; le positionnement des «micros virtuels» permettant d’en capter la vibration peut également varier) joué par un véritable musicien.

Mais les possibilités de Modalys ne s’arrêtent pas là : elles permettent aussi de réaliser des opérations de morphing sonore, ou encore de faire varier le caractère boisé ou métallique d’un instrument modélisé. Il s’agit donc d’une technique qui approche désormais le réel avec un excellent degré de fidélité, et permet par ailleurs d’envisager l’inimaginable…