Traitement d’images & Son

Et si la programmation audio devenait un jeu d’enfant ?

Date:
Mis à jour le 18/03/2022
Nous vivons entourés de systèmes audio embarqués : synthétiseurs, casques à annulation de bruit, assistants vocaux, enceintes Bluetooth, smartphones... Des chercheurs lyonnais veulent démocratiser et simplifier leur programmation pour la mettre à portée de tous : musiciens, compositeurs, ingénieurs du son, geeks et même élèves du primaire et du secondaire via l’informatique musicale.
Illustration écouteurs audio
© Arina Habich - Fotolia

Les systèmes audio embarqués en hausse continue

Les systèmes audio embarqués font partie de ces objets du quotidien que nous utilisons en permanence sans en avoir conscience. Des exemples ? L’assistant vocal de notre smartphone, la poupée ou le jouet qui parle, le casque Bluetooth, la musique d’ambiance d’applications mobiles, le synthétiseur… « Leur nombre augmente sans cesse, d’autant que les processeurs sur lesquels on peut les installer se multiplient et offrent des possibilités inéditesexplique Tanguy Risset, chercheur au laboratoire lyonnais Citi (Insa Lyon et Inria). Par exemple, des microcontrôleurs qui ne coûtent que quelques euros, ou les FPGA (Field Programmable Gate Arrays), qui donnent accès au temps réel audio : moins d’une milliseconde entre une instruction et la production du son, un décalage imperceptible pour l’oreille humaine. »

Mais ces processeurs ont un revers : ils sont difficiles à programmer, voire très difficiles pour les FPGA. Or, la majorité des systèmes audio embarqués ne sont pas développés par des professionnels de l’informatique, mais par des passionnés : geeks, compositeurs, musiciens, ingénieurs du son, makers qui s’approprient les nouvelles technologies pour fabriquer des objets bien à eux… Quant aux entreprises qui vendent des systèmes audio embarqués, elles surmontent cette complexité de programmation en acceptant d’y consacrer beaucoup de temps.

Orienter Faust vers les systèmes audio embarqués

C’est pour faciliter la tâche de ces publics que des chercheurs lyonnais du Citi et du Grame (Centre national de création musicale) travaillent ensemble depuis deux ans. Le Citi est un spécialiste des systèmes embarqués, du traitement du signal et de la compilation. Le Grame a conçu le langage de programmation Faust, utilisé dans le monde entier pour développer des systèmes audio sans gérer la partie purement informatique.

« Faust, qui existe depuis quinze ans, ne ciblait pas au départ l’audio embarqué, souligne Yann Orlarey, du Grame. Nous le faisons évoluer dans cette direction, avec des compilateurs qui traduisent un programme en Faust – facile à créer – en un programme exécutable sur système embarqué. L’objectif, c’est de multiplier ces compilateurs pour couvrir tous les processeurs du marché, jusqu’aux FPGA. »

Sur ce dernier sujet, de loin le plus ambitieux, le Grame, le Citi et le laboratoire LMFA (Laboratoire de mécanique des fluides et d’acoustique, rattaché à l'École centrale de Lyon, au CNRS, à l'université Claude Bernard- Lyon 1 et à l'INSA de Lyon) bénéficient depuis mars 2021 d’un financement public à travers le projet de l'Agence National de la Recherche FAST. Ils ont déjà mis au point un prototype de compilateur Faust-FPGA qu’ils améliorent étape par étape.

L’informatique musicale commence à l’école

Mais l’objectif est bien de toucher tous les publics. En témoigne un autre projet porté par le Grame, Astramgrame, axé sur un instrument de musique électronique programmable pour élèves du primaire et du secondaire. « Nous avons appelé cet instrument le Gramophone, annonce Romain Michon, d’Inria. Il a la taille et la forme d’une petite boite de conserve. Les jeunes apprennent à le programmer sur Faust, en exploitant leurs cours de maths et de physique. Chaque élève dispose de son Gramophone et une classe peut constituer un orchestre, voire travailler avec un musicien pour créer des morceaux originaux et les interpréter. »

Pour aller vers ces applications bien concrètes, l’équipe lyonnaise passe par des étapes de recherche plus en amont. « Nous développons par exemple des algorithmes de traitement du signal pour l’audio, illustre Yann Orlarey. Nous explorons aussi de nouvelles techniques arithmétiques, pour garantir l’exactitude des calculs sans imposer comme aujourd’hui des opérations manuelles. Tout cela contribue à faciliter l’accès aux systèmes embarqués. »

L’électroencéphalogramme sonorisé, un "stéthoscope du cerveau"

Et les systèmes de demain surprendront par leur caractère innovant. Ainsi, aux États-Unis, une startup de l’université de Stanford travaille sur une version sonorisée de l’électroencéphalogramme (EEG), en quelque sorte un "stéthoscope du cerveau". Il permettrait au neurologue de se faire une idée de l’activité cérébrale, bien plus facilement qu’avec les tracés de signaux imprimés sur papier. « Nous avons découvert ce projet quand la startup a prototypé son système sur Faust, raconte Romain Michon. Les médecins détectent des événements significatifs de l’EEG à l’oreille, là où ils ne les repèrent pas forcément sur une courbe. Notre cerveau est plus performant pour analyser des sons que des images. »

L’équipe lyonnaise s’attend à ce que ses travaux débouchent sur d’autres avancées. En particulier ceux qui touchent aux fameux FPGA. Car le décalage de moins d’une milliseconde entre instruction et production du son – ou "très faible latence" pour les chercheurs – ouvre de vastes horizons.

Vers un traitement du signal sonore beaucoup plus réactif

« Le traitement du signal sonore devient plus rapide que sa propagation dans l’espace, explique Tanguy Risset. On peut faire du contrôle acoustique actif, par exemple dans l’habitacle d’une voiture, pour supprimer un son désagréable et en générer un autre qui le remplace. Ou créer des environnements sonores ultraréalistes pour les jeux vidéo. Ou encore, associer le traitement du son à un retour haptique pour donner à des instruments digitaux – guitare, percussions – le même toucher que leur version acoustique. » Tout ceci, rappelons-le, sur un système embarqué léger et compact, et non sur un ordinateur !

La puissance de calcul des FPGA permet également d’élargir les possibilités du WFS (Wave Field Synthesis), une technologie déjà utilisée dans les musées : le visiteur équipé d’un audioguide entend la description d’une œuvre uniquement quand il s’en approche. « Le WFS sert à spatialiser le son, à reconstituer des champs sonores sur des espaces restreints, décode Romain Michon. Avec une seule carte FPGA, on pourrait faire du WFS très haute densité, c’est-à-dire déployer jusqu’à une centaine de petits haut-parleurs, pour reproduire le son tel que nous l’entendons. »

Des acoustiques virtuelles pour remonter le temps

Un exemple : le violoncelle vibre et émet dans toutes les directions, et cette émission concomitante de multiples sons détermine une "signature" bien spécifique. En revanche, si le violoncelle est sonorisé par un haut-parleur, ce dernier ne génère qu’un seul front d’ondes. Alors que plusieurs petits haut-parleurs en WFS seraient capables de recréer la richesse et la complexité sonore de l’instrument.

Un dernier exemple, qui témoigne du potentiel du projet lyonnais : on peut rêver de futurs audioguides capables de remonter le temps, pour plonger le visiteur dans l’ambiance sonore qui existait dans un monument ou une grotte préhistorique des siècles ou des millénaires plus tôt. « Nous avons déjà les algorithmes, il reste à définir le matériel adapté, précise Yann Orlarey. Et qui sait ? Il suffira peut-être d’un smartphonepour faire vivre ces acoustiques virtuelles. »

En savoir plus