Equipe-projet

MULTISPEECH

Speech Modeling for Facilitating Oral-Based Communication
Speech Modeling for Facilitating Oral-Based Communication

MULTISPEECH est une équipe-projet commune de l’Université de Lorraine, d’Inria et du CNRS. Elle fait partie du département D4 « Traitement automatique des langues et des connaissances » du LORIA.

Multispeech considère la parole comme un signal multimodal avec différentes facettes : acoustique, faciale, articulatoire, gestuelle, etc. L’objectif général de Multispeech est d’étudier l’analyse et la synthèse des différentes facettes de ce signal multimodal et leur coordination multimodale dans le contexte de l’interaction humain-humain ou humain-ordinateur.

Le programme de recherche est organisé selon les trois axes suivants :

  • Apprentissage efficace en termes de données et préservation de la confidentialité.
  • Extraction d’informations à partir de signaux vocaux.
  • Parole multimodale : génération et interaction.
Centre(s) inria
Centre Inria de l'Université de Lorraine
En partenariat avec
CNRS,Université de Lorraine

Contacts

Responsable de l'équipe

Emmanuelle Deschamps

Assistant(e) de l'équipe

Delphine Hubert

Assistant(e) de l'équipe