Parallèlement à l’accroissement de la puissance de calcul des ordinateurs, on observe une tendance à la généralisation de modes d’interface de plus en plus conviviaux et naturels. À l’heure actuelle, les progrès réalisés dans le domaine des interfaces graphiques et des périphériques (souris, écran tactile) permettent à des néophytes d’utiliser des applications évoluées comme les bornes de réservation automatiques dans les gares ou les logiciels éducatifs dans les musées. Cependant, force est de constater que la plupart des interfaces courantes privilégient essentiellement le visuel et l’écrit alors même que la parole constitue un élément primordial de la communication humaine. Dans ces conditions, on conçoit aisément l’enjeu que représente la mise au point de technologies permettant de dialoguer oralement avec un ordinateur.
De manière un peu schématique, il est possible de considérer qu’un véritable dialogue oral doive faire intervenir trois éléments essentiels qui sont la capacité d’entendre et de reconnaître, celle de comprendre et de réagir et, enfin, celle de s’exprimer. La synthèse de parole correspond au troisième de ces éléments. Plus précisément, nous considérons ici la tâche qui consiste à produire, par le truchement d’un ensemble d’algorithmes, un signal acoustique intelligible par un auditeur humain (et de préférence, de qualité aussi naturelle que possible), ce à partir d’un message enregistré dans la mémoire de l’ordinateur, en général sous une forme orthographique.
Tout système de synthèse de parole à partir du texte (dit également TTS, de l’anglais « text-to-speech ») est amené à répondre, de manière plus ou moins précise et développée selon sa qualité et sa finalité, à deux types de problèmes de natures différentes :
-
les traitements linguistiques : cette première étape vise à analyser et à structurer le texte afin de déterminer un mode de prononciation cohérent, puis à transformer le texte analysé en une suite de sons de parole accompagnée d’indications concernant leur agencement ;
-
la synthèse proprement dite : cette seconde étape consiste à générer un signal acoustique qui « retranscrit » cette suite de sons tout en possédant les caractéristiques apparentes de la parole naturelle.
L’architecture générale d’un système de synthèse se compose ainsi de ces deux parties essentielles (figure 1). Les principaux modules de ces traitements sont décrits dans cet article. Bien que tous les exemples cités dans la suite soient extraits du français, il est important de souligner que les problèmes posés sont similaires pour la plupart des langues romanes, anglo-saxonnes et slaves. Les solutions retenues pour toutes ces langues s’inspirent des mêmes principes et ne diffèrent que dans le contenu linguistique des lexiques et des heuristiques contextuelles.