En ce moment, je "joue" avec NVDA, un lecteur d'écran, pour m'améliorer pour de vrai en accessibilité numérique.
Le synthétiseur de Microsoft (Speech API) est agréable à l'écoute, il fait "naturel", par contre ne sait pas jongler avec les langues, et donc ne change pas quand il rencontre un attribut lang
, ce qui est pas extra. "Android" prononcé "Endroit", c'est… heu, voilà. Et ça ne reconnaît pas "etc" (ça prononce "ète").
Le synthétiseur eSpeak NG est, lui, capable de ça, mais… ouch, que c'est difficile à écouter, c'est haché, c'est synthétique, quoi. Moche à mes oreilles – mais c'est peut-être juste une question d'habitude.
J'ai encore beaucoup à apprendre mais c'est passionnant de se plonger dedans.