Oui l'idée est là.

Mais le mieux serait d'utiliser ce qui existe déjà (Monitor(), Google Speech Recog API etc ...)

Je suis parvenu à supprimer le silence du son enregistré par Monitor(), et à envoyer ce fichier à l'API Google. Donc ça fonctionne, mais il y a juste un petit truc qui me gène : j'aurais aimé que l'API Speech Recog travaille en arrière plan sans couper le fichier son lu.

Le fonctionnement actuel est le suivant :

- Monitor
- Lecture d'un fichier son (BackgroundDetect)
- Si l'utilisateur parle, le fichier son lu s'arrête, je nettoie le fichier enregistré par Monitor et l'envoi à Google pour une reconnaissance du texte, la reconnaissance est faite et en fonction du résultat, j'effectue telle ou telle action

Le fonctionnement voulu est le même, mais avec toute la partie traitement de la parole de l'utilisateur en arrière plan de la la lecture du fichier son. Cela permettrait de ne rien faire si la demande de l'utilisateur ne correspond à aucune action définie. Par exemple, si on lit à l'utilisateur une suite de blague, et qu'il voudrait passer rapidement à la suivante, il pourrait dire "suivant". Et dans le cas ou il dirait "précédent", cette action n'étant pas définie dans le dialplan, il ne se passerait rien et la lecture de la blague en cours continuerait.

Bref, c'est clair dans ma tête, peut être que j'explique mal par contre.

Dans tous les cas si certains d'entre vous ont des idées, elle sont les bienvenues.