OpenAI a introduit une fonction avancée de traitement des données audio appelée AVM (Advanced Voice Mode) annoncée en mai de cette année dans l'application ChatGPT, la rendant actuellement disponible en version alpha à un groupe sélectionné d'abonnés au forfait payant ChatGPT Plus.

La nouvelle version pourrait être disponible pour d'autres utilisateurs de la version payante de l'application à l'automne de cette année. Il s'agit d'un assistant vocal intelligent capable de reconnaître l'état émotionnel de l'utilisateur lors d'une conversation avec l'utilisateur. Ce qui est également nouveau, c'est que dans AVM, toutes les données d'entrée (c'est-à-dire le son, l'image et le texte) sont traitées par un seul réseau neuronal. De plus, la société a ajouté de nouveaux filtres qui amènent le logiciel à rejeter les demandes de génération de contenu protégé par le droit d'auteur.

Le nouveau mode peut reconnaître si l'utilisateur se trouve à l'intérieur ou à l'extérieur, et réagir en temps réel aux changements de ton de la voix, notamment à la tristesse, à l'excitation ou au chant. Par conséquent, une conversation gérée par AVM ressemble à une conversation avec un véritable être humain plutôt qu’avec une machine. Pour l'instant, l'application parlera à l'utilisateur en utilisant l'une des quatre voix dans 45 langues différentes. OpenAI annonce qu'elle prendra en compte les retours des utilisateurs pour améliorer encore le modèle.

A lire également