
Dans la dernière mise à jour de la version bêta de la plateforme de messagerie, WABetaInfo a découvert que le chatbot inclura des réponses vocales et la possibilité pour les utilisateurs d'envoyer des notes vocales pour demander des contenus.
Comment il sera possible de parler avec Meta AI sur WhatsApp
Parmi les nouveautés les plus marquantes de la prochaine mise à jour se trouve le mode de chat vocal. Cette fonction, qui est en phase de développement, permettra aux utilisateurs de communiquer avec Meta AI en temps réel, en utilisant un système mains libres similaire à celui d'un message vocal classique.
La différence clé réside dans la rapidité avec laquelle les utilisateurs pourront poser des questions et obtenir des réponses, ce qui promet d'améliorer la fluidité des conversations avec le chatbot.

De plus, il a été révélé qu'il sera possible de personnaliser la voix de l'assistant de Meta AI. Selon les informations découvertes par WABeta, dans la version bêta 2.24.17.16 pour Android, déjà disponible sur le Google Play Store, WhatsApp permettra aux utilisateurs de choisir parmi dix voix différentes pour l'intelligence artificielle.
Ces voix varieront en ton et en style, permettant aux utilisateurs d'ajuster la voix de l'assistant à leurs préférences personnelles ou aux besoins d'un moment précis.
Par exemple, si un utilisateur préfère une voix plus calme pour des requêtes simples, il pourra la configurer en conséquence. De même, ceux qui ont besoin de réponses rapides et énergiques pourront opter pour une voix plus dynamique.
De plus, l'option de changer la voix du chatbot non seulement améliorera la personnalisation de l'expérience, mais pourrait également être une ressource précieuse pour les personnes ayant des difficultés auditives, qui pourront ajuster la voix jusqu'à trouver celle qui leur est la plus facile à comprendre.

Pour l'instant, toutes ces nouveautés sont en phase de développement, c'est pourquoi il n'est possible d'y accéder que dans la version bêta. Il n'a pas non plus été communiqué quand leur lancement officiel aura lieu, bien qu'il soit prévu dans les mois à venir, étant donné l'intention de la plateforme d'augmenter l'utilisation de son nouveau chatbot.
Meta AI aurait des voix de personnes célèbres
Meta a des plans pour incorporer des voix de célébrités comme Awkwafina, Judi Dench et Keegan-Michael Key dans ses projets d'intelligence artificielle, spécifiquement dans son assistant Meta AI. Cet assistant, alimenté par le modèle de langage Llama 3, est conçu pour s'intégrer dans des réseaux sociaux comme Instagram, WhatsApp et Facebook.
L'entreprise a présenté ce chatbot en septembre de l'année dernière, mettant en avant ses capacités d'accès à l'information en temps réel et d'interaction utilisant le langage naturel. Pour donner une voix à cet assistant, la société a entamé des négociations avec ces célébrités, selon des sources proches de médias comme Bloomberg et The New York Times.
Toutefois, ces négociations ont connu des hauts et des bas, car la société cherche à s'assurer des droits sur ces voix à long terme, tandis que les célébrités souhaitent établir des limites plus claires dans les accords.

The New York Times a indiqué que Meta espère finaliser ces accords avant sa conférence Meta Connect, prévue pour les 25 et 26 septembre, où ils présenteront leurs dernières innovations en IA.
Il est important de souligner que, récemment, l'entreprise a décidé d'annuler un projet similaire impliquant des influenceurs des réseaux sociaux. À la place, elle a lancé AI Studio, un outil basé sur Llama 3.1 qui permet à tout créateur de contenu, pas seulement à des célébrités comme Snoop Dogg, Naomi Osaka, Paris Hilton et Tom Brady, de créer ses propres bots conversationnels.
Ces bots, qui sont actuellement uniquement disponibles aux États-Unis, utiliseront des modèles de langage de Gemini pour imiter ou émuler le style de réponse de la célébrité sélectionnée.