
Le nouveau design des Ray-Ban de Meta
Une des nouveautés les plus marquantes de ces lunettes est leur nouvelle édition limitée avec une monture transparente. Ce design rétro, qui rappelle l'esthétique de dispositifs iconiques comme la Game Boy Color, a attiré l'attention des consommateurs à la recherche de quelque chose de plus que de simples lunettes de soleil. Avec seulement 7 500 unités disponibles, cette édition se vend à 429 dollars, soit 100 dollars de plus que la version noire standard. Cette monture transparente permet d'observer les complexes composants technologiques qui font partie de son intérieur, un détail qui souligne sa sophistication technologique.

De plus, Meta a annoncé qu'elle lancera prochainement une ligne de lentilles Transitions, en collaboration avec EssilorLuxottica, qui augmentera la polyvalence des lunettes, permettant une utilisation plus confortable dans différentes situations d'éclairage.
Traduction en temps réel : la nouveauté des Ray-Ban de Meta
Une des mises à jour les plus attendues est l'intégration de la fonction de traduction en temps réel. Jusqu'à présent, les Ray-Ban Meta n'offraient que la possibilité de traduire du texte à partir d'images fixes, mais Meta a promis que, dans les mois à venir, ces lunettes pourront traduire des conversations en direct entre plusieurs langues, y compris l'anglais, l'espagnol, le français et l'italien. Cette fonctionnalité sera particulièrement utile pour ceux qui voyagent fréquemment ou interagissent dans des environnements multilingues.
Lorsque cette fonction sera disponible, les utilisateurs pourront parler avec quelqu'un dans une autre langue et écouter la traduction directement à travers les haut-parleurs intégrés aux lunettes. Bien que la liste des langues soit limitée lors de son lancement, Mark Zuckerberg a indiqué que l'équipe de Meta travaille déjà à l'ajout de plus de langues à l'avenir.

Un autre des progrès clés dans l'évolution de ces lunettes est l'incorporation de la fonction "Rappels". Cet outil permet aux lunettes de capturer une image de ce que l'utilisateur voit et, par la suite, d'envoyer une notification au téléphone pour lui rappeler ce moment. C'est une sorte de mémoire visuelle qui promet de changer la manière dont les utilisateurs interagissent avec leur environnement. Il ne sera plus nécessaire de prendre des notes ou de compter sur la mémoire pour se souvenir de quelque chose d'important : les lunettes le feront pour vous.
De plus, cette fonction d'IA va un peu plus loin, permettant aux lunettes de se souvenir de détails essentiels, comme l'endroit où vous avez garé votre voiture ou d'envoyer des rappels vocaux pour réaliser des actions à l'avenir, le tout sans avoir besoin de sortir le téléphone de votre poche.
L'intégration de l'IA dans les lunettes de Meta
Meta a optimisé son assistant virtuel Meta AI, qui permet désormais une interaction plus fluide et naturelle. Il suffit de dire "Hey, Meta", les utilisateurs pourront initier une conversation et continuer à le faire sans avoir besoin de répéter la commande d'activation.

De même, l'IA a été perfectionnée pour interpréter l'environnement visuel de l'utilisateur de manière plus précise et sans avoir besoin de commandes verbales supplémentaires comme "regarde et...". Cela signifie que les lunettes pourront identifier des objets et fournir des informations instantanément, améliorant considérablement l'expérience utilisateur par rapport aux versions précédentes.
D'un autre côté, une des fonctions les plus attendues est la capacité de traiter la vidéo en temps réel. Avec cette mise à jour, lorsque l'utilisateur explore une nouvelle ville, il pourra demander à Meta AI de lui suggérer des lieux d'intérêt ou de lui donner un parcours personnalisé basé sur ce qu'il voit à travers les lunettes. Cette caractéristique sera également utile dans les activités quotidiennes, comme faire des courses au supermarché, où l'IA pourra aider à décider quoi préparer pour le repas en se basant sur les ingrédients visibles.