Ces annonces ont été présentées lors de l'événement Made by Google, où l'entreprise a montré ses avancées en intelligence artificielle et ses nouveaux appareils. Cette année, les modèles Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL, Pixel 9 Pro Fold, ainsi que le Pixel Watch 3 et les Pixel Buds Pro 2 ont été dévoilés.
Les principales annonces de Google concernant Gemini étaient :
Gemini Live

Gemini Live sera un assistant personnel disponible pour les appareils Android et iOS. Cette nouvelle expérience permettra aux utilisateurs d'avoir des conversations fluides et naturelles avec Gemini, qui pourra les aider à répondre à des questions sur divers sujets, générer des idées créatives, résoudre des problèmes et planifier des projets.
Plus de façons d'interagir avec Gemini
Les utilisateurs pourront profiter de Gemini de multiples manières, pas seulement via son application de chatbot. Dans les semaines à venir, Google intégrera ces fonctionnalités de Gemini sur les appareils Android :
- Hey Google ou maintenir un bouton enfoncé
Il suffira de dire “Hey Google” ou de maintenir le bouton d'alimentation enfoncé pour que Gemini apparaisse à l'écran et réponde aux questions de l'utilisateur.
De plus, il y aura une option appelée “demander sur cet écran” qui permettra à Gemini d'offrir des informations ou de répondre à des questions liées au contenu visible sur l'écran actuel, ainsi que d'interagir avec diverses applications sur le téléphone. Cette fonction sera disponible sur des appareils, dans des langues et dans des pays sélectionnés.

- Expérience multi-fenêtres
Les utilisateurs d'Android pourront profiter d'une expérience multi-fenêtres avec Gemini, leur permettant de réaliser plusieurs tâches simultanément. Par exemple, tout en regardant une vidéo sur YouTube, ils pourront rechercher instantanément des informations connues simplement en ouvrant un nouvel onglet sur l'application. Cette fonction sera disponible sur certains appareils Android.
- Connexion avec plus d'applications
Gemini inclura de nouvelles extensions, telles que Keep, Tâches, YouTube Music, Calendrier et d'autres applications qui gèrent les fonctions de l'appareil, telles que les alarmes, la lampe de poche, le volume et le WiFi, entre autres.
Par exemple, il pourra aider à organiser le dîner de ce jour-là, demander un menu végétarien et ajouter les ingrédients à la liste de courses dans l'application Keep. Fonction prochainement disponible sur tous les appareils Android dans les prochaines semaines.

Information sécurisée avec Gemini
L'intégration de plusieurs applications avec Gemini se fait lorsque les utilisateurs accordent les autorisations nécessaires, ce qui nécessite le transfert de données à un fournisseur d'IA externe. Par exemple, Gemini peut créer une routine d'exercice à partir d'un e-mail envoyé par l'entraîneur, tant que l'utilisateur a accordé les permissions d'accès requises.
Meilleure compatibilité
Gemini prend en charge plus de 45 langues et est disponible dans plus de 200 pays. Actuellement, il est compatible avec divers modèles de téléphones Android et, dans les prochaines semaines, il sera étendu pour inclure des tablettes avec le même système d'exploitation.
Comment commencer à utiliser Gemini

Pour commencer à utiliser Gemini, les utilisateurs doivent télécharger l'application Gemini depuis le Google Play Store sur leurs appareils Android. En l'occurrence, Gemini est disponible pour les téléphones Android (y compris plusieurs modèles pliables) disposant de 2 Go de RAM ou plus et fonctionnant sous Android 10 ou des versions ultérieures.
Sur les appareils iOS, il faut installer l'application Google et ensuite chercher l'onglet Gemini dans l'application. Il est nécessaire d'avoir iOS 15.0 ou des versions ultérieures.
Une autre façon d'utiliser Gemini sur iOS (nécessitant l'application Google) et sur Android est via l'Assistant Google. L'utilisateur n'a qu'à dire “Hey Google” pour commencer à interagir avec l'IA.
Enfin, les utilisateurs de tout appareil mobile mais disposant d'un compte Google peuvent accéder à la page web de Gemini pour interagir avec l'IA.