Vous n’avez rien suivi à la conférence annuelle Google I/O ? Vous avez suivi, mais vous avez du mal à vous y retrouver dans les deux heures de conférence. Pas de panique, on vous résume la conférence en cinq nouveautés marquantes.
IA Overviews
C’est sans aucun doute l’annonce la plus stratosphérique de la conférence, même si celle-ci n’est pas vraiment une surprise. Google a enfin déployé sa recherche par l’IA, jusqu’alors en bêta, et lui a même donné un nom : IA Overviews.
L’idée peut être résumée en un slogan répété plusieurs fois hier : « Laissez Google faire le googling pour vous. » Très concrètement, la recherche par l’IA fonctionnera comme la recherche Google classique : vous tapez votre demande dans le moteur de recherche et vous obtenez une réponse.
C’est la nature de cette réponse qui va changer. Jusqu’ici, Google sélectionnait les sites jugés les plus pertinents (et optimisés grâce à la science du SEO) pour vous les montrer. Désormais, Gemini va fabriquer une réponse à partir de ces sources, avec tout de même un petit lien vers ces dernières.
Soyons clairs : lorsque cela arrivera en Europe, la façon dont vous utilisez Google va changer profondément. Ceci étant, les questions sont nombreuses. Est-ce que l’utilisation de sources ouvrira la porte à des droits voisins et à la rémunération des sites ? Sera-t-il possible d’optimiser un site web pour qu’il soit pris comme source ? Quid des emplois dans la presse à faible valeur ajoutée ?
Projet Astra
Noyée au milieu des deux heures de conférence, une démonstration nous a paru particulièrement marquante : le projet Astra. Ce dernier peut sans aucun doute être interprété comme une réponse à GPT Vision, présenté la veille par OpenAI.
Il s’agit pour ainsi dire de la même technologie : la possibilité de faire réagir en direct à un flux vidéo une IA générative. Dans cette démonstration, on voit la main d’une personne tenir un smartphone et filmer divers éléments tout en posant des questions à l’oral à son application. Et le prototype d’IA générative de répondre à chaque fois avec une vitesse troublante.
Avec cette démonstration, Google joue à un jeu dangereux. En effet, en décembre dernier, la firme de Mountain View avait dû admettre avoir trafiqué une démonstration de Gemini où l’IA paraissait particulièrement rapide. Ici, Google semble avoir pris plus de pincettes et précise présenter la vision du futur des assistants IA de Google DeepMind.
Android perd son Google Assistant et gagne Gemini
Autre nouvelle peu surprenante, mais qui revêt tout de même un certain poids : Google met fin à l’ère de Google Assistant et passe à l’ère Gemini. À partir d’Android 15, ce dernier va être intégré nativement à vos smartphones.
Sa principale évolution est sa capacité à réagir en direct à ce que vous voyez sur votre écran. Un exemple présenté hier : vous souhaitez extraire une information précise d’un tutoriel sur YouTube, vous ouvrez Gemini en ayant la vidéo en fond sur votre écran et automatiquement, l’assistant comprend que votre requête à venir sera en lien avec la vidéo. Vous pouvez alors lui demander de rechercher dans la vidéo votre information. Pas besoin de regarder 15 minutes de tutoriel, Gemini va le regarder pour vous donc. La même idée peut s’appliquer à la lecture d’un PDF par exemple.
Un abonnement pour Gemini
Surprise, comme l’avait repéré Dylan Roussel sur X (Twitter) avant la conférence, un abonnement pour Gemini a fait son apparition. Gemini Advanced est intégré à Google One Premium, la formule d’abonnement la plus chère de Google. Pour 21,99 euros par mois (avec deux mois gratuits à l’essai), vous obtenez donc Gemini 1.5 Pro, 2 To de stockage, l’intégration de Gemini dans les services Google.
Gemini 1.5 Pro a déjà été présenté en février 2024 et permet a priori de meilleures performances que les précédentes versions, puisqu’il peut traiter jusqu’à un million de jetons, bien plus que les 32 000 de Gemini 1.0 Pro par exemple, ou les 128 000 de GPT-4. Cet abonnement peut clairement être vu comme une réponse à GPT Plus, le service payant proposé par OpenAI.
Un peu d’Android 15, mais la suite arrive
D’habitude, Google profite de son I/O pour présenter les nouveautés d’Android, mais ce coup-ci, la bêta 2 d’Android 15 arrivera ce mercredi 15 mai 2024, soit le lendemain de la conférence.
La firme de Mountain View a tout de même consacré un peu de temps à son OS mobile, mais uniquement pour les nouveautés liées à l’IA. La plus marquante à nos yeux : un filtre anti-arnaque qui peut détecter en direct lorsqu’une personne qui vous appelle tente de vous soutirer des informations sensibles.
Entourer pour chercher va évoluer aussi en intégrant un modèle appelé LearnLM. Ce dernier est censé pouvoir comprendre lorsque vous entourez l’énoncé d’un problème. Et plutôt que de vous proposer une réponse toute faite, l’IA générative devrait, d’après Google, vous expliquer la marche à suivre pas à pas.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Il semblerait que Google ait pris l’habitude d’agir en oubliant de demander l’avis de ses utilisateurs et ait décidé pour les recherches de placer les résultats de la fonctionnalité « aperçus d’IA » en premier. Je me permets donc de demander à Google de faire en sorte que cette fonctionnalité soit optionnelle, en cochant par exemple une case si on souhaite l’utiliser, ce qui éviterait de gaspiller des ressources pour rien quand il s’agit par exemple d’une recherche simple d’URL pour accéder à un site.