Le monde entier imaginait sans doute que la conférence Google Live from Paris destinée à présenter les dernières avancées de Google en matière d’intelligence artificielle serait la conférence de l’année.
Malheureusement, le soufflet est un peu vite retombé et cette conférence nous a laissés un peu sur notre faim. La firme de Mountain View n’a fait aucune annonce fracassante, mais s’est simplement contentée de dévoiler de timides nouveautés et d’annoncer le déploiement imminent de plusieurs fonctionnalités sur plusieurs de ses applications. Un goût de trop peu alors que l’on attendait beaucoup plus (peut-être trop ?) de la part de Google en réponse aux dernières annonces de Microsoft qui entend révolutionner la recherche dans Bing grâce à l’IA.
Nouveau design et traduction contextuelle pour Google Translate
Google a ouvert sa conférence en parlant de Translate, son application de traduction. Le service, qui ne compte pas moins d’un milliard d’utilisateurs, va profiter de plusieurs nouveautés qui devraient améliorer sensiblement ses résultats. Google compte à partir de ce mois-ci y intégrer des traductions mises en contexte. Lorsque vous demanderez à l’outil de traduire un mot, Google Translate affichera ainsi les différentes significations possibles accompagnées de citations les utilisant. Cette mise en contexte sera disponible au cours des prochaines semaines, mais ne concernera, pour l’instant, que l’anglais, le français, l’allemand, le japonais et l’espagnol.
Après avoir introduit une nouvelle interface pour son application de traduction sur Android, Google va déployer la nouvelle interface de Translate sur iOS. Cela inclura notamment de nouveaux gestes qui viendront simplifier la navigation, des résultats plus lisibles et une police dynamique qui s’ajustent au fur et à mesure que vous tapez du texte. Par ailleurs, Google vient d’annoncer l’arrivée de 33 nouvelles langues pouvant être traduites hors connexion.
La traduction via Google Lens évolue également. Si elle s’affichait jusqu’à présent en surimpression sur l’image et dissimulait par la même occasion une partie de celle-ci, elle s’affichera désormais de manière plus naturelle, à la place du texte original. L’image originale ne sera ainsi pas altérée grâce au machine learning qui viendra compléter les pixels manquants. Attention toutefois, seuls les terminaux disposant d’au moins 6 Go de RAM pourront en profiter.
Une recherche plus visuelle et plus intuitive
Google était attendu au tournant en matière d’IA et de recherche. À notre grand regret, l’entreprise américaine ne s’est pas étendue sur Bard qu’elle a très rapidement évoqué avant de passer à autre chose.
Et visiblement, avant de pouvoir intégrer un concurrent à ChatGPT dans son moteur de recherche, Google cherche à vous simplifier l’utilisation de Lens. Le module de recherche d’image, qui peut déjà être interrogé depuis l’appareil photo ou la barre de recherche, pourra bientôt être utilisé pour rechercher directement ce qui s’affiche sur l’écran de votre smartphone. La fonction, qui sera réservée aux seuls utilisateurs Android, pourra être déclenchée via le pop-up Google Assistant, après avoir effectué une pression longue sur le bouton d’allumage du smartphone. Que vous soyez en train de visualiser une photo ou de regarder une vidéo, vous pourrez à n’importe quel moment interroger Google Lens pour qu’il recherche en ligne ce qui s’affiche sur votre écran.
Par ailleurs, le multisearch et la recherche à proximité, deux fonctionnalités présentées l’an passé lors de la conférence Google I/O, vont enfin arriver chez tous les utilisateurs et dans toutes les langues. Vous pourrez ainsi lancer des requêtes combinant texte et image dans le moteur de recherche. Vous pourrez aussi très prochainement vous payer le luxe de lancer des requêtes pour trouver des lieux ou des objets à proximité de votre position géographique.
La recherche immersive arrive dans Maps
Présentées l’an passé pendant la conférence Google I/O, les vues immersives de Google Maps vont évoluer. Ces vues en 3D à 360 ° qui combinent des milliards d’images de Street View et des vues aériennes vont vous permettre d’explorer les grandes villes comme si vous y étiez. Pour cela, Google va y intégrer de nouvelles informations telles que la météo, la circulation ou encore la fréquentation d’un lieu.
Vous pourrez visiter virtuellement certains lieux et vous imprégner de l’ambiance qui y règne. Il suffira pour cela de jouer sur un curseur qui ajustera la lumière du jour, la météo et l’occupation des lieux en fonction de l’heure de la journée.
La navigation Live View va également profiter des avancées de Google en matière d’IA. Vous pouvez désormais l’utiliser pour rechercher des lieux en réalité augmentée. Il vous suffit pour cela de pointer votre téléphone devant vous, dans la rue, pour voir s’afficher sur l’écran les différents points d’intérêts.
La navigation en réalité augmentée dans les lieux clos, notamment dans les aéroports, va être étendue. Lancée en 2021 dans une poignée d’aéroports, elle sera déployée dans un millier de nouveaux aéroports, gares et centres commerciaux dans plusieurs grandes villes du monde, dont Paris.
Google Maps va en outre intégrer de nouvelles fonctionnalités pour les possesseurs de véhicules électriques qui intègrent Google Automotive. L’application de cartographie va ainsi intégrer dans les itinéraires les arrêts recharge et vous permettra même de filtrer les stations de recharge en fonction de leur puissance. Par ailleurs, vous pourrez visualiser directement dans les résultats de recherche de Maps les lieux disposant d’une borne de recharge, par exemple, les supermarchés.
Enfin, Google Maps va inaugurer une nouvelle fonctionnalité « direction en un coup d’œil » (Glanceable Directions en anglais) pour vous permettre de suivre vos trajets cours sans avoir à démarrer le mode navigation.
Vous pourrez alors visualiser votre trajet directement depuis l’écran verrouillé de votre smartphone ou depuis l’aperçu de l’itinéraire.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Google
C’est Meta qui doit tirer la tronche avec leur milliards dans le metaverse…