La presse internationale était réunie ce mercredi 8 février à Paris pour un événement organisé par Google. Avec une telle diversité — et une telle empreinte carbone —, nous étions nombreux à imaginer quelques démonstrations de Bard, le ChatGPT façonné et dévoilé récemment par Google. Malheureusement, Google en a parlé, mais n’a rien montré ou presque. La conférence était axée sur les services Maps, Traduction et Search.
C’est donc ça, le multisearch ?
« Les appareils photo sont un moyen de choix pour explorer et comprendre notre monde, écrit Google dans un billet de blog dédié à de nouvelles fonctionnalités intégrées à Search. Aujourd’hui, Google Lens est utilisé plus de 10 milliards de fois chaque mois, pour effectuer des recherches directement depuis leur appareil photo ou leurs images enregistrées ». Fort de cette croissance de l’utilisation de Google Lens, la firme californienne a présenté quelques fonctions intéressantes.
Dans les mois à venir, vous pourrez par exemple utiliser Google Lens pour « rechercher depuis votre écran » via un téléphone Android. Concrètement, vous pourrez lancer des recherches à partir d’une photo ou d’une vidéo directement depuis vos sites ou vos applications préférées, comme les services de messagerie instantanée et les applications vidéo. Exemple : si un ami vous transmet une photo d’un super monument à Paris, vous n’aurez qu’à appuyer longuement sur le bouton de démarrage pour obtenir des données contextuelles.
L’autre nouveauté de Google Search réside dans le multisearch. Avec ceci, vous pouvez lancer des recherches depuis des images et du texte simultanément. En prenant une photo d’un fauteuil, Google pourra vous proposer une sélection de produits similaires. Et si vous désirez changer la couleur ou la texture, la requête pourra être formulée à Google. Multisearch est désormais accessible partout dans le monde en version mobile, sur tous les téléphones intégrant Google Lens et dans toutes les langues disponibles.
L’avenir de Google Maps s’affine
Elle avait déjà été présentée, mais la fonction Vue immersive s’est de nouveau invitée dans une keynote Google. Cet outil intégré à Maps va permettre d’afficher un modèle 3D de certains lieux grâce à la combinaison de milliards d’images aériennes et de Street View. Cette fonctionnalité propose aussi des informations utiles comme la météo, la circulation routière et la fréquentation d’un lieu. Exemple : si vous préparez une visite au Rijksmuseum, à Amsterdam, vous pourrez survoler le bâtiment virtuellement et voir, par exemple, où se trouvent les entrées.
Une fonctionnalité connexe a d’ailleurs fait pousser un wouah d’admiration à quelques influenceurs. Il va être possible d’explorer les restaurants à proximité, et même de jeter un coup d’œil à l’intérieur pour vous faire une idée de l’ambiance avant de réserver. Google explique utiliser « des champs de rayonnement neuronal (NeRF), une technique d’IA avancée qui transforme des images ordinaires en représentations 3D ». Ces NeRF permettent de recréer un espace « avec précision, y compris l’éclairage, la texture des matériaux et ce qui se trouve en arrière-plan ». En bref, de créer un rendu 3D réaliste à partir des photos de l’intérieur d’un restaurant.
Enfin, Google a présenté quelques outils liés à la réalité augmentée. La fonction de recherche avec Live View entend ainsi vous aider à trouver des choses autour de vous, comme des distributeurs automatiques de billets, des restaurants, des parcs ou des arrêts de transport en commun, lorsque vous brandissez votre téléphone dans la rue. Notez que cette fonction Live View commence à être déployée dans certains aéroports pour aider à la navigation. Elle devrait devenir disponible un peu partout dans les prochains mois.