Contrôle vert
Lien copié dans le presse-papiers

Explorer la vision artificielle dans les applications de navigation

Découvre comment la vision par ordinateur dans les solutions de navigation améliore la cartographie en temps réel, la reconnaissance des objets et la réalité augmentée pour des expériences de voyage plus intelligentes et plus sûres.

De nos jours, sortir ton téléphone, taper une destination et suivre les instructions étape par étape pour s'y rendre ne demande aucun effort. C'est quelque chose qui ne prend que quelques secondes. Mais cette commodité quotidienne est le résultat d'années de progrès technologique. La navigation a parcouru un long chemin, depuis les cartes en papier et les boussoles jusqu'aux systèmes intelligents qui peuvent comprendre le monde et y répondre en temps réel.

L'une des technologies à l'origine de ce changement est la vision par ordinateur, une branche de l'intelligence artificielle (IA) qui permet aux machines d'interpréter les informations visuelles comme le font les humains. Les outils de navigation de pointe utilisent désormais des images en temps réel provenant de satellites, de dashcams et de capteurs au niveau de la rue pour améliorer la précision des cartes, surveiller l'état des routes et guider les utilisateurs dans des environnements complexes.

Dans cet article, nous allons explorer comment la vision par ordinateur améliore la navigation en améliorant les cartes GPS, en offrant des mises à jour du trafic en temps réel et en soutenant des technologies telles que la navigation en réalité augmentée et les véhicules autonomes.

Systèmes de navigation IA avec cartographie 3D immersive

Utiliser des outils comme Google Maps pour naviguer dans la vie quotidienne est devenu très courant, que tu traverses la ville ou que tu cherches un café à proximité. À mesure que les technologies de l'IA se généralisent, nous voyons apparaître des fonctionnalités de plus en plus avancées comme la vue immersive, introduite en 2023 par Google Maps, qui permet aux utilisateurs de prévisualiser des parties de leur trajet dans un environnement en 3D. Cela est rendu possible par une combinaison d'IA, de photogrammétrie et de vision par ordinateur.

Fig 1. Vue immersive de Google Maps.

Tout commence par des milliards d'images haute résolution capturées par toute une gamme d'équipements spécialisés. Cela comprend les voitures Street View, des véhicules équipés de caméras à 360 degrés qui circulent dans les villes, et les dispositifs Trekker, des sacs à dos portables avec des caméras montées utilisées pour capturer des images dans des endroits que les véhicules ne peuvent pas atteindre, comme les sentiers de randonnée ou les ruelles étroites.

Ces images sont alignées sur les données cartographiques à l'aide de la photogrammétrie, une technique qui assemble des photos 2D prises sous différents angles pour créer des modèles 3D précis des rues, des bâtiments et du terrain.

La vision par ordinateur est ensuite utilisée pour analyser ces modèles à l'aide de la détection d'objets et de la segmentation d'images pour identifier et étiqueter les caractéristiques importantes telles que les panneaux routiers, les trottoirs, les passages piétons et les entrées de bâtiments.

Fig 2. Immersive View utilise la segmentation pour segmenter les objets dans une rue.

Les données étiquetées sont utilisées pour former des systèmes d'IA qui reconnaissent la façon dont les indices visuels diffèrent d'une région à l'autre. Par exemple, le système peut facilement faire la distinction entre un panneau "SLOW" aux États-Unis, qui est généralement un losange jaune ou orange, et un panneau similaire au Japon, qui est généralement un triangle rouge et blanc. Ce niveau de compréhension rend l'expérience de navigation plus précise et plus sensible à la culture.

Enfin, Immersive View superpose des chemins de navigation en direct sur l'environnement 3D, offrant une expérience fluide et intuitive qui montre exactement où tu te diriges.

La réalité augmentée dans les solutions de navigation

Nous avons probablement tous fait l'expérience de tourner en rond et d'essayer de comprendre quelle direction Google Maps nous indique. Cette confusion est exactement ce que la navigation en réalité augmentée (RA), une technologie qui superpose des informations numériques à la vue de la caméra dans le monde réel, vise à résoudre. Elle change la façon dont les gens trouvent leur chemin dans des endroits très fréquentés comme les rues des villes ou les grands espaces intérieurs. 

Les cartes ordinaires peuvent être difficiles à suivre, surtout lorsque les signaux GPS sont faibles ou ne fonctionnent pas bien. La navigation AR s'attaque à ce problème en affichant des directions numériques, des flèches et des étiquettes directement sur la vue de la caméra en direct du monde réel. Cela signifie que les utilisateurs voient des indications qui correspondent aux rues et aux bâtiments qui les entourent, ce qui leur permet de savoir beaucoup plus facilement où aller.

Comment la réalité augmentée est utilisée dans la navigation.

La navigation AR s'appuie sur des modèles de vision par ordinateur pour comprendre l'environnement à travers la caméra d'un appareil. Cela implique diverses tâches comme la localisation d'images, qui détecte des caractéristiques telles que les bords de bâtiments ou les panneaux de signalisation et les fait correspondre à une carte stockée. La localisation et la cartographie simultanées (SLAM) créent une carte de l'environnement tout en suivant la position de l'appareil en temps réel.

Par exemple, l'aéroport de Zurich a été le premier à mettre en œuvre la fonction Live View de Google Maps pour la navigation intérieure. Les passagers peuvent utiliser les caméras de leur téléphone pour voir des flèches et des directions superposées dans l'environnement réel, les guidant à travers les terminaux vers les portes d'embarquement, les magasins et les services. Cela améliore l'expérience des passagers en facilitant la navigation dans les espaces intérieurs compliqués.

Fig 3. L'aéroport de Zurich utilise la vision par ordinateur et la RA pour guider les passagers à l'intérieur.

Renforcer la sécurité routière grâce aux systèmes de navigation IA

Les rues de la ville sont de plus en plus fréquentées chaque jour. Avec plus de voitures sur la route, des trottoirs bondés et une activité constante, maintenir une circulation fluide et sûre est un défi de plus en plus important. Pour aider à gérer le chaos, de nombreuses villes se tournent vers l'IA et la vision par ordinateur.

Les caméras intelligentes et les capteurs installés aux intersections et le long des routes capturent un flux constant de données visuelles. Ces images sont traitées en temps réel pour détecter les accidents, surveiller le flux de circulation, repérer les nids de poule et repérer des choses comme le stationnement illégal ou le comportement risqué des piétons.

L'autoroute Smart Airport Expressway à Hangzhou, en Chine, en est un exemple intéressant. Cette autoroute de 20 kilomètres, qui relie le centre-ville de Hangzhou à l'aéroport international de Xiaoshan, a été modernisée avec des caméras haute résolution et des radars à ondes millimétriques. Ces appareils recueillent en permanence des données vidéo et des données de capteurs, qui sont ensuite analysées à l'aide de la vision par ordinateur.

Plutôt que de se contenter d'enregistrer des séquences, le système interprète ce qui se passe sur la route. Les algorithmes de vision par ordinateur détectent les collisions de véhicules, reconnaissent les infractions au code de la route et identifient même les piétons ou les mouvements inhabituels près des sorties d'autoroute. Cela permet aux agents de la circulation de réagir aux incidents en quelques secondes, sans avoir besoin d'être physiquement sur place.

Les données alimentent également un jumeau numérique : un modèle virtuel en direct et en 3D de la voie rapide qui montre les conditions de circulation en temps réel, les détails des véhicules et les embouteillages émergents. Les agents de la circulation surveillent cette interface visuelle pour gérer le flux, émettre des alertes intelligentes et répondre aux incidents de manière rapide et précise.

Mobilité autonome grâce à la vision par ordinateur dans la navigation 

Aujourd'hui, la navigation va bien au-delà du simple fait d'aller d'un point A à un point B. Elle constitue désormais un élément essentiel des systèmes intelligents qui déplacent les personnes, gèrent les marchandises et prennent des décisions en temps réel, que ce soit sur la route ou dans les entrepôts

Au cœur de beaucoup de ces systèmes se trouve la vision par ordinateur, qui permet aux machines d'interpréter les données visuelles et de réagir instantanément à leur environnement. Parcourons quelques exemples pour voir comment cette technologie transforme la navigation dans différents environnements.

Robots d'entrepôt naviguant avec la vision par ordinateur

Les robots deviennent essentiels à l'avenir de la logistique, en particulier dans les opérations d'entreposage à grande échelle. À mesure que la demande en matière de commerce électronique augmente, les entreprises s'appuient de plus en plus sur des machines alimentées par la vision par ordinateur pour naviguer dans des environnements complexes, trier les articles et gérer les stocks avec rapidité et précision.

Prends, par exemple, les centres d'exécution d'Amazon, où plus de 750 000 robots travaillent aux côtés des humains pour que les opérations se déroulent efficacement. Ces robots s'appuient fortement sur la vision par ordinateur pour naviguer dans les entrepôts encombrés, identifier les articles et prendre des décisions rapides et précises.

L'un de ces systèmes est Sequoia, une plateforme robotique conçue pour accélérer la gestion des stocks. Elle utilise la vision artificielle avancée pour scanner, compter et organiser les produits entrants, ce qui permet de rationaliser les processus de stockage et de récupération. 

De même, Vulcan, un bras robotisé, utilise des caméras et l'analyse d'images pour prélever des articles en toute sécurité sur les étagères, en ajustant sa prise en fonction de la forme et de la position de chaque objet et même en reconnaissant quand une assistance humaine est nécessaire. Cardinal, un autre robot doté d'un système de vision, est spécialisé dans le tri : il scanne les piles mixtes de paquets et les place avec précision dans les chariots de sortie appropriés.

Fig 4. Le cardinal soulève des paquets avec précision à partir d'une pile.

Vision par ordinateur dans la navigation des véhicules autonomes

Jusqu'à présent, nous avons vu comment la vision par ordinateur aide les personnes et les robots à naviguer dans leur environnement. Mais elle est tout aussi cruciale pour les systèmes autonomes, comme les voitures auto-conduites, où la navigation dépend entièrement de ce que le véhicule peut voir et comprendre en temps réel.

Le système Tesla Vision en est un bon exemple. Tesla a adopté une approche de la conduite autonome basée uniquement sur les caméras, en supprimant les radars et autres capteurs au profit d'un réseau de caméras qui offrent une vue complète à 360 degrés de l'environnement de la voiture. Ces caméras alimentent en données visuelles l'ordinateur de conduite autonome intégrale (FSD), qui utilise des réseaux neuronaux profonds pour interpréter l'environnement et prendre des décisions de conduite en une fraction de seconde.

En fonction de ce qu'il voit, le système décide quand diriger, accélérer, freiner ou changer de voie - tout comme le ferait un conducteur humain, mais entièrement par le biais de données visuelles. Tesla améliore continuellement ce système en collectant et en apprenant à partir de quantités massives de données de conduite en conditions réelles sur l'ensemble de sa flotte.

Fig 5. Tesla utilise la vision par ordinateur pour une navigation sûre et autonome.

Avantages et inconvénients de la vision par ordinateur dans la navigation

Voici quelques avantages clés de l'utilisation de la vision par ordinateur dans la navigation, en particulier dans les systèmes où la précision, la sécurité et la prise de décision en temps réel sont essentielles :

  • Réduit la consommation de carburant : En aidant les conducteurs à éviter la circulation et les itinéraires avec arrêts, la vision par ordinateur peut réduire la consommation globale de carburant et la durée des trajets, ce qui rend les trajets quotidiens plus efficaces.
  • Détecte l'usure des routes et les problèmes d'infrastructure : Lessolutions basées sur la vision peuvent rechercher les nids-de-poule, les marquages de voies décolorés, les panneaux cassés et les infrastructures endommagées, fournissant ainsi aux équipes d'entretien des données fiables en temps réel.
  • S'intègre de façon transparente à d'autres outils d'intelligence artificielle : La vision par ordinateur peut être combinée avec des assistants vocaux, des modèles de prédiction comportementale ou des algorithmes d'optimisation des itinéraires pour créer une expérience de navigation hautement intelligente et personnalisée.

Si la vision par ordinateur apporte de nombreux avantages à la navigation, elle s'accompagne également de quelques limitations importantes à prendre en compte lors de la mise en œuvre de telles solutions. Voici quelques défis clés à garder à l'esprit :

  • Manque de généralisation : Les modèles formés sur des environnements ou des scénarios spécifiques ont souvent du mal lorsqu'ils sont déployés dans des contextes nouveaux ou changeants sans recyclage.
  • Limites de l'éclairage : Les systèmes de vision dépendent d'un bon éclairage et d'un temps clair pour bien fonctionner. En cas de brouillard, de forte pluie ou d'obscurité, leurs performances chutent, à moins qu'ils ne soient associés à des capteurs comme le LiDAR ou le radar.
  • Risques d'atteinte à la vie privée: Les systèmes de navigation utilisant des caméras peuvent capturer des personnes et des biens privés sans leur consentement. Cela soulève des problèmes de protection de la vie privée qui doivent être soigneusement pris en compte lors du développement et du déploiement.

Principaux enseignements

La vision par ordinateur réinvente la navigation en rendant les cartes plus dynamiques, les systèmes de circulation plus intelligents et la mobilité plus accessible. Les itinéraires autrefois statiques sont désormais des expériences interactives en temps réel - alimentées par des aperçus 3D immersifs, des directions guidées par AR et des technologies de transport autonome.

Au fur et à mesure que la technologie progresse, il est probable que l'on s'attachera à rendre ces systèmes plus inclusifs, plus adaptatifs et plus responsables. Les progrès continus dépendront de l'amélioration de la précision dans divers environnements, du maintien de performances fiables et de la protection de la vie privée des utilisateurs. L'avenir de la vision par ordinateur dans la navigation réside dans la construction de solutions qui ne sont pas seulement intelligentes, mais qui tiennent également compte de leur conception et de leur impact.

Rejoins notre communauté grandissante ! Explore notre dépôt GitHub pour en savoir plus sur l'IA, et consulte nos options de licence pour démarrer tes projets Vision AI. Tu es intéressé par des innovations telles que l 'IA dans le commerce de détail et la vision par ordinateur dans l'agriculture? Visite nos pages de solutions pour en découvrir davantage !

Logo LinkedInLogo de TwitterLogo FacebookSymbole du lien de copie

Lire la suite dans cette catégorie

Construisons ensemble le futur
de l'IA !

Commence ton voyage avec le futur de l'apprentissage automatique.

OSZAR »