Grâce à des données thermiques et infrarouges combinées au traitement de l’intelligence artificielle, un nouveau système visuel peut voir son environnement dans l’obscurité totale comme en plein jour.

Selon l’équipe de recherche de l’université de Purdue, le système HADAR (heat-assisted detection and ranging) combine la physique thermique, l’imagerie infrarouge et l’apprentissage automatique pour ouvrir la voie à une « perception automatique entièrement passive et sensible à la physique ».

Les capteurs traditionnels, tels que le LiDAR, le radar et le sonar, présentent des problèmes d’interférence des signaux et des risques pour la sécurité des yeux. D’autre part, les caméras vidéo fonctionnent mal ou pas du tout dans des conditions de faible luminosité, comme la nuit, le brouillard ou la pluie. Cependant, elles fournissent une image réaliste de l’environnement.

Quant aux systèmes d’imagerie thermique, ils fonctionnent bien dans l’obscurité et sont largement indépendants des conditions météorologiques et lumineuses. Mais les images capturées sont floues, manquent de profondeur et ne fournissent qu’une image abstraite de l’environnement.

Un système de vision robuste pour les robots et les véhicules autonomes, mais encore trop lent et encombrant pour une utilisation quotidienne

Le système HADAR vise à combiner les meilleurs éléments des deux technologies de visualisation : les données visuelles du système d’imagerie thermique robuste sont enrichies par les données de profondeur d’un système infrarouge, et l’intelligence artificielle est utilisée pour ajouter plus de détails, de profondeur et de texture.

Selon l’équipe de recherche, HADAR peut ainsi voir le monde aussi clairement dans l’obscurité totale que pendant la journée. Il peut également détecter des caractéristiques physiques hors de portée de la vision humaine.

Mais avant que HADAR puisse être intégré dans des voitures ou des robots pour un usage quotidien, le système doit devenir plus petit et plus rapide. Actuellement, il ne peut capturer qu’environ une image par seconde.

Pour une image raisonnablement lisse pour l’œil humain, il faut au moins 24 images par seconde ; pour les applications liées à la sécurité, telles que les voitures autonomes, 30 images par seconde ou plus seraient nécessaires. En outre, le système est encore très coûteux, selon Fanglin Bao, un chercheur qui a participé à son développement.

Outre la conduite autonome et la robotique, l’équipe de recherche envisage des applications potentielles dans les domaines de l’agriculture, de la défense, des soins de santé, des géosciences et de la surveillance de la faune et de la flore.

La recherche est soutenue, entre autres, par l’agence de défense américaine DARPA. Une demande de brevet est en cours.