Utilizando datos térmicos e infrarrojos combinados con procesamiento de inteligencia artificial, un nuevo sistema visual puede ver su entorno en total oscuridad como si fuera pleno día.

HADAR (heat-assisted detection and ranging) combina la física térmica, las imágenes infrarrojas y el aprendizaje automático para allanar el camino a una «percepción artificial totalmente pasiva y consciente de la física», según el equipo de investigación de la Universidad de Purdue.

Los sensores tradicionales, como el LiDAR, el radar y el sonar, tienen problemas de interferencias en la señal y riesgos de seguridad para los ojos. Por otro lado, las cámaras de vídeo funcionan mal o no funcionan en absoluto en condiciones de poca luz, como de noche, niebla o lluvia. Sin embargo, proporcionan una imagen realista del entorno.

Por su parte, los sistemas de imagen térmica funcionan bien en la oscuridad y son en gran medida independientes de las condiciones meteorológicas y lumínicas. Pero las imágenes captadas son borrosas, carecen de profundidad y sólo proporcionan una imagen abstracta del entorno.

Sistema de visión robusto para robots y vehículos autónomos, pero aún demasiado lento y voluminoso para el uso cotidiano

El sistema HADAR pretende combinar los mejores elementos de ambas tecnologías de visualización: los datos visuales del robusto sistema de imagen térmica se enriquecen con los datos de profundidad de un sistema de infrarrojos, y se utiliza inteligencia artificial para añadir más detalle, profundidad y textura.

Esto permite al HADAR ver el mundo con la misma claridad en la oscuridad total que durante el día, según el equipo de investigación. También puede detectar características físicas fuera del alcance de la visión humana.

Pero antes de que el HADAR pueda incorporarse a coches o robots de uso cotidiano, el sistema debe hacerse más pequeño y rápido. Actualmente, sólo puede captar una imagen por segundo.

Para obtener una imagen razonablemente fluida para el ojo humano, se necesitan al menos 24 fotogramas por segundo; para aplicaciones relacionadas con la seguridad, como los coches autónomos, se necesitarían 30 fotogramas por segundo o más. Además, el sistema sigue siendo muy caro, según Fanglin Bao, investigador que participa en su desarrollo.

Además de la conducción autónoma y la robótica, el equipo de investigación ve posibles aplicaciones en agricultura, defensa, sanidad, geociencias y vigilancia de la vida salvaje.

La investigación cuenta con el apoyo, entre otros, de la agencia de defensa estadounidense DARPA. Se está tramitando una solicitud de patente.