Um novo método ensina aos robôs “busca baseada na visão”. Em suma, os robôs agora podem perseguir humanos.

Pesquisadores da Universidade da Califórnia em Berkeley desenvolveram uma nova maneira de ensinar robôs à tomada de decisões estratégicas para tarefas dinâmicas, como jogar tag. Em vez de simplesmente seguir uma pessoa ou outro robô, o robô os corta e os procura ativamente.

Aprender tais comportamentos no mundo real é extremamente difícil para um robô porque ele tem conhecimento limitado de seu ambiente e outros agentes através de seus sensores, os objetivos de outros agentes não são claros e o movimento no mundo físico é fundamentalmente mais difícil do que em simulações.

Portanto, a aprendizagem direta de tais comportamentos, por exemplo, por meio da aprendizagem por reforço, tem falhado devido a esses requisitos.

Robô cão aprende com professor onisciente de IA

Assim, a equipe está usando uma abordagem diferente chamada “aprendizagem privilegiada”. Esta é uma forma de aprendizagem supervisionada em que um professor que tem informações adicionais ajuda um aluno que não tem.

No caso dos robôs, isso significa que o professor robô usa a trajetória futura do evasor para inferir as intenções do evasor. Munido dessas informações privilegiadas, o professor robô pode orientar o robô aluno passo a passo sobre quais ações tomar. O problema de planejamento inerentemente complexo torna-se, assim, um simples problema de aprendizagem supervisionada para o aluno.

Apesar da simplicidade do método, o robô aprende comportamentos dinâmicos, como reduzir sua velocidade quando o evasor gira, ou interceptá-lo prevendo onde ele estará.

Os pesquisadores testaram sua abordagem em um robô real de quatro patas que brincava com humanos e outros robôs, contando apenas com câmeras embutidas e propriocepção.

Os pesquisadores testaram sua abordagem em um robô real de quatro patas que brincava com humanos e outros robôs, contando apenas com câmeras embutidas e propriocepção.

Vídeo: Bajcsy, Loquercio et al.

O robô real também exibiu os comportamentos complexos que o modelo subjacente havia aprendido na simulação.

O robô real também exibiu os comportamentos complexos que o modelo subjacente havia aprendido na simulação.

Até agora, o sistema não consegue lidar com obstáculos – para isso, precisa de treinamento de IA mais extenso e melhores sensores, disseram os pesquisadores.

Mais informações estão disponíveis na página do projeto.