Pesquisadores da Brown University (EUA) desenvolveram um sistema que permite que robôs encontrem objetos em ambientes complexos utilizando não apenas linguagem, mas, também, gestos humanos, como apontar e direcionar o olhar.
No cotidiano, a comunicação entre pessoas vai além das palavras. Gestos, olhares e o contexto compartilhado ajudam a transmitir significados de forma natural. No entanto, para robôs, interpretar esse tipo de interação ainda representa um grande desafio, especialmente em ambientes com muitos objetos, movimento e itens parcialmente ocultos.
Segundo os pesquisadores, embora robôs já consigam identificar objetos, situações com desordem visual, duplicidade de itens e oclusões aumentam significativamente a incerteza durante a busca.
Para lidar com esse problema, a equipe desenvolveu um sistema que integra linguagem, gestos, apontamento e direção do olhar em um único processo de tomada de decisão. A proposta é permitir que os robôs lidem com a incerteza de forma mais próxima à humana, sem assumir que possuem informações completas.
“A busca por objetos exige que um robô navegue por ambientes extensos”, afirmou, ao Earth.com, Ivy He, estudante de pós-graduação da Brown e autora principal do estudo. Ela destaca que, apesar dos avanços, fatores, como desordem, movimento e obstruções tornam a tarefa muito mais difícil. “Este trabalho consiste em usar tanto a linguagem quanto os gestos para auxiliar nessa tarefa de busca”, completou.
Um dos avanços centrais do estudo foi a integração de gestos ao mesmo sistema matemático utilizado para linguagem. Para isso, Ivy He se inspirou em pesquisas conduzidas no Brown Dog Lab, liderado pela cientista cognitiva Daphna Buchsbaum.
Compartilhar notícia