Robô mostra um vislumbre de empatia para um robô parceiro

Resumo: Os pesquisadores criaram um robô que pode aprender a prever visualmente como seu parceiro se comportará. Isso pode ajudar os robôs a se relacionarem com outros robôs e humanos de forma mais intuitiva.

Fonte: Universidade Columbia

Como um casal de longa data que pode prever cada movimento um do outro, um robô da Columbia Engineering aprendeu a prever as ações e metas futuras de seu robô parceiro com base em apenas alguns quadros iniciais de vídeo.

Quando dois primatas ficam confinados por um longo tempo, aprendemos rapidamente a prever as ações de curto prazo de nossos companheiros de quarto, colegas de trabalho ou membros da família. Nossa capacidade de antecipar as ações dos outros torna mais fácil para nós vivermos e trabalharmos juntos com sucesso. Em contraste, mesmo os robôs mais inteligentes e avançados permaneceram notoriamente ineptos nesse tipo de comunicação social. Isso pode estar prestes a mudar.

O estudo, conduzido no Laboratório de Máquinas Criativas da Columbia Engineering liderado pelo Professor de Engenharia Mecânica Hod Lipson, é parte de um esforço mais amplo para dotar os robôs com a capacidade de compreender e antecipar os objetivos de outros robôs, puramente a partir de observações visuais.

Os pesquisadores primeiro construíram um robô e o colocaram em um cercadinho de aproximadamente 90 cm x 60 cm de tamanho. Eles programaram o robô para procurar e se mover em direção a qualquer círculo verde que pudesse ver. Mas havia um problema: às vezes, o robô podia ver um círculo verde em sua câmera e se mover diretamente em sua direção. Mas outras vezes, o círculo verde seria ocluído por uma caixa de papelão vermelha alta, caso em que o robô se moveria em direção a um círculo verde diferente, ou não se moveria.

Depois de observar seu parceiro vagando por duas horas, o robô observador começou a antecipar o objetivo e o caminho de seu parceiro. O robô observador foi finalmente capaz de prever a meta e o caminho de seu parceiro em 98 de 100 vezes, em várias situações – sem ser informado explicitamente sobre a deficiência de visibilidade do parceiro.

“Nossos resultados iniciais são muito empolgantes”, disse Boyuan Chen, principal autor do estudo, que foi conduzido em colaboração com Carl Vondrick, professor assistente de ciência da computação, e publicado hoje pela Nature Scientific Reports.

“Nossas descobertas começam a demonstrar como os robôs podem ver o mundo da perspectiva de outro robô. A capacidade do observador de se colocar no lugar de seu parceiro, por assim dizer, e entender, sem ser guiado, se seu parceiro poderia ou não ver o círculo verde de seu ponto de vista, talvez seja uma forma primitiva de empatia ”.

Isso mostra a localização dos objetos mencionados no estudo
Um robô ator corre em um cercadinho tentando pegar o alimento verde visível, enquanto uma máquina observadora aprende a prever o comportamento do robô ator puramente por meio de observações visuais. Embora o observador sempre possa ver os alimentos verdes, o ator, de sua própria perspectiva, não pode devido às oclusões.

Quando eles projetaram o experimento, os pesquisadores esperavam que o Robô Observer aprenderia a fazer previsões sobre as ações de curto prazo do Robô Sujeito. O que os pesquisadores não esperavam, no entanto, era a precisão com que o Robô Observer poderia prever os “movimentos” futuros de seu colega com apenas alguns segundos de vídeo como uma dica.

Os pesquisadores reconhecem que os comportamentos exibidos pelo robô neste estudo são muito mais simples do que os comportamentos e objetivos dos humanos. Eles acreditam, entretanto, que este pode ser o começo de dotar robôs com o que os cientistas cognitivos chamam de “Teoria da Mente” (ToM). Por volta dos três anos de idade, as crianças começam a compreender que outras pessoas podem ter objetivos, necessidades e perspectivas diferentes das suas.

Isso pode levar a atividades lúdicas, como esconde-esconde, bem como a manipulações mais sofisticadas, como mentir. Mais amplamente, ToM é reconhecido como uma marca distintiva chave da cognição humana e primata, e um fator que é essencial para interações sociais complexas e adaptativas, como cooperação, competição, empatia e decepção.

Breve descrição em vídeo de alto nível do projeto “Robot Theory of Mind” da Columbia Engineering (narrações de áudio incluídas). Crédito: Columbia University

Além disso, os humanos ainda são melhores do que os robôs para descrever suas previsões usando a linguagem verbal. Os pesquisadores fizeram com que o robô observador fizesse suas previsões na forma de imagens, em vez de palavras, para evitar se enredar nos desafios espinhosos da linguagem humana. No entanto, Lipson especula, a capacidade de um robô de prever as ações futuras visualmente não é única: “Nós, humanos, também pensamos visualmente às vezes. Freqüentemente, imaginamos o futuro em nossa mente, não em palavras. ”

Lipson reconhece que existem muitas questões éticas. A tecnologia tornará os robôs mais resistentes e úteis, mas quando os robôs podem antecipar como os humanos pensam, eles também podem aprender a manipular esses pensamentos.

“Reconhecemos que os robôs não permanecerão como máquinas passivas que seguem instruções por muito tempo”, diz Lipson. “Como outras formas de IA avançada, esperamos que os legisladores possam ajudar a manter esse tipo de tecnologia sob controle, para que todos possamos nos beneficiar”.

Sobre o estudo

O estudo é intitulado “Modelagem Visual de Comportamento para Robótica Teoria da Mente”

Os autores são: Boyuan Chen, Carl Vondrick e Hod Lipson, Engenharia Mecânica e Ciência da Computação, Columbia Engineering.

Veja também

Isso mostra um papel de teste de matemática

Financiamento: O estudo foi apoiado pelo NSF NRI 1925157 e pela DARPA MTO conceder o Programa L2M HR0011-18-2-0020.

Os autores declaram não haver conflitos de interesses financeiros ou outros.

Sobre esta notícia de pesquisa de robótica

Fonte: Universidade Columbia
Contato: Holly Evarts – Columbia University
Imagem: A imagem foi creditada ao Creative Machines Lab / Columbia Engineering

Pesquisa original: Acesso livre.
“Modelagem de comportamento visual para teoria robótica da mente” por Boyuan Chen, Carl Vondrick e Hod Lipson. Relatórios Científicos


Resumo

Modelagem de comportamento visual para teoria robótica da mente

A modelagem de comportamento é uma habilidade cognitiva essencial que sustenta muitos aspectos do comportamento social humano e animal (Watson em Psychol Rev 20: 158, 1913), e uma habilidade que gostaríamos de dar aos robôs. A maioria dos estudos de modelagem de comportamento de máquina, no entanto, depende de entradas sensoriais simbólicas ou paramétricas selecionadas e conhecimento embutido relevante para uma determinada tarefa. Aqui, propomos que um observador pode modelar o comportamento de um ator apenas por meio do processamento visual, sem qualquer informação simbólica prévia e suposições sobre entradas relevantes. Para testar essa hipótese, projetamos um experimento robótico não verbal não simbólico no qual um observador deve visualizar os planos futuros de um robô ator, com base apenas em uma imagem que descreve a cena inicial do robô ator. Descobrimos que um observador de IA é capaz de visualizar os planos futuros do ator com 98,5% de sucesso em quatro atividades diferentes, mesmo quando a atividade não é conhecida a priori. Nossa hipótese é que tal modelagem de comportamento visual é uma habilidade cognitiva essencial que permitirá que as máquinas entendam e se coordenem com os agentes circundantes, enquanto evitam o problema notório de aterramento de símbolos. Por meio de um teste de crença falsa, sugerimos que essa abordagem pode ser um precursor da Teoria da Mente, uma das marcas distintivas da cognição social dos primatas.

Leave a Reply

Your email address will not be published. Required fields are marked *