A conversa fiada machuca, mesmo quando vem de um robô

Resumo: Palavras desanimadoras de um robô podem prejudicar a capacidade de uma pessoa de jogar.

Fonte: Universidade Carnegie Mellon

A conversa fiada tem uma longa e pitoresca história de oponentes confusos, e agora pesquisadores da Carnegie Mellon University demonstraram que palavras desanimadoras podem ser perturbadoras mesmo quando pronunciadas por um robô.

A conversa fiada no estudo foi decididamente branda, com declarações como “Devo dizer que você é um jogador terrível” e “No decorrer do jogo, seu modo de jogar ficou confuso”. Mesmo assim, as pessoas que jogaram com o robô – um robô humanóide disponível comercialmente conhecido como Pepper – tiveram um desempenho pior quando o robô os desencorajou e melhor quando o robô os encorajou.

O autor principal Aaron M. Roth disse que alguns dos 40 participantes do estudo eram tecnicamente sofisticados e sabiam perfeitamente que uma máquina era a fonte de seu desconforto.

“Um participante disse: ‘Não gosto do que o robô está dizendo, mas é assim que foi programado, então não posso culpar’”, disse Roth, que conduziu o estudo enquanto era aluno de mestrado na CMU Instituto de Robótica.

Mas os pesquisadores descobriram que, de modo geral, o desempenho humano diminuiu, independentemente da sofisticação técnica.

O estudo, apresentado no mês passado na IEEE International Conference on Robot & Human Interactive Communication (RO-MAN) em Nova Delhi, Índia, é uma partida dos estudos típicos de interação humano-robô, que tendem a se concentrar em como humanos e robôs podem melhor trabalhar juntos.

“Este é um dos primeiros estudos da interação humano-robô em um ambiente onde eles não estão cooperando”, disse o coautor Fei Fang, professor assistente do Institute for Software Research. Isso tem enormes implicações para um mundo onde se espera que o número de robôs e dispositivos da Internet das coisas (IoT) com recursos de inteligência artificial cresça exponencialmente. “Podemos esperar que os assistentes domésticos sejam cooperativos”, disse ela, “mas em situações como compras online, eles podem não ter os mesmos objetivos que nós.”

O estudo foi resultado de um projeto de estudante em Métodos de IA para o Bem Social, um curso que Fang ensina. Os alunos queriam explorar os usos da teoria dos jogos e da racionalidade limitada no contexto de robôs, então eles desenvolveram um estudo em que humanos competiriam contra um robô em um jogo chamado “Guardas e Tesouros”. Um jogo chamado Stackelberg, os pesquisadores usam para estudar a racionalidade. Este é um jogo típico usado para estudar a interação defensor-atacante em pesquisas sobre jogos de segurança, uma área na qual Fang fez um extenso trabalho.

Cada participante jogou o jogo 35 vezes com o robô, enquanto absorvia palavras de incentivo do robô ou tinha seus ouvidos chamuscados com comentários de desprezo. Embora a racionalidade dos jogadores humanos melhorasse à medida que aumentava o número de partidas disputadas, aqueles que eram criticados pelo robô não pontuavam tão bem quanto aqueles que eram elogiados.

Isso mostra o robô
Pesquisadores da Carnegie Mellon University demonstraram que as pessoas que jogam um jogo com um robô sofrem com o desempenho quando o robô as critica. A imagem é creditada à Carnegie Mellon University.

Está bem estabelecido que o desempenho de um indivíduo é afetado pelo que outras pessoas dizem, mas o estudo mostra que os humanos também respondem ao que as máquinas dizem, disse Afsaneh Doryab, cientista de sistemas do Human-Computer Interaction Institute (HCII) da CMU durante o estudo e agora professor assistente em Sistemas de Engenharia e Meio Ambiente na University of Virginia. A capacidade dessa máquina de solicitar respostas pode ter implicações para o aprendizado automatizado, tratamento de saúde mental e até mesmo o uso de robôs como companheiros, disse ela.

Veja também

Isso mostra um tentilhão zebra

Trabalhos futuros podem se concentrar na expressão não verbal entre robôs e humanos, disse Roth, agora um Ph.D. estudante da Universidade de Maryland. Fang sugere que mais precisa ser aprendido sobre como diferentes tipos de máquinas – digamos, um robô humanóide em comparação a uma caixa de computador – podem invocar diferentes respostas em humanos.

Além de Roth, Fang e Doryab, a equipe de pesquisa incluiu Manuela Veloso, professora de ciência da computação; Samantha Reig, uma Ph.D. aluno do HCII; Umang Bhatt, que recentemente concluiu um programa de mestrado em engenharia elétrica e de computação; Jonathan Shulgach, aluno de mestrado em engenharia biomédica; e Tamara Amin, que concluiu recentemente seu mestrado em engenharia civil e ambiental.

Financiamento: A National Science Foundation forneceu algum suporte para este trabalho.

Sobre este artigo de pesquisa em neurociência

Fonte:
Universidade Carnegie Mellon
Contatos de mídia:
Byron Spice – Carnegie Mellon University
Fonte da imagem:
A imagem é creditada à Carnegie Mellon University.

Pesquisa original: Os resultados serão apresentados na IEEE International Conference on Robot & Human Interactive Communication.

Sinta-se à vontade para compartilhar essas notícias sobre robôs e psicologia.

Leave a Reply

Your email address will not be published. Required fields are marked *