O Microsoft Teams AI pode dizer quem está gostando mais da sua videochamada

Professor dando uma aula de casa

O ensino online pode ser difícil sem feedback

Imagens de Nathan Stirk / Getty

A Microsoft desenvolveu uma inteligência artificial para seu software de videoconferência Teams que visa deixar as pessoas que apresentam uma palestra remota mais à vontade, destacando as reações mais positivas do público.

O AI, denominado AffectiveSpotlight, identifica os rostos dos participantes e usa uma rede neural para classificar suas expressões em emoções como tristeza, felicidade e surpresa, e movimentos pontuais como balançar a cabeça e acenar com a cabeça. Ele também usa um sistema de detecção de sobrancelha para detectar confusão, na forma de uma sobrancelha franzida.

Cada expressão é avaliada entre 0 e 1, com respostas positivas pontuando mais alto. A cada 15 segundos, a IA destaca para o apresentador a pessoa com a pontuação mais alta naquele período de tempo.

Um porta-voz da Microsoft Research disse New Scientist que “destacar as respostas do público torna o apresentador mais consciente de seu público e atinge um ciclo de feedback comunicativo”. A equipe de pesquisa recusou uma entrevista.

Em uma pesquisa com 175 pessoas conduzida pela equipe, 83 por cento daqueles que fazem apresentações disseram que muitas vezes perdem o feedback relevante do público quando fazem apresentações online – particularmente dicas sociais não-verbais.

Para ver se o AffectiveSpotlight poderia ajudar a resolver esse problema, a equipe o testou em um software que destacava os membros do público aleatoriamente. O AffectiveSpotlight destacou apenas 40 por cento dos participantes durante as conversas, em comparação com 87 por cento pelo software aleatório. Os palestrantes relataram se sentir mais positivos ao falar com o AffectiveSpotlight, embora os membros do público não pudessem discernir a diferença na qualidade da apresentação daqueles que usam a IA.

Rua M. Williams, da Purdue University, Indiana, questiona se a IA é muito útil. “É certamente duvidoso, na melhor das hipóteses, que qualquer interpretação baseada apenas em áudio ou vídeo, ou ambos, seja precisa”, dizem eles.

Williams também se preocupa com o fato de que confiar na IA para analisar as emoções humanas – que são mais complicadas do que podem parecer à primeira vista – seja problemático. “Embora alguns estudos como este possam mencionar questões de privacidade e consentimento, nenhum nunca explica como alguém pode contestar uma interpretação imprecisa de seu afeto.”

Referência: arxiv.org/abs/2101.12284

Mais sobre esses tópicos:

Leave a Reply

Your email address will not be published. Required fields are marked *