O aparecimento de robôs afeta nossa percepção da moralidade de suas decisões

Resumo: As pessoas consideram as decisões morais feitas por robôs humanóides menos eticamente corretas do que quando outro robô humano ou de aparência tradicional toma a mesma decisão.

Fonte: Universidade de Helsinque

Moralities of Intelligent Machines é um projeto que investiga as atitudes das pessoas em relação às escolhas morais feitas pela inteligência artificial.

No último estudo concluído no âmbito do projeto, os participantes do estudo lêem narrativas curtas em que um robô, um robô um tanto humanóide conhecido como iRobot, um robô com uma forte aparência humanóide chamado iClooney ou um ser humano encontra um problema moral ao longo das linhas do bonde dilema, tomando uma decisão específica.

Os participantes também viram imagens desses agentes, após as quais avaliaram a moralidade de suas decisões.

O estudo foi financiado pela Fundação Jane and Aatos Erkko e pela Academia da Finlândia.

O dilema do bonde é um problema em que uma pessoa vê um bonde inclinando-se nos trilhos, sem ninguém no controle, em direção a cinco pessoas. A pessoa não pode fazer nada ou virar o bonde para outra pista, salvando as cinco pessoas, mas matando outro indivíduo na outra pista.

Atitudes mais negativas em relação a robôs humanóides

De acordo com o estudo, as pessoas consideram a escolha feita pelo humanóide iRobot e iClooney menos ética do que a mesma decisão feita por um humano e um robô com aparência tradicional de robô. Michael Laakasuo, pesquisador sênior da Universidade de Helsinque, líder do projeto e principal investigador do estudo, relaciona as descobertas ao efeito vale misterioso, que foi identificado em pesquisas anteriores.

“Humanidade em inteligência artificial é percebida como misteriosa ou assustadora, e as atitudes em relação a esses robôs são mais negativas do que em relação a robôs mais semelhantes a máquinas. Isso pode ser devido, por exemplo, à dificuldade de reagir a um ser humanoide: é um animal, um humano ou uma ferramenta? ”

Isso mostra uma mulher olhando para um robô
A discussão orienta a regulamentação da AI Laakasuo afirma que o número de máquinas inteligentes fazendo escolhas morais está crescendo em nossa sociedade, tendo os carros autônomos como exemplo. A imagem é de domínio público

De acordo com Laakasuo, as descobertas indicam que os humanos não acham a ideia estranha de robôs tomando decisões morais, já que as decisões feitas por um humano e um robô tradicional foram vistas como igualmente aceitáveis. Em vez disso, a aparência do robô faz diferença na avaliação de sua moralidade.

A discussão orienta a regulamentação da AI Laakasuo afirma que o número de máquinas inteligentes fazendo escolhas morais está crescendo em nossa sociedade, tendo os carros autônomos como exemplo.

“É importante saber como as pessoas veem as máquinas inteligentes e que tipos de fatores afetam a avaliação moral relacionada. Por exemplo, as infrações de trânsito perpetradas por um carro autônomo estiloso são percebidas de forma diferente das de um modelo menos elegante? ”

Esse conhecimento pode influenciar a direção do desenvolvimento de IA e robótica, bem como, entre outras coisas, a marca do produto. O conhecimento também pode moldar a discussão política relativa à regulamentação da inteligência artificial. Por exemplo, carros autônomos podem se tornar laboratórios de teste para empresas privadas: no caso de acidentes, as consequências podem ser tratadas com dinheiro, arriscando a saúde humana em nome do avanço tecnológico com apelos à moral consequencialista.

“Que tipo de robô queremos ter entre nós: robôs que salvam cinco pessoas de serem atropeladas por um bonde, sacrificando uma pessoa, ou robôs que se recusam a sacrificar qualquer pessoa mesmo que isso signifique salvar várias vidas? Os robôs devem ser projetados para se parecerem com humanos ou não, se sua aparência afetar a moralidade percebida de suas ações? ”

Sobre esta notícia de pesquisa de robótica

Fonte: Universidade de Helsinque
Contato: Michael Laakasuo – Universidade de Helsinque
Imagem: A imagem é de domínio público

Pesquisa original: Acesso livre.
“Vale misterioso moral: a aparência de um robô modera como suas decisões são julgadas”, de Laakasuo et al. International Journal of Social Robotics


Resumo

Veja também

Isso mostra o contorno de uma cabeça

Moral Uncanny Valley: a aparência de um robô modera como suas decisões são julgadas

A inteligência artificial e a robótica estão avançando rapidamente. Os humanos são cada vez mais afetados por máquinas autônomas que fazem escolhas com repercussões morais. Ao mesmo tempo, a pesquisa clássica em robótica mostra que as pessoas são adversas a robôs que parecem estranhamente humanos – um fenômeno comumente referido como o efeito vale misterioso. No entanto, pouco se sabe sobre como as aparências das máquinas influenciam como os humanos avaliam suas escolhas morais.

Aqui, integramos o efeito do vale sobrenatural à psicologia moral. Em dois experimentos, testamos se os humanos avaliam escolhas morais idênticas feitas por robôs de forma diferente, dependendo da aparência dos robôs. Os participantes avaliaram decisões morais deontológicas (“baseadas em regras”) ou utilitárias (“baseadas em consequências”) feitas por robôs diferentes.

Os resultados fornecem a primeira indicação de que as pessoas avaliam as escolhas morais de robôs que se assemelham a humanos como menos morais em comparação com as mesmas escolhas morais feitas por humanos ou robôs não humanos: um efeito de vale moral misterioso. Discutimos as implicações de nossas descobertas para a psicologia moral, robótica social e política de segurança de IA.

Leave a Reply

Your email address will not be published. Required fields are marked *