Título
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais
Autor
Soares, Antonio Alvaro
Resumo
pt
A Inteligência Artificial e os robôs sociais nos cuidados de saúde trazem um novo campo de
investigação interdisciplinar. Neste estudo examinámos os julgamentos morais das pessoas
acerca da reação de uma agente de saúde perante uma paciente que recusa uma medicação. Para
o efeito, desenvolvemos um dilema moral que variou em função da agente (humana vs. robô),
decisão (respeito à autonomia vs. beneficência/não-maleficência) e argumentação (benefício à
saúde vs. prejuízo à saúde). Avaliámos a aceitabilidade moral da decisão, a responsabilidade
moral da agente e os seus traços de amabilidade, competência e confiabilidade, atribuídos por
524 participantes (350 mulheres; 316 brasileiros, 179 portugueses; 18-77 anos), aleatorizados
por 8 vinhetas, num desenho inter-sujeitos aplicado através de um inquérito online. Os
julgamentos de aceitabilidade moral foram mais elevados na decisão do respeito à autonomia
da paciente, evidência similar para as duas agentes. A responsabilização moral e a perceção de
amabilidade foram superiores para a humana em relação à robô. Não houve diferenças na
perceção de competência e confiabilidade das agentes. As agentes que respeitaram a autonomia
foram percebidas como muito mais amáveis, com uma dimensão de efeito superior aos outros
atributos, mas menos competentes e confiáveis que as agentes que decidiram pela
beneficência/não-maleficência. As agentes que priorizaram a beneficência/não-maleficência e
argumentaram acerca do benefício à saúde foram consideradas mais confiáveis do que nas
demais interações entre a decisão e a argumentação. Esta investigação contribui para a
compreensão dos julgamentos morais no contexto dos cuidados de saúde mediados por agentes
tanto humanos como artificiais.
en
Artificial Intelligence and social robots in healthcare bring a new interdisciplinary field of
research. In this study, we have examined people's moral judgments about a healthcare agent's
reaction to a patient who refuses a medication. For this purpose, we have developed a moral
dilemma that was varied according to the type of healthcare agent (human vs. robot), decision
(respect for autonomy vs. beneficence/non-maleficence), and argumentation (health benefit vs.
health harm). We have assessed the decision’s moral acceptability, the agent’s moral
responsibility, and her traits of warmth, competence, and trustworthiness assigned by 524
participants (350 women; 316 Brazilian, 179 Portuguese; 18-77 years old) randomized into 8
vignettes, in an inter-subject design that was applied using an online survey. Moral acceptability
judgments were higher in the decision to respect patient autonomy, similar evidence for both
agents. Moral responsibility and perceived warmth were higher for the human agent than for
the robot, and there were no differences in the agents' perceived competence and
trustworthiness. Agents who have respected autonomy were perceived as much warmer, with a
higher effect dimension than the other attributes, but less competent and trustworthy than agents
who have decided for beneficence/non-maleficence. Agents who have prioritized
beneficence/non-maleficence and argued about the health benefit were perceived as more
trustworthy than in the other interactions between decision and argumentation. This research
contributes to the understanding of moral judgments in the context of healthcare mediated by
both humans and artificial agents.