Teses e dissertações

Mestrado
Ciências das Emoções
Título

Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais

Autor
Soares, Antonio Alvaro
Resumo
pt
A Inteligência Artificial e os robôs sociais nos cuidados de saúde trazem um novo campo de investigação interdisciplinar. Neste estudo examinámos os julgamentos morais das pessoas acerca da reação de uma agente de saúde perante uma paciente que recusa uma medicação. Para o efeito, desenvolvemos um dilema moral que variou em função da agente (humana vs. robô), decisão (respeito à autonomia vs. beneficência/não-maleficência) e argumentação (benefício à saúde vs. prejuízo à saúde). Avaliámos a aceitabilidade moral da decisão, a responsabilidade moral da agente e os seus traços de amabilidade, competência e confiabilidade, atribuídos por 524 participantes (350 mulheres; 316 brasileiros, 179 portugueses; 18-77 anos), aleatorizados por 8 vinhetas, num desenho inter-sujeitos aplicado através de um inquérito online. Os julgamentos de aceitabilidade moral foram mais elevados na decisão do respeito à autonomia da paciente, evidência similar para as duas agentes. A responsabilização moral e a perceção de amabilidade foram superiores para a humana em relação à robô. Não houve diferenças na perceção de competência e confiabilidade das agentes. As agentes que respeitaram a autonomia foram percebidas como muito mais amáveis, com uma dimensão de efeito superior aos outros atributos, mas menos competentes e confiáveis que as agentes que decidiram pela beneficência/não-maleficência. As agentes que priorizaram a beneficência/não-maleficência e argumentaram acerca do benefício à saúde foram consideradas mais confiáveis do que nas demais interações entre a decisão e a argumentação. Esta investigação contribui para a compreensão dos julgamentos morais no contexto dos cuidados de saúde mediados por agentes tanto humanos como artificiais.
en
Artificial Intelligence and social robots in healthcare bring a new interdisciplinary field of research. In this study, we have examined people's moral judgments about a healthcare agent's reaction to a patient who refuses a medication. For this purpose, we have developed a moral dilemma that was varied according to the type of healthcare agent (human vs. robot), decision (respect for autonomy vs. beneficence/non-maleficence), and argumentation (health benefit vs. health harm). We have assessed the decision’s moral acceptability, the agent’s moral responsibility, and her traits of warmth, competence, and trustworthiness assigned by 524 participants (350 women; 316 Brazilian, 179 Portuguese; 18-77 years old) randomized into 8 vignettes, in an inter-subject design that was applied using an online survey. Moral acceptability judgments were higher in the decision to respect patient autonomy, similar evidence for both agents. Moral responsibility and perceived warmth were higher for the human agent than for the robot, and there were no differences in the agents' perceived competence and trustworthiness. Agents who have respected autonomy were perceived as much warmer, with a higher effect dimension than the other attributes, but less competent and trustworthy than agents who have decided for beneficence/non-maleficence. Agents who have prioritized beneficence/non-maleficence and argued about the health benefit were perceived as more trustworthy than in the other interactions between decision and argumentation. This research contributes to the understanding of moral judgments in the context of healthcare mediated by both humans and artificial agents.

Data

26-out-2021

Palavras-chave

Julgamentos morais
Moral judgments
Cuidados de saúde -- Health care
Psicologia moral da robótica
Robôs de enfermagem
Amabilidade & competência
Moral psychology of robotics
Nursing robots
Warmth & competence

Acesso

Acesso livre

Ver no repositório  
Voltar ao topo