Abstract
La toma de decisiones en inteligencia artificial (IA) puede ocurrir en escenarios en los que se decide en una fracción de segundo sobre la vida o el bienestar de los individuos sin que medie supervisión humana. Los algoritmos de IA que se aplican en estos casos pueden basarse o bien en criterios deontológicos o utilitaristas. Incluso si hubiese un consenso ético sobre la toma de decisiones de la IA, si la gente no encontrase aceptables los criterios éticos de la IA, su rechazo dificultaría su implementación. Por ejemplo, si un coche autónomo siempre sacrificase la seguridad de sus pasajeros antes que poner en peligro a otras víctimas en un accidente inevitable, mucha gente no compraría un coche autónomo. En este artículo se realiza una revisión bibliográfica de artículos científicos del ámbito de la psicología social sobre las variables implicadas en la percepción de decisiones relacionadas con la IA. Esta percepción social de la IA puede tener relevancia en el desarrollo de criterios sobre la responsabilidad legal. Finalmente, se examinan aspectos relacionados con el ámbito jurídico con la utilización de la IA en el sistema judicial y en la comisión de delitos.
Publisher
Universidad de Santiago de Compostela
Subject
General Earth and Planetary Sciences,General Environmental Science
Reference30 articles.
1. AWAD, E., DSOUZA, S., KIM, R., SCHULZ, J. et al., “The Moral Machine Experiment”, en Nature, 563(7729), 2018, pp. 59-64. https://doi.org/10.1038/s41586-018-0637-6.
2. BARTELS, D. M. y PIZARRO, D.A., “The mismeasure of morals: Antisocial personality traits predict utilitarian responses to moral dilemmas”, en Cognition, 121(1), 2011, pp. 154-161. https://doi.org/10.1016/j.cognition.2011.05.010.
3. BONNEFON, J. F., SHARIFF, A., y RAHWAN, I., “The social dilemma of autonomous vehicles”, en Science, 352(6293), 2016, pp. 1573-1576. https://doi.org/10.1126/science.aaf2654.
4. BOSTYN, D. H., ROETS, A., y CONWAY, P., “Sensitivity to Moral Principles Predicts Both Deontological and Utilitarian Response Tendencies in Sacrificial Dilemmas”, en Social Psychological and Personality Science, 2021, pp. 1-10. https://doi.org/10.1177/19485506211027031.
5. CRIMINAL LAW SENTENCING GUIDELINES, “Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing. - ‘State v. Loomis’, 881 N.W.2d 749 (Wis. 2016).”, en Harvard Law Review, 130(5), 2017, pp. 1530–1537.