Abstract
A rápida ascensão da inteligência artificial (IA) levanta desafios éticos, especialmente relacionados à confiança depositada nessa tecnologia e suas implicações para diversos grupos demográficos. Este texto adota uma abordagem filosófica fenomenológica e hermenêutica, fundamentada em Husserl e Heidegger, para explorar a segurança existencial da IA e sua conexão com a confiança. A confiança na IA é examinada não apenas como uma questão técnica, mas como um fenômeno ligado a dinâmicas sociais complexas, desafiando a reflexão sobre influências discriminatórias nos sistemas inteligentes. O referencial teórico incorpora contribuições recentes sobre confiança na IA para intensificar a produção de literatura sobre segurança da IA com base na confiança, e interage com o Código de Conduta Internacional do Processo de Hiroshima para Sistemas Avançados de AI.
Reference21 articles.
1. AHMED, Shazeda; JAŹWIŃSKA, Klaudia; AHLAWAT, Archana; WINECOFF, Amy; WANG, Mona. Building the Epistemic Community of AI Safety. Social Science Research Network (SSRN), New York, Nov. 22, 2023. Disponível em: . Acesso em: 02 dez. 2023.
2. BACHELARD, Gaston. Le nouvel esprit scientifique. Paris: Presses Universitaires de France, 1934.
3. COMISSÃO EUROPEIA. Código de Conduta Internacional do Processo de Hiroshima para Sistemas Avançados de Inteligência Artificial. Bruxelas, 30 out. 2023. Disponível em: . Acesso em: 10 nov. 2023.
4. CORRÊA, Nicholas. K.; GALVÃO, Camila; SANTOS, James W., DEL PINO, Carolina.; PINTO, Edson P.; BARBOSA, Camila; MASSMANN, Diogo; MAMBRINI, Rodrigo; GALVÃO, Luíza; TEREM, Edmund; OLIVEIRA, Nythamar (2023). Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance. Patterns, v. 4, n. 10, p. 1-15, 2023. Disponível em: . Acesso em: 30 de nov. 2023.
5. DREYFUS, Hubert L. What Computers Still Can’t Do: A critique of Artificial Reason. Cambridge: MIT Press, 1992.