Este artigo explora os riscos sociais que podem surgir da integração de inteligência artificial (IA) em inovações de defesa e examina como o princípio da responsabilização pode ser alcançado nesse contexto. Utilizando uma abordagem descritiva-analítica qualitativa, baseada em relatórios internacionais e estudos anteriores, o artigo identifica quatro domínios críticos de risco social: ameaças à vida humana, uso indevido de terroristas, guerra cibernética e eletrônica, e falta de responsabilização por ações cometidas por sistemas autônomos ou semi-autônomos. Para enfrentar esses desafios, é proposto um quadro de responsabilidade em três níveis —internacional, institucional e sociocultural— que conecta padrões éticos globais com práticas de governança local e valores morais. O estudo argumenta que inovação responsável em tecnologias de defesa alimentadas por IA requer governança ética que garanta responsabilidade, supervisão humana e legitimidade social, equilibrando assim imperativos de segurança com confiança pública.
Alshammari, A. A. . (2026). Inteligência Artificial na defesa: um exame bioético dos riscos sociais e da governança . Acta Bioethica, 32(1), 41–57. Recuperado de https://actabioethica.uchile.cl/index.php/AB/article/view/83395