As implicações éticas da IA de defesa se estendem além das questões técnicas. Elas envolvem o próprio tecido moral da sociedade, colocando em pauta a governança de tecnologias que podem escapar ao controle humano. A partir do momento em que sistemas de armas autônomas entram em operação, o papel da supervisão humana é severamente questionado. Estaríamos, como civilização, preparados para aceitar que uma máquina tenha o poder de decidir quem vive e quem morre em um cenário de guerra? Essa inquietação ressoa em fóruns globais e entre líderes de diversas nações, que começam a reconhecer a necessidade urgente de estabelecer parâmetros éticos e jurídicos para a IA no campo militar.
Por outro lado, há uma percepção crescente de que, sem regulamentação clara, a IA militar pode desencadear uma nova corrida armamentista, onde a busca por inovações tecnológicas alimenta a instabilidade global. A ausência de governança sobre essas tecnologias abre um perigoso precedente: o risco de que conflitos se intensifiquem de maneira automatizada, com máquinas operando fora da supervisão e do controle humano. Essa perspectiva é alarmante, pois coloca em evidência a fragilidade das estruturas globais de paz. A IA de defesa, portanto, carrega uma dualidade intrínseca — ao mesmo tempo que oferece vantagens estratégicas, desafia o equilíbrio ético e moral que tem norteado as ações militares por séculos.