top of page
  • Instagram
  • X
  • TikTok
  • Youtube
  • LinkedIn
  • Whatsapp

Inteligência Artificial e Armas Nucleares: uma recente (e infeliz) relação

  • Fernando Fiala
  • 25 de jun. de 2025
  • 7 min de leitura
© MOSCOW REGION, RUSSIA - AUGUST 25, 2020
© MOSCOW REGION, RUSSIA - AUGUST 25, 2020

Num cenário global atravessado por constantes “faíscas” de um conflito nuclear prestes a eclodir, as preocupações humanitárias mais esperadas tendem a vir à tona sem grandes dificuldades de entendimento comum, como o impacto devastador às estruturas civis de bombas nucleares, a contaminação ambiental e seus prejuízos ao planeta e a própria fatalidade e/ou sequelas ocasionadas aos civis afetados por territórios de beligerância nuclear. Entretanto, para além destes alardes, já vivenciados e causados pela humanidade durante ataques como os realizados em Hiroshima e Nagasaki (1945), a ascensão de novas tecnologias traz à contemporaneidade um desafio imprevisível: a Inteligência Artificial (IA) militar e seu impacto sobre as operações nucleares.

Todos os Estados nucleares - China, Coréia do Norte, Estados Unidos, França, Índia, Israel, Paquistão, Reino Unido e Rússia - vêm modernizando sua tecnologia nuclear e alguns vêm também alargando seus arsenais, fato que, quando relacionado ao desenvolvimento de IA militar por estes nove Estados, justifica as preocupações quanto ao uso desta inteligência que intensifica cada vez mais os riscos de uma escalada nuclear ao somente pouco mais da metade destes Estados terem declarado a intenção de manter o processo decisório de Armas Nucleares sob controle humano. Entendida como o ponto de “limite” de conflitos convencionais, a escalada nuclear é motivada por um propósito de intensificação, ultrapassagem de limites rivais e/ou erros durante os processos decisórios de seu acontecimento, de forma que esta é a expansão nuclear dada a conflitos que inicialmente não utilizaram/iam destes artefatos. 

Sendo assim, a aplicação e o desenvolvimento de força nuclear pelos Estados que a possuem partem de uma variedade de fatores, que compreendem desde as políticas particulares de cada Estado e alianças no setor até causas como o poder de dissuasão desses armamentos. Como é o caso da China, que se compromete a atacar somente em resposta a outra agressão, e dos Estados Unidos e da Rússia, que definem a escalada nuclear como uma resposta a diversas tensões, não necessariamente nucleares. Alianças como a OTAN e a união entre Rússia e Bielorrússia também permitem a utilização de armas nucleares em conflitos, mesmo por Estados que não as possuem, mas que estão protegidos sob o guarda-chuva da cooperação firmada.

Seu efeito 'preventivo' é também uma ação 'compensatória' em conflitos nos quais as táticas convencionais estejam ameaçadas. Ademais, a ocorrência de erros, frutos de mal-entendidos ou de defeitos sistêmicos durante a tomada de decisão e a escolha de alvos em conflitos armados, pode ser o motor da escalada de guerras nucleares. Isso pode ocorrer em situações nas quais a razão para esse 'passo' decorre tanto de falhas relacionadas ao uso de IAs nos processos decisórios quanto do uso dessas tecnologias em fases não nucleares dos conflitos, que, após um equívoco sistêmico, podem resultar nesse tipo de combate.

Assim, definem-se três possibilidades de aumento do risco de escalada nuclear ocasionado por IAs militares. Em primeiro lugar, o uso dessa tecnologia em sistemas de comunicação, controle e comando nucleares (NC3); em segundo, a utilização de IAs nas plataformas de entrega ou condução de arsenal nuclear; e, por fim, o uso de sistemas militares habilitados com IA em aplicações não nucleares. Ao se apurar o olhar sobre esta última possibilidade, evidenciam-se riscos consideráveis, especialmente diante da atual inserção de tecnologias dotadas de autonomia em sistemas militares de diversas potências. Apesar de não empregarem essas tecnologias diretamente nos sistemas nucleares, o envolvimento de outros sistemas autônomos de decisão abre margem para que conflitos nucleares sejam provocados a partir de qualquer domínio militar, sejam os tradicionais (terra, mar, subsolo e ar) ou os menos previsíveis, como o espaço sideral e o ciberespaço.

Para ilustrar essa possibilidade, pode-se citar, por exemplo, a utilização, pelos Estados Unidos, de satélites de alerta para detecção de ataques, sejam eles de origem nuclear ou não, bem como o sistema russo Iskander, que pode lançar tanto mísseis de curto alcance quanto mísseis de cruzeiro carregados com ogivas nucleares. Ambos os sistemas incorporam inteligência artificial e, embora não sejam tecnologias nucleares em si, podem, por erro, escalar um conflito nuclear. Essas situações levantam um questionamento persistente diante desse tipo de aplicação: o que fazer diante de um erro, e qual seria a cadeia de desastres que ele pode desencadear?

Diante da possibilidade de falha, é necessário, para que haja uma análise de conjuntura, observar as causas que levam uma das novas tendências da militarização a ser a utilização de IAs no desenvolvimento de sistemas cruciais à execução de ataques. Características como autonomia, maior agilidade e melhoria na compreensão de grandes volumes de dados e informações relevantes à conformação de ataques são alguns dos pontos considerados positivos às operações militares que empregam essas tecnologias. Esses fatores proporcionam vantagens significativas em conflitos como guerras cibernéticas e eletrônicas, que dependem de alta capacidade de captura e processamento de informação para a realização de ofensivas.

Entretanto, se tais benefícios são perceptíveis, seus malefícios são gritantes. A IA, ao ser implantada em sistemas militares, apresenta como fragilidades iniciais a falta de transparência e a possibilidade de análises enviesadas e, por vezes, preconceituosas na seleção de alvos. Esses problemas, quando transpostos a cenários beligerantes, podem gerar consequências graves, como leituras sistêmicas errôneas, alucinações da IA, incapacitação de operadores humanos, identificação falha de ameaças e, consequentemente, escaladas acidentais de conflitos que inicialmente não teriam dimensões nucleares.

Outros fatores que corroboram à análise negativa da utilização destas tecnologias são: como a dependência de sistemas militares de IAs os fragiliza, como sistemas baseados em machine learning são mais suscetíveis à ataques estruturais e também como ciberataques podem pôr em xeque sua operacionalidade e confidencialidade de informações, pontos-chave para operações militares. Para tanto, é visto como tais tecnologias representam atrasos aos próprios processos militares de decisão, atrasos estes que podem sinonimizar-se à tragédias humanitárias ocasionadas por erros sistêmicos e contornáveis quando utilizados sistemas sob controle humano. E, aprofundando este uso de IAs em sistemas militares não-nucleares e seus riscos no escalonamento de conflitos, traçam-se duas tecnologias protagonistas nesta tendência: os sistemas militares de IA de suporte decisório (AI-DSSs) e a integração de IA em sistemas convencionais com potencial de contraforça.

Os AI-DSSs atuam como processadores de grandes volumes de dados e informações por meio de sensores, bancos de dados compilados e Inteligência de Fonte Aberta, operacionalizando sua atividade de três maneiras: descritiva (apresentação estruturada de dados com o objetivo de melhorar a compreensão geral das informações), prescritiva (recomendação de possíveis ações) e preditiva (análise de padrões visando à antecipação de eventos futuros). Tais atividades, aliadas à falta de transparência desses sistemas, que pode ocasionar leituras parciais e/ou errôneas das situações, somadas à própria automação envolvida, que impulsiona decisões não verificadas por seres humanos devido à complexidade ou à urgência, tornam capacidades como a predição instrumentos de alto risco. Isso ocorre porque esses sistemas não são capazes de analisar conjunturas que considerem o tabu nuclear e a ponderação decisória, uma qualidade tipicamente humana, sendo operacionalizados de forma apática. Sendo assim, percebe-se que o risco de escalonamento nuclear ocasionado pelo uso de tecnologias como os AI-DSSs não reside na completa ausência da presença humana nos processos de identificação e tomada de decisão, mas sim na maneira como essas tecnologias reduzem ativamente as condições e os espaços de atuação humana em seus procedimentos, comprometendo a cadeia de análise, comunicação e coleta de informações.

Quanto à integração de inteligência artificial em sistemas convencionais com potencial de contraforça, esta se dá pela capacidade de realizar ataques precisos, pela melhoria na definição de alvos e pelo avanço nas atividades de Inteligência, Vigilância e Reconhecimento (ISR), com o objetivo de, por meio da maior agilidade na identificação de alvos, neutralizar as possibilidades de contra-ataque inimigo. Dessa forma, torna-se importante analisar como essa integração ameaça a estabilidade estratégica ao criar ambientes de constante suspeita e de possíveis ataques preventivos, ao aumentar a vulnerabilidade das forças nucleares e diminuir seu poder de retaliação. Tal cenário pode incentivar beligerâncias nucleares sob a justificativa de salvaguardar a capacidade de realizar um segundo ataque, sendo este um ponto de consideração indispensável diante das atuais tensões globais e do desenvolvimento contínuo de tecnologias nucleares ano após ano. A questão da contraforça em conflitos nucleares e o argumento do ataque preventivo foi explorada na publicação "Ataque israelense à usina de Natanz destrói estrutura crítica do programa nuclear iraniano e acende alerta internacional" ao abordar o recente ataque isralense às bases militares industriais nucleares iranianas nos dias 13 e 14 deste mês e como a possibilidade de produção de arsenal nuclear já gera grandes tensões no Sistema Internacional.

Perante o exposto, é evidente como o uso de Inteligência Artificial nos processos decisórios de ofensivas nucleares é perigoso e inseguro ao ponto que influencia escolhas políticas capazes de impactar diretamente ataques que colocam em risco a vida de inocentes de forma que, a partir dos riscos que possíveis falhas sistêmicas como as trazidas acima podem ocasionar e da atual conjuntura global de frequentes instabilidades geopolíticas, motores de conflitos que podem se tornar nucleares, concebe-se a absoluta urgência em regular as já existentes inteligências artificiais e em construir pontes de verificação e análise humana sobre sistemas como o AI-DSSs e outros que, apesar de não serem parte dos dispositivos e de tecnologias propriamente nucleares, têm o poder de, através de um erro, escalar conflitos convencionais à nucleares.

É inaceitável que um sistema sem supervisão humana receba a responsabilidade de tomar decisões que afetem vidas civis e comunidades inteiras por conta de falhas referentes a sua operacionalização. Como bem resguarda o Direito Internacional Humanitário através do Princípio de Proporcionalidade, ofensivas que possam gerar sofrimento humano desnecessário são definidos absurdos aos direitos da pessoa humana de maneira que, ao passo que um sistema operacional autônomo desempenha poder perante o desencadeamento de conflitos que, como são os nucleares, ocasionam a morte de vítimas assim como a sequela de sobreviventes e de forma devastadora impactam grandemente estruturas civis e por vezes extensíssimos territórios mais que quaisquer outros tipo de armamento, faz-se imprescindível repensar a atual inserção militar de tais tecnologias ao seu corpo operacional e os impactos desastrosos que esta pode significar ao presente e ao futuro.


Redação: Fernando Fiala


Referências

CHERNAVSKIKH, Vladislav; PALAYER, Jules. Impact of military artificial intelligence on nuclear escalation risk. SIPRI Insights on Peace and Security, n. 6, junho 2025. Estocolmo: Stockholm International Peace Research Institute, 2025. DOI:10.55163/FZIW8544.



 
 
 
bottom of page