Direito Internacional Humanitário e Inteligência Artificial: os desafios da distinção de alvos militares em conflitos armados contemporâneos
- Fernando Fiala
- 1 de out. de 2025
- 5 min de leitura

Construído a partir de diferentes contribuições do Direito Internacional Público e Consuetudinário, o Direito Internacional Humanitário (DIH) é definido por 4 pilares de sustentação jurídica no intento de trazer humanidade e limitações às práticas estabelecidas durante conflitos armados: os princípios da Distinção, da Humanidade, da Proporcionalidade e da Necessidade Militar. Dentre estes, o primeiro se destaca a ponto de atuar como um instrumento a fim de assegurar a devida distinção entre combatentes e civis na guerra, assim como diferenciar alvos militares de civis e suas estruturas. Neste contexto, confrontado pela insurgência de novas e a cada passo mais potentes tecnologias militares, o DIH vem lidando com um pertinente e inadiável questionamento: como garantir a distinção de civis e combatentes num cenário de integração dessas tecnologias à Inteligência Artificial (IA)?
Na busca por compreender a gravidade dessa pergunta, recorre-se à necessária identificação dos desafios que esse avanço técnico traz ao definido pelo DIH no constante ao Princípio de Distinção. Sendo a diferenciação entre alvos militares e civis o fator principal da problemática posta, é entendível que a precisão e a confiabilidade dos armamentos utilizados em campo de batalha são características imprescindíveis no asseguramento de vidas civis. Dessa forma, a primeira falha presente na implementação de IA a sistemas militares é justamente o despreparo dessas tecnologias para situações tão complexas, afinal, tais armamentos contariam com erros sistêmicos como a falta de transparência (costumeira em tecnologias de machine learning), as ditas “ilusões de IA”, tomada de decisões equivocadas e, sendo o foco desta matéria, a possibilidade de leituras enviesadas capazes de influenciar ou, no caso do surgimento de armas autônomas nesse contexto, aferir ataques sem a supervisão humana.
Por mais absurdo que pareça, você já imaginou qual seria o risco de uma análise errônea de sistemas militares integrados à IA utilizados para dar suporte decisório à sistemas de Armas Nucleares? É isso que a matéria Inteligência Artificial e Armas Nucleares: uma recente (e infeliz) relação nos conta sobre.
Ditas como enviesadas ou, do inglês, biased, tais leituras são parte do quadro de riscos oferecido pela IA quando integrada a sistemas militares desenvolvidos para decidir e definir ataques em campos de batalha, de forma que, guiadas por predefinições equivocadas ou estereotipadas, ações militares podem ser tomadas tendo como base um sistema sem controle humano. Sendo assim, distingue-se no escopo de alcance dessa problemática os alvos materiais dos alvos humanos no relativo à forma como podem ser aferidas as análises tendenciosas geradas a partir dessa incorporação.
Treinadas para identificar combatentes, as IAs com alvos humanos utilizam dos chamados proxies para filtrar os perfis humanos encaixados no concebido como ameaça ou não nos conflitos. Entretanto, tais filtros partem de valores estabelecidos a partir de gênero, idade, etnia e padrões de comportamento, critérios utilizados para criar um “perfil de ataque” infalível, mas que, quando relacionados à IA, mostram-se insuficientes e motores da reprodução de preconceitos e do desrespeito a vidas civis em conflitos armados. Nesse sentido, definições de uma “imagem inimiga” incluiriam, por exemplo, características como fardas militares, grupos caminhando com armas, com cartões telefônicos pré-pagos ou até indivíduos com movimentação fora do comum, que marcariam quais são os alvos a estarem na mira de armamentos dotados dessa tecnologia.
Por outro lado, tais instrumentos, quando postos na realidade de áreas de beligerância, que, como é costumeiro na contemporaneidade, mesclam-se com áreas de convivência civil, podem vitimar inocentes por falhas sistêmicas de identificação. Por exemplo, grupos em movimentação para a caça, durante atividades cerimoniais ou até religiosas têm por característica o acompanhamento de armas, da mesma maneira que em algumas comunidades é comum a utilização civil de cartões telefônicos pré-pagos. Outro ponto é como tais tecnologias, miradas para “comportamentos fora do padrão”, podem pôr em risco a vida de pessoas neurodivergentes, com deficiências psicossociais, intelectuais ou sensoriais, ao interpretar gritos ou movimentações incomuns como hostis. Nesse sentido, não se pode esquecer também da condição de ex-combatentes, muitas vezes feridos que permanecem com fardas militares e podem ser lidos como alvo mesmo fora do combate, além de rendidos que, aos sistemas terem reconhecimento de rendição por reações como levantar ambos os braços, podem adotar formas de rendição cultural ou regionalmente específicas, que acabam sendo ignoradas, gerando ataques indiscriminados, configurando assim uma também infração ao DIH.
Quanto aos alvos materiais, o risco da utilização de IA no mapeamento de estruturas a serem alvos de ataque também representa urgência na tratativa dessas tecnologias. Treinadas para analisar a partir de dados específicos o território e identificar construções com símbolos de atividade militar inimiga filtrados pelos já citados proxies, tais sistemas falham a medida que não são capazes de compreender a complexidade cultural e territorial que cada objeto identificado possui. Esse sistema, por exemplo, ao ser treinado para identificar X características arquitetônicas como parte de uma base inimiga, pode acabar por atacar erroneamente estruturas civis que contêm semelhanças a símbolos militares em sua construção e vitimizar civis. Outro exemplo desse uso seria o caso de práticas religiosas no entorno de um edifício, sinal que poderia ser interpretado como uma atividade inimiga, como uma base militar, por exemplo.
Para além disso, destaca-se também como tal aplicação pode ter resultados diferentes quando integrada a Sistemas de Armas Autônomas habilitados por IA (AI-AWS) e Sistemas de Suporte à Decisão Habilitados por IA (AI-DSS). Para armas autônomas, o impacto à sociedade civil seria direto ao passo que armamentos sem supervisão humana poderiam realizar acepções enviesadas de indivíduos e atacar civis e suas estruturas a partir de comandos sistêmicos. Quanto aos AI-DSS, o risco reside na influência que tal tecnologia tem sobre o processo de tomada de decisão em conflitos armados e como leituras enviesadas podem resultar em análises errôneas que culminem na vitimação de inocentes e destruição de suas estruturas.
Sendo assim, a resposta à pergunta inicial é não. Não é possível garantir a distinção de civis e combatentes num cenário de integração de tecnologias militares à Inteligência Artificial. Seja este AI-AWS ou AI-DSS, o envolvimento de sistemas dotados dessa tecnologia na efetiva tomada de decisão ou no auxílio desta é ultrajante ao salvaguardado pelo Direito Internacional Humanitário no que concerne ao Princípio da Distinção e sua missão na proteção de civis e suas estruturas, assim como de ex-combatentes rendidos em conflitos armados. Se desde a Convenção de Genebra de 1949 a preocupação com a não discriminação de indivíduos por raça, religião e etnia (Artigo 3) esteve presente na condução de uma jurisdição pelo respeito a dignidade humana na guerra, a integração de sistemas sem a capacidade de lidar com tais variáveis de forma humanizada e de compreender as complexidades que cada grupo humano possui, representa um retrocesso no construído por décadas pela correta distinção de alvos civis de militares e uma urgência à toda a sociedade civil, ameaçada por tecnologias com o poder de ceifar vidas e devastar comunidades sem transparência ou humanidade em seus processos.
E, neste sentido, observa-se como não somente o Princípio da Distinção é atravessado por tal tecnologia, mas matrizes como a da Proporcionalidade também têm suas garantias fragilizadas ao ponto em que vantagens oferecidas por tais tecnologias são postas como tangíveis perante os riscos oferecidos a vidas civis e sua segurança. Portanto, fica claro como tais tecnologias e seus vieses minam o assegurado pelo Direito Internacional Humanitário, de maneira a ser urgente a proibição de tal utilização em conflitos armados, debruçando-se sobre a mais simples, e ao mesmo tempo tão complexa, afirmação: máquinas não devem ter o poder de apertar o gatilho.
Referência
BRUUN, Laura; BO, Marta. Bias in Military Artificial Intelligence and Compliance with International Humanitarian Law. Estocolmo: Stockholm International Peace Research Institute, agosto 2025. DOI:10.55163/NLWV5347.
Redação: Fernando Fiala










Comentários