Entre lucro e responsabilidade: Big Techs ampliam atuação na indústria militar
- Larissa Parcianelo
- 1 de set.
- 4 min de leitura
![[Olhar Digital, 2025]](https://static.wixstatic.com/media/d4f605_5ca853d605284cd48c24853ad1157071~mv2.png/v1/fill/w_806,h_457,al_c,q_90,enc_avif,quality_auto/d4f605_5ca853d605284cd48c24853ad1157071~mv2.png)
O avanço da Inteligência Artificial (IA) no setor militar tem transformado a forma como conflitos armados são conduzidos. Governos e forças armadas incorporam sistemas automatizados para coleta, processamento e análise de dados em tempo real, ampliando a velocidade e a escala de operações. Casos recentes vêm mostrando como a IA tem sido integrada em conflitos armados, como no conflito em Gaza, onde sistemas como o Gospel e o Lavender, desenvolvidos por Israel, são utilizados para identificar alvos militares e potenciais integrantes de grupos armados.
Diante deste cenário de avanço da inteligência artificial, o relacionamento entre as big techs e o setor militar passou por mudanças significativas, marcadas pela flexibilização de compromissos éticos e pela ampliação de contratos de defesa. Em fevereiro deste ano, a Alphabet, proprietária do Google, removeu de suas diretrizes de inteligência artificial a cláusula que proibia o uso da tecnologia para o desenvolvimento de armas ou sistemas de vigilância. A alteração foi confirmada pela própria empresa e registrada em reportagem da Bloomberg. Essa decisão contraria o compromisso assumido pela própria empresa em 2018, quando, sob pressão de funcionários que protestavam contra um contrato com o Pentágono - o Projeto Maven - se comprometeu a não participar de projetos militares diretamente ligados a armamentos letais.
Uma publicação no site da empresa detalha os novos princípios assumidos pela companhia:
Está ocorrendo uma competição global pela liderança em IA em um cenário geopolítico cada vez mais complexo. Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos. E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.
Além do Google, outras empresas como Meta, OpenAI e Anthropic também retiraram, ainda em 2024, diretrizes semelhantes e ampliaram sua atuação no setor de defesa, através de parcerias estratégicas com empresas privadas e com o governo dos Estados Unidos, permitindo que agências de inteligência e defesa do país utilizem seus sistemas de IA. Em dezembro do mesmo ano, a OpenAI, empresa criadora do ChatGPT, anunciou parceria com a Anduril, startup de tecnologia e defesa, com o objetivo de aprimorar os sistemas de combate a aeronaves não tripuladas e de outros dispositivos aéreos, bem como na capacidade de detectar, avaliar e responder a ameaças aéreas potencialmente letais em tempo real.
Em maio de 2025, a Meta, também em parceria com a Anduril, divulgou uma colaboração para desenvolver produtos de realidade estendida integrados, voltados a oferecer aos militares maior percepção situacional e controle mais intuitivo de plataformas autônomas em operações. Esta parceria é fruto de mais de uma década de investimentos de ambas as empresas em tecnologias de hardware, software e inteligência artificial avançados. Publicado no site da Anduril, Mark Zuckerberg, diretor executivo da Meta, afirmou que têm “orgulho da parceria com a Anduril para ajudar a levar essas tecnologias aos militares americanos que protegem nossos interesses no país e no exterior.”.

No mês de julho de 2025, Anthropic, Google, OpenAI e xAI receberam individualmente um contrato no valor de US$ 200 milhões para desenvolver programas em parceria com o Departamento de Defesa estadunidense em matéria de inteligência artificial com o objetivo de modernizar a infraestrutura e melhorar a capacidade de resposta a ameaças emergentes. Essa aproximação sinaliza uma mudança estrutural no Vale do Silício, que, após anos de resistência, passa a enxergar o mercado de defesa como estratégico tanto do ponto de vista econômico quanto político.
O uso de inteligência artificial em contextos bélicos envolve riscos relevantes, como a possibilidade de escalada involuntária de conflitos, e também fragmenta a cadeia de responsabilidade. Quando decisões letais passam a depender de modelos de aprendizado de máquina (machine learning), torna-se mais difícil atribuir responsabilidade a programadores, operadores ou comandantes. Essa situação gera um vácuo jurídico incompatível com o Direito Internacional Humanitário (DIH), pois limita a possibilidade de responsabilização por eventuais crimes de guerra, além da vulnerabilidade desses sistemas a ataques cibernéticos ou ao uso indevido por adversários, bem como a potencial redução ou perda de controle humano efetivo em momentos decisivos, o que pode resultar em maiores danos à população civil.
Dessa forma, o crescimento da aplicação militar da inteligência artificial tem mobilizado debates internacionais sobre regulamentação, responsabilidade e segurança. Organizações como a Stop Killer Robots e o Comitê Internacional da Cruz Vermelha defendem que sistemas de armas autônomas devem operar sempre sob controle humano significativo e com regras claras de uso, de forma a garantir que decisões de vida ou morte não sejam delegadas exclusivamente a máquinas. Nesse cenário, o papel das big techs torna-se central, pois, como principais fornecedoras dessa tecnologia, suas decisões sobre princípios éticos, parcerias e limites de uso terão impacto direto sobre o futuro da segurança internacional. Para tanto, urge-se uma revisão das diretrizes que regem tais empresas que priorize a segurança humana e se comprometam com a garantia dos Direitos Humanos e o alinhamento aos princípios estabelecidos pelo Direito Internacional Humanitário. É descautelosa a normalização de um avanço técnico sem precedentes ou limitações éticas. A construção de um futuro seguro exige definir que, mesmo quando desenvolvida para operar com autonomia, a tecnologia continua sendo um fruto da inteligência humana, criada para servir à preservação da vida, e nunca à sua destruição.
Referências
ANDURIL. Anduril Partners with OpenAI to Advance U.S. Artificial Intelligence Leadership and Protect U.S. and Allied Forces. Anduril, 12 dez. 2024. Disponível em: https://www.anduril.com/article/anduril-partners-with-openai-to-advance-u-s-artificial-intelligence-leadership-and-protect-u-s/
ANDURIL. Anduril and Meta Team Up to Transform XR for the American Military. Anduril, 29 mai. 2025. Disponível em: https://www.anduril.com/article/anduril-and-meta-team-up-to-transform-xr-for-the-american-military/
BLOOMBERG. Google removes language on weapons fron public ai principles. Blommberg, 4 fev. 2025. Disponível em: https://www.bloomberg.com/news/articles/2025-02-04/google-removes-language-on-weapons-from-public-ai-principles
OLSON, Parmy. Google has made a dangerous u-turn on military ai. Bloomberg, 6 fev. 2025. Disponível em: https://www.bloomberg.com/opinion/articles/2025-02-07/google-has-made-a-dangerous-u-turn-on-military-ai
PASCUAL, Manuel G. Las grandes tecnológicas se lanzan al negocio de la guerra: así se militariza Silicon Valley. El País, 21 jul. 2025. Disponível em: https://elpais.com/tecnologia/2025-07-21/las-grandes-tecnologicas-se-lanzan-al-negocio-de-la-guerra-asi-se-militariza-silicon-valley
Redação: Larissa Parcianelo










Comentários