Créditos: Divulgação
04-03-2026 às 14h40
Carlos Magno de Moura Soares*
Em fevereiro de 2026, o ataque coordenado de Estados Unidos e Israel ao Irã revelou algo mais profundo que um movimento militar: escancarou a centralidade da inteligência artificial na engrenagem da guerra contemporânea. Sistemas como o Mosaic, da Palantir Technologies, teriam cruzado imagens, comunicações e dados energéticos para produzir projeções estratégicas. O modelo Claude, da Anthropic, teria auxiliado na análise de relatórios e simulações de cenários de guerra.
Nesse ambiente, tecnologias de informação e comunicação — incluindo vastas redes de satélites privados como as desenvolvidas por Elon Musk — tornaram-se infraestrutura crítica. Sistemas de antenas e constelações orbitais aumentam a velocidade, a precisão e a capacidade de coordenação militar em tempo real. Em conflitos modernos, informação é poder tático. A capacidade de localizar alvos com rapidez cirúrgica depende cada vez mais de redes digitais globais.
Essa transformação lembra outro momento decisivo da história. Durante a Segunda Guerra Mundial, Alan Turing liderou, em Bletchley Park, o esforço para decifrar a máquina Enigma. O filme The Imitation Game, disponível gratuitamente no Youtube, retrata como cálculos matemáticos e máquinas eletromecânicas anteciparam movimentos nazistas e encurtaram a guerra. A tecnologia não apertava o gatilho, mas moldava decisões humanas.
Hoje, a escala é incomparavelmente maior. Algoritmos processam volumes gigantescos de dados e oferecem projeções probabilísticas que podem fundamentar decisões de ataque. A guerra tecnológica não substitui a arma nuclear em poder destrutivo imediato, mas pode se equiparar a ela em impacto estratégico: molda conflitos antes mesmo do primeiro disparo. Um erro algorítmico, um viés estatístico ou uma interpretação precipitada podem desencadear consequências globais.
O embate entre a Anthropic e o governo norte-americano expôs a disputa ética em torno desse poder. Conforme relata a jornalista especializada Aline Sordili, em seu artigo publicado na Folha de são Paulo do dia 02/03/2026, a recusa da empresa em liberar o uso irrestrito de seus modelos para vigilância em massa ou armas totalmente autônomas mostrou que a batalha não é apenas geopolítica, mas moral. Quem controla a inteligência artificial controla a narrativa, a previsão e, potencialmente, o destino de nações.
Assim como Turing antecipou o fim de uma guerra ao dominar o código inimigo, a atual geração enfrenta o desafio de impedir o início de uma guerra algorítmica sem limites. Se a corrida nuclear do século XX produziu tratados e acordos internacionais, a corrida pela supremacia da IA ainda carece de freios globais claros. A variável que decide o fim — ou o colapso — pode ser zero: zero supervisão, zero transparência, zero responsabilidade.
O Teste de Turing perguntava se conseguiríamos distinguir a resposta de uma máquina da de um humano. Hoje a pergunta é outra: conseguiremos distinguir decisões humanas das decisões moldadas por máquinas? Precisamos de novos Turing — cientistas, juristas, líderes e cidadãos — capazes de estabelecer limites éticos antes que a lógica fria do cálculo substitua o juízo moral.
A história ensina que tecnologia sem responsabilidade amplia o poder dos homens, mas não necessariamente sua sabedoria. Entre códigos secretos e algoritmos de guerra, a escolha continua sendo humana. O futuro não será decidido apenas por máquinas, mas por quem define como elas podem — ou não — ser usadas.*
*Carlos Magno de Moura Soares é Mestre em Direito pela UFMG, área de Direito e Justiça – Estado, Razão e História – com ênfase em Estudos Europeus, Direito da Integração.

