Nuances do tempo - créditos: divulgação
01-02-2026 às 11h18
Luís Carlos Silva Eiras *
De Berlim, dos anos 30, a Minneapolis de agora, a interface mudou – do papel perfurado ao silício em nuvem. A lógica permanece familiar: transformar seres humanos em pontos de dados processáveis.
Em 1933, o regime nazista realizou um censo nacional que perguntava não apenas a religião do recenseado, mas a de seus pais e avós. Não era curiosidade estatística. Era arquitetura de classificação.
Em 1939, um novo censo aprofundou essa engenharia social, refinando categorias raciais e consolidando registros civis e religiosos em um sistema capaz de identificar, com precisão burocrática, quem era judeu e em que “grau” de ascendência.
Essa massa de informações não ficava em fichários inertes: era processada pelas máquinas de cartões perfurados da Dehomag, subsidiária alemã da IBM. A perseguição deixava de ser artesanal para se tornar logística.
Quase um século depois, a planilha virou dashboard e o fichário virou data center. Nos Estados Unidos atuais, a aplicação da lei migratória opera cada vez mais por meio de um ecossistema de dados que vai muito além dos registros governamentais tradicionais.
Em vez de censos formais, há rastros digitais cotidianos: contas de luz, contratos de aluguel, históricos de crédito, leituras automáticas de placas de veículos, dados de localização coletados por aplicativos.
Essas informações são agregadas e vendidas por corretores de dados como LexisNexis e Thomson Reuters. Elas são integradas e analisadas por plataformas como as da Palantir Technologies. E toda essa engrenagem repousa sobre infraestruturas de nuvem como a da Amazon Web Services (AWS), que hospeda sistemas críticos do governo norte-americano. A identificação visual é ampliada por sistemas de reconhecimento facial como os da Clearview AI.
A diferença tecnológica é abissal. A diferença lógica, nem tanto.
Se, nos anos 1930, o Estado precisava organizar censos detalhados, cruzar registros físicos e operar máquinas de tabulação para transformar papel em classificação, hoje grande parte do trabalho já está feito antes mesmo que qualquer autoridade intervenha.
A própria vida cotidiana – pagar uma conta, alugar um imóvel, usar um smartphone, circular por ruas monitoradas – gera o banco de dados que depois pode ser consultado. O que antes exigia recenseadores, cartórios e salas cheias de equipamentos mecânicos, agora acontece em silêncio, em racks refrigerados a milhares de quilômetros de distância.
Em ambos os contextos, empresas privadas ocupam um papel central e, frequentemente, se escudam na ideia de neutralidade tecnológica.
Na Alemanha nazista, eram “apenas” máquinas estatísticas. No presente, são “apenas” serviços de armazenamento, busca, análise e integração de dados. Mas quando essas ferramentas são aplicadas para localizar, classificar e isolar grupos específicos, a neutralidade passa a ser uma zona cinzenta moralmente difícil de sustentar.
Há também uma diferença jurídica importante. No Terceiro Reich, o Estado era a própria lei. Hoje, em democracias formais, existem limites constitucionais para buscas, prisões e vigilância. No entanto, a compra de dados no mercado privado cria um atalho: informações que exigiriam mandados judiciais para serem obtidas diretamente do cidadão podem ser adquiridas legalmente de intermediários comerciais. A burocracia da perseguição, que antes dependia exclusivamente da força do Estado, passa a se apoiar na fluidez do mercado de dados.
O resultado é uma forma de vigilância quase invisível. Não é preciso confiscar documentos, quando o perfil de uma pessoa pode ser reconstruído por meio de dezenas de bases interligadas. Não é necessário bater à porta para saber onde alguém mora, se isso já consta em múltiplos registros comerciais atualizados diariamente. A eficiência não está mais na força, mas na correlação.
Os censos alemães de 1933 e 1939 mostraram como dados administrativos, combinados com tecnologia de processamento em massa fornecida pela Dehomag/IBM, puderam se transformar na espinha dorsal de uma política de exclusão sistemática.
O presente mostra como dados comerciais, combinados com algoritmos desenvolvidos por empresas como Palantir, hospedados na nuvem da Amazon e alimentados por bases de dados vendidas por LexisNexis, Thomson Reuters e sistemas biométricos como os da Clearview AI, podem cumprir função estruturalmente semelhante – ainda que em contextos políticos e históricos muito diferentes.
A banalidade do algoritmo está justamente na sua aparência asséptica. Não há vilões caricatos operando as máquinas, apenas analistas olhando dashboards, engenheiros mantendo sistemas no ar, contratos sendo renovados, servidores sendo expandidos.
A tragédia humana se dilui em métricas, logs e consultas. A perseguição deixa de ter a face visível da coerção e passa a ter a interface limpa de um software.
(*) Luís Carlos Silva Eiras é jornalista

