A corrida global por energia e água, acelerada pela explosão da inteligência artificial, empurra o Brasil para o centro de uma disputa bilionária pela nova infraestrutura crítica do planeta: os data centers.
Diante de crescentes restrições energéticas nos Estados Unidos, de um cenário já saturado na Europa e de sistemas operando próximo do limite em partes da Ásia, o Brasil passou a ser visto como destino estratégico por gigantes digitais e fundos de investimentos.
Com uma matriz energética quase 88% renovável –e promessas de uma IA sustentável–, trânsito acelerado para a conexão elétrica, disponibilidade de solo para instalar os grandes centros e uma nova legislação favorável ao setor, o país passou a figurar no radar das grandes empresas de tecnologia como uma alternativa viável aos novos investimentos.
Mas, por trás dessa euforia, cresce uma dúvida que atravessa governo, mercado e especialistas: o país estaria prestes a se tornar uma potência digital ou apenas um “porão barato” para as big techs?
Os números ajudam a dimensionar essa corrida. Em setembro de 2025, o governo federal publicou a Medida Provisória nº 1.318 criando o ReData, regime tributário especial que desonera a importação de equipamentos de tecnologia da informação para incentivar a instalação de data centers no Brasil. Embora tenha força de lei e já esteja em vigor, o ReData ainda precisa ser regulamentado para que os benefícios fiscais se tornem realidade.
No entanto, em apenas dois meses desde a publicação do ReData, houve um salto de de 19,8 GW para 26,2 GW na demanda projetada pelos pedidos de estudos de conexão à rede elétrica básica. Essas solicitações foram feita ao Operador Nacional do Sistema Elétrico (ONS) e à Empresa de Pesquisa Energética (EPE) por parte de empresas interessadas em instalar os centros e movimentar grandes cargas elétricas no país.
Para efeitos de comparação: atualmente, o Brasil opera de 150 a 200 data centers, embora nenhum ainda voltado especificamente para IA. A maior parte deles fica concentrada na região Sudeste, especialmente em São Paulo, seguido por polos no Sul e em Fortaleza, que desponta como hub internacional de conectividade. O consumo total dessas estruturas hoje gira em torno de 800 megawatts. O volume de 26 GW, portanto, é mais de 30 vezes a capacidade atual em operação dos data centes no país, ou o equivalente a mais de duas usinas de Belo Monte.
Mas o desafio futuro nessa demanda estimada de 26 GW não está apenas em gerar esse volume de energia. Está também em garantir transmissão, subestações e confiabilidade para absorver, em pouco tempo, cargas altamente concentradas sem criar gargalos no sistema.
O avanço da IA generativa colocou recentemente os sistemas de resfriamento dos data centers no centro de um debate global por revelar um consumo inédito de água.
Um estudo do Environmental and Energy Study Institute estima que um data center de porte médio possa consumir até 110 milhões de galões de água por ano apenas para resfriamento. Complexos de grande escala nos Estados Unidos, especialmente aqueles dedicados a computação em nuvem e inteligência artificial, chegam a 1,8 bilhão de litros por ano.
A S&P Global Sustainable, dedicada à análise de riscos ambientais, sociais e climáticos, alerta que muitos desses equipamentos já operam em áreas de estresse hídrico, condição que tende a piorar, pois a evolução tecnológica tende a adicionar mais pressão. Estudos publicados no arXiv (plataforma acadêmica aberta em que pesquisadores publicam trabalhos científicos antes da revisão formal por periódicos) mostram que o treinamento de modelos de IA não só consome milhões de litros de água como também gera centenas de toneladas de CO₂.
O Brasil, entretanto, tem mostrado uma proporção incomum de consumo de energia e água em data centers no cenário internacional, fazendo do país um ambiente raro e extremamente vantajoso para a instalação de novos complexos.
Segundo um estudo da associação de empresas de TI no Brasil (a Brasscom), essas instalações respondem por 1,7% do consumo de energia elétrica do país e apenas 0,003% do uso consuntivo de água, que é a parcela da água retirada de rios, reservatórios ou aquíferos que não retorna ao ambiente de forma imediata, seja porque evapora, é incorporada a processos ou sofre perda irreversível.
No caso dos data centers brasileiros, o dado indica que, apesar do consumo energético relevante, a quantidade de água efetivamente “consumida” e não devolvida ao sistema é extremamente baixa em comparação com outros setores produtivos.
Parte dessa vantagem se explica pelo perfil técnico do setor: cerca de 80% dos data centers brasileiros operam em circuito fechado, sistema em que a água é inserida uma única vez e passa a ser recirculada, com reposições mínimas ao longo do ano. Isso porque, por aqui, o clima, a disponibilidade de energia renovável e os custos relativos favorecem esse modelo. Em muitos países, especialmente nos EUA, ainda são comuns sistemas de resfriamento evaporativo ou de ciclo aberto, que consomem grandes volumes de água, por serem mais baratos na implantação e historicamente aceitáveis em regiões com água abundante.
A política federal criada pelo ReData traz exigências concretas de sustentabilidade para quem deseja usufruir de seus incentivos. Para se habilitar, os data centers deverão garantir 100% da energia proveniente de fontes limpas ou renováveis, seja por meio de compra ou autoprodução.
Além disso, será necessário comprovar eficiência hídrica, seguindo padrão regulatório que prevê uso de sistemas de recirculação, limites de consumo por unidade de processamento e comprovação de que a operação não pressiona mananciais locais.
Essas exigências fazem do Brasil um dos poucos mercados que impõem, desde o início, restrições ambientais ao grande consumo de água e energia dos complexos digitais.
O salto recente de pedidos formais de conexão ao sistema elétrico e da entrada de grandes projetos não aconteceu por acaso. Ele foi arquitetado dentro do governo federal, que passou a tratar os data centers como infraestrutura estratégica.
Assessor especial do Ministério da Fazenda e idealizador do ReData, Igor Marchesini Ferreira descreve um cenário paradoxal: embora dono de energia limpa e abundante, o país não processa sequer “um dólar” de dados. Ao contrário: nos estudos do governo, constava que o país “terceirizava” cerca de 60% do processamento brasileiro para o estado de Virgínia, nos Estados Unidos. O principal obstáculo era tributário: importar servidores, GPUs e racks tornava-se de 25% a 30% mais caro no Brasil do que nos EUA. O resultado, diz Ferreira, era o pior dos mundos: nem se cobrava imposto, nem se recebia investimento.
A reforma tributária daria fim a boa parte das distorções que encareciam a operação de data centers no Brasil, mas seus efeitos só começam em 2027. O ReData foi criado justamente para cobrir esse intervalo: antecipar a desoneração de equipamentos e reduzir incertezas regulatórias. Além disso, a medida condicionaria os incentivos ao cumprimento de metas ambientais, algo que, segundo Ferreira, surpreendeu pela adesão imediata do setor. “Para minha surpresa, a indústria não só topou como incentivou”, diz.
Ele sustenta que o Brasil tem condições de ofertar algo raro no mapa global: processamento de IA com pegada climática drasticamente menor. E cita um exemplo que circula internamente nos estudos da Fazenda: ao transferir o processamento do ChatGPT da Virgínia para São Paulo, a pegada de carbono por pergunta pode cair cerca de 75%. Nas contas usadas pelo governo, seria como realizar quatro buscas no Brasil para cada uma nos EUA com impacto climático equivalente.
Para Kenneth Corrêa, especialista da Fundação Getulio Vargas, o Brasil dificilmente sediará big techs, mas pode, sim, se tornar polo de infraestrutura, desde que consiga entregar energia estável, preço competitivo e previsibilidade regulatória. Ele rejeita a ideia de bolha, mas alerta para um risco clássico: políticas que funcionam na teoria, mas travam na execução, como nos entraves com licenciamento ambiental, atrasos em obras de transmissão, além de incertezas regulatórias locais. “Ninguém chega, pluga na tomada e está resolvido”, explica.
Às dimensões industrial e ambiental soma-se outra camada estratégica: especialista em direito digital, o advogado Matheus Puppe acrescenta uma preocupação de soberania. Armazenar e processar dados no exterior sujeita empresas e governos brasileiros à legislação estrangeira. “Quem controla o processamento controla a informação.” Assim, para ele, a corrida por data centers no Brasil também deve ser lida como uma disputa por autonomia tecnológica: hospedar dados aqui é reduzir vulnerabilidades futuras, como dependência jurídica, tecnológica, estratégica e, sobretudo, geopolítica, em relação a infraestruturas localizadas no exterior.
O jurista e pesquisador Ronaldo Lemos vê valor estratégico na expansão dos data centers, mas adverte para um erro clássico da política industrial brasileira: crescer sem direção.
“Se o Brasil só oferecer energia, água e terreno, vira periferia digital”, alerta.
Para ele, data centers precisam ser tratados como plataformas de política industrial, com metas claras de Pesquisa e Desenvolvimento, formação de talentos, uso de energias limpas e contrapartidas sociais.
Lemos chama atenção para outro ponto crítico: localização. O país tem matriz renovável, mas também tem regiões de estresse hídrico severo. E há riscos de repetir o modelo americano, no qual data centers mal instalados aumentam tarifas, pressionam reservatórios e geram conflito com comunidades locais.
“O pior que pode acontecer para o Brasil é instalar data centers nos lugares errados.”
Ele cita como exemplo de sucesso a iniciativa de Goiás, que vinculou data centers ao uso de biometano, como tentativa de integrar política energética, desenvolvimento regional e infraestrutura digital. Para ele, a diversidade territorial brasileira, com zonas de eólica, solar, biometano e baixa pressão hídrica, pode ser uma vantagem, desde que coordenada.
A pressão sobre o sistema elétrico também já aparece nos dados oficiais. Segundo o Ministério de Minas e Energia, embora não sejam compromissos já firmados, os estudos do potencial de 26 GW foram solicitados por 78 projetos de data centers, que obrigaram a EPE a revisar, em ritmo acelerado, os reforços de transmissão, assim como o Plano Decenal de Expansão de Energia (PDE), que é o instrumento que projeta, para um horizonte de dez anos, a necessidade de geração, transmissão e reforços na rede de transmissão do país.
O risco de um planejamento mal feito é de haver uma série de gargalos estruturais caso várias dessas cargas se materializem ao mesmo tempo.
Essa “pressão de chegada” também aparece na percepção do setor privado. Para Joe Bergamaschine, da 1Telecom & Atlantic Data Centers, a euforia com energia renovável disponível pode esconder dificuldades concretas de implantação: faltam fibra ótica, redundância e mercado em muitos dos locais hoje cotejados por governos estaduais.
“A energia pode estar lá, mas isso não significa que haja conectividade ou transmissão para sustentar um novo polo. Os números não casam.”
Ele lembra que grandes clientes só se instalam onde há tráfego robusto, latência baixa e abastecimento elétrico estável, condições ainda restritas ao eixo Sul-Sudeste e, em parte, a Fortaleza.
Marcos Siqueira, vice-presidente da Ascenty, empresa que opera 25 data centers na América Latina (20 só no Brasil), concorda que a expansão será gradual, mas vê o Brasil como o líder natural na região. O executivo destaca quatro vantagens que raramente aparecem combinadas em um único país: matriz elétrica renovável, baixo consumo hídrico graças ao predomínio dos sistemas de circuito fechado, conectividade internacional robusta e mão de obra qualificada. “Vou atender a América Latina. Qual o primeiro lugar que devo estar? O Brasil”, afirma.
Ainda assim, reconhece que a descentralização para Norte e Nordeste exigirá investimentos maciços em telecomunicações, sobretudo em sistemas capazes de operar em altas velocidades de transmissão, ou seja, em centenas de gigabits por segundo: “Só erguer prédio e garantir energia não resolve”.
Especialista em políticas públicas e economia da infraestrutura, Samuel Barros, que também é reitor do Ibmec, lembra que a corrida global pelos data centers de inteligência artificial pode movimentar até US$ 700 bilhões até 2030, mas alerta para a escalada energética da nova geração de hardware. Um único complexo de IA pode exigir 2 a 3 gigawatts de potência, patamar que supera a demanda máxima de capitais como Fortaleza, Recife ou Manaus, e se aproxima de cidades como Porto Alegre e Brasília. Para Barros, o modelo atual é insustentável: “Se continuarmos criando máquinas que consomem a mesma energia para processar o que processam hoje, tem tudo para dar errado”.
Nada simboliza melhor essa nova fase do que o megaprojeto da Omnia/Pátria no Porto de Pecém, no Ceará. O empreendimento de mais de R$ 50 bilhões, com capacidade inicial de 200 MW, tem a ByteDance, dona do TikTok, como cliente-âncora.
O CEO, Rodrigo Abreu, afirma que o data center consumirá menos de 30 m³ de água por dia, volume equivalente ao gasto diário de cerca de 72 residências médias do Ceará. Apenas 10% desse total será destinado à refrigeração; os outros 90% correspondem ao uso humano e predial. No campo energético, o complexo será abastecido por parques eólicos dedicados, construídos exclusivamente para o empreendimento. Segundo Abreu, as usinas terão capacidade superior ao consumo projetado, evitando qualquer competição com a rede pública. A ZPE do Pecém deve gerar cerca de 3.800 empregos diretos na fase de construção; a operação, cerca de 400.
No Brasil, o crescimento recente dos data centers não é financiado pelas big techs, e, sim, por fundos de investimento. Como explica Luís Tossi, vice-presidente da ABDC, operadores como Digital Realty, Brookfield e Pátria transformaram essas instalações em um tipo de “real estate tecnológico”, assumindo o custo bilionário das obras enquanto empresas como Amazon, Meta e Oracle apenas alugam capacidade.
O modelo permite que as gigantes mantenham os investimentos fora de seus balanços e preservem liquidez num momento em que a infraestrutura de IA exige gastos sem precedentes. Isso é comum em mercados fora da “terra natal” das big techs, como é o Brasil. Mas, no caso das empresas americanas, elas assumem riscos para construir data centers próprios nos EUA. A Meta, por exemplo, fez recentemente a maior emissão de dívidas da história do planeta para construir seu data center –que é o maior do mundo também.
Tossi destaca que essa engenharia financeira se tornou indispensável no setor. Um data center de 100 MW custa cerca de US$ 1 bilhão só na obra civil, enquanto a equipagem custa de cinco a sete vezes mais que este valor: “Com a IA, o custo em hardware ficou muito massivo”.
Para ele, é isso que empurra as big techs para modelos híbridos, combinando infraestrutura própria e colocation, e para estruturas sofisticadas de financiamento, capazes de distribuir risco e evitar endividamento direto. “O investimento elevado leva a dívida, e elas não querem dívida”, resume.
Fonte: AMADO MUND_
Por: Gustavo Silva


