Empresas de tecnologia americanas estão investindo bilhões em inteligência artificial. Isso cria um problema de energia


Mais e melhor inteligência artificial (IA) – este é o objetivo perseguido pelas principais empresas de tecnologia nos EUA. Nas últimas semanas, Open AI, Amazon e Meta anunciaram bilhões em investimentos em IA. Até Donald Trump falou sobre o assunto em seu segundo dia no cargo. Uma grande parte desse dinheiro irá para a infraestrutura que forma a espinha dorsal da IA: os data centers.
O NZZ.ch requer JavaScript para funções importantes. Seu navegador ou bloqueador de anúncios está impedindo isso no momento.
Por favor, ajuste as configurações.
100 bilhões de dólares serão investidos no projeto "Stargate" pela Open AI e pela Microsoft, a Alphabet planeja investir 75 bilhões no desenvolvimento de IA este ano, a Amazon está investindo 86 bilhões em infraestrutura, a Meta 65 bilhões. Novos data centers também serão construídos na Europa, especialmente na França. O presidente francês Emmanuel Macron anuncia investimentos de 109 bilhões de euros em uma cúpula de IA em Paris. A demanda por energia aumentará com a expansão da infraestrutura de IA, mas o quanto ainda é controverso.
Há muito mais data centers nos EUA do que na Europa. Lá, chips altamente especializados treinam e operam modelos de IA 24 horas por dia. Esses data centers consomem muita eletricidade. No estado da Virgínia, os data centers já respondem por um quarto da demanda total de eletricidade. Mas de onde essa energia deveria vir da forma mais ecologicamente correta e confiável possível?
Inteligência artificial aumenta demanda energéticaA IA consome eletricidade diversas vezes: grandes quantidades quando o modelo de IA está sendo treinado. E toda vez que um usuário faz uma solicitação ao modelo. Dependendo se texto, imagens ou vídeos serão criados, cada solicitação a um chatbot como o Chat-GPT consome de dez a trinta vezes mais energia do que uma pesquisa online usando um mecanismo de busca.
Os chips de computador necessários para treinar e usar IA também consomem mais energia do que os chips tradicionais necessários para aplicativos em nuvem, por exemplo. Para treinar um modelo de IA ou processar uma consulta, um chip deve, antes de tudo, calcular, não apenas armazenar informações. Isso também gera calor adicional. Portanto, os data centers devem ser especialmente resfriados. Especialmente em regiões quentes como Texas ou Arizona, isso requer muita eletricidade adicional.
Isso também se reflete nas projeções para o consumo futuro de energia dos data centers. Um estudo da consultoria McKinsey estima que chegará a 80 gigawatts nos EUA até 2030. No ano passado, esse número foi de 25 gigawatts. O Boston Consulting Group (BCG) também espera que a demanda de energia triplique. O fato de a IA estar se tornando cada vez mais eficiente é levado em consideração no cálculo, informou a BCG. Os data centers não estão sendo construídos apenas nos EUA; países e empresas ao redor do mundo estão investindo em sua expansão. A empresa de consultoria Bain escreve que o consumo de energia em data centers em todo o mundo aumentou 72% de 2019 a 2023 e deve dobrar novamente até 2027.
Hoje, os data centers são responsáveis por um por cento do consumo global de energia. Se as estimativas estiverem corretas, os data centers serão responsáveis por 2,6% da demanda global de energia até 2027. Essa ainda pode ser uma proporção pequena, mas o rápido aumento destaca a necessidade de fontes de energia confiáveis.
Basicamente, os chips se tornaram cada vez mais eficientes nos últimos anos. Mas, especialmente com chips de IA, a tendência é de maior consumo de energia. O mais recente chip Blackwell da Nvidia exigirá 15 quilowatts de energia. Se você encher um data center inteiro com esses chips, ele consumirá facilmente tanta energia quanto uma cidade de médio porte. Babak Falsafi é professor na EPFL e estuda a eficiência de data centers. Ele diz: “Com chips desenvolvidos especificamente para IA, o consumo de energia dobra a cada nova geração.”
Há um ano, Sam Altman, CEO da Open AI, alertou que uma escassez de energia colocaria em risco o desenvolvimento da IA.
Melhores chips podem tornar a IA mais eficienteO sucesso da IA da startup chinesa Deepseek levantou dúvidas sobre a suposição de que a IA realmente precisa de cada vez mais poder computacional. De acordo com a empresa, a Deepseek treinou seu chatbot com menos chips e menos potentes e ainda obteve desempenho semelhante ao modelo top da Open AI. Em um artigo de pesquisa, a Deepseek explica as técnicas usadas para obter uma IA mais eficiente. Outros desenvolvedores de IA podem adotar essas inovações para seus próprios modelos.
Se for possível economizar energia computacional, os data centers também consomem menos eletricidade. Babak Falsafi também diz: “Melhorias nos algoritmos podem torná-los mais eficientes e, assim, economizar energia.”
Na verdade, algoritmos que treinam IA de forma mais eficiente não necessariamente reduzem a energia necessária para aplicações de IA em geral. Eles tornam a IA mais barata e, portanto, mais atraente para os usuários. À medida que mais pessoas e empresas usam IA, o consumo de eletricidade aumentará novamente. Os custos e as necessidades de energia mudam apenas do treinamento para a aplicação.
As empresas de tecnologia estão investindo em novas tecnologias energéticasÉ por isso que a Microsoft está contando com a energia nuclear e financiando a reinicialização da usina nuclear de Three Mile Island, que foi desativada em 2019. A usina não era mais lucrativa. A Amazon e o Google anunciaram grandes investimentos nos chamados “Pequenos Reatores Modulares” no outono. Essas pequenas usinas nucleares modulares geram até 300 megawatts de energia e podem fornecer eletricidade diretamente para data centers. Nenhuma dessas mini usinas nucleares está na rede elétrica dos EUA ou sequer perto de estar operacional.
O próprio Sam Altman conta com startups como a Oklo, que desenvolve pequenos reatores nucleares que funcionam com resíduos nucleares como combustível. Ele também investe na Helion, uma empresa especializada em fusão nuclear. Altman está investindo centenas de milhões de dólares em apostas em energia na esperança de um avanço.
Mas esse avanço ainda está muito longe. Pode levar anos ou até décadas até que novas formas de produção de energia forneçam eletricidade suficiente. Até lá, os data centers geralmente serão alimentados por energia de combustíveis fósseis. Porque o hype da IA está consumindo eletricidade hoje.
nzz.ch