Google revela algoritmo que pode reduzir crise global de memória RAM em IA

Imagem: Reprodução Cybernews
A corrida por inteligência artificial mais poderosa esbarrou em um limite físico: a memória. Modelos como ChatGPT e Gemini exigem quantidades imensas de RAM para funcionar, pressionando a cadeia de fornecimento e elevando preços de chips a patamares recordes. Agora, uma pesquisa da Google chamada TurboQuant promete aliviar esse gargalo ao reduzir em até seis vezes a memória necessária para rodar um modelo de IA.
Revelado antes da conferência ICLR 2026, o TurboQuant é um algoritmo de compressão especializado para Grandes Modelos de Linguagem (LLMs). Segundo a Google, o método permite que uma IA “lembre” seus cálculos passados usando apenas uma fração do espaço de hardware físico que precisava antes.
O fim do gargalo de RAM? Como funciona o TurboQuant
A chave do TurboQuant está na eficiência. No mundo da IA, os modelos usam um “cache Chave-Valor” para armazenar contexto, evitando reprocessar uma conversa inteira a cada nova pergunta. Esse cache é notório por consumir RAM de forma intensiva.
Conforme noticiado pelo TechCrunch, o TurboQuant emprega técnicas avançadas de “quantização”. É uma forma de simplificar os dados que a IA usa sem perder precisão, como arrumar uma mala com seis vezes mais roupas sem que ela fique mais pesada. A Google afirma que esses métodos operam perto dos “limites teóricos inferiores”, significando que são quase tão eficientes quanto a física permite.
Um choque no mercado de ações
O anúncio enviou ondas de choque pela economia global. Com a notícia do avanço, as ações de grandes fabricantes de chips como Samsung, SK Hynix e Micron caíram significativamente. Investidores temiam que, se os modelos de IA de repente precisassem de 80% menos memória, a demanda interminável por chips de RAM caros poderia finalmente desacelerar.
No entanto, muitos analistas acreditam que a “crise da RAM” não acabou. Enquanto o TurboQuant torna os modelos atuais mais eficientes, ele também abre a porta para projetos de IA ainda mais ambiciosos. Como especialistas da SemiAnalysis apontaram à CNBC, quando se remove um gargalo, os desenvolvedores geralmente respondem construindo sistemas ainda mais poderosos que, por fim, ocupam aquele espaço extra de qualquer maneira.
Quando veremos os benefícios?
Embora o TurboQuant seja um sucesso em laboratório, não estará pronto para chegar ao seu PC doméstico amanhã. A implantação em larga escala leva tempo. Além disso, muitos pedidos de memória para o próximo ano já estão garantidos por grandes corporações.
Ainda assim, este avanço fornece uma luz muito necessária no fim do túnel. Se a IA pode se tornar seis vezes mais eficiente apenas por software, podemos ver a escassez global de RAM diminuir bem antes do final da década.
Fonte: Android Headlines


