Buscar no TecStudio

A busca abre em nova aba e retorna resultados do TecStudio.

Menu

google

Google revela algoritmo que pode reduzir crise global de memória RAM em IA

Felipe Victor3 min de leituraVersão completa
Ver mais

A corrida por inteligência artificial mais poderosa esbarrou em um limite físico: a memória. Modelos como ChatGPT e Gemini exigem quantidades imensas de RAM para funcionar, pressionando a cadeia de fornecimento e elevando preços de chips a patamares recordes. Agora, uma pesquisa da Google chamada TurboQuant promete aliviar esse gargalo ao reduzir em até seis vezes a memória necessária para rodar um modelo de IA.

Notícias e promoções imperdíveisDiretamente no seu WhatsAppEntrar

Revelado antes da conferência ICLR 2026, o TurboQuant é um algoritmo de compressão especializado para Grandes Modelos de Linguagem (LLMs). Segundo a Google, o método permite que uma IA “lembre” seus cálculos passados usando apenas uma fração do espaço de hardware físico que precisava antes.

O fim do gargalo de RAM? Como funciona o TurboQuant

A chave do TurboQuant está na eficiência. No mundo da IA, os modelos usam um “cache Chave-Valor” para armazenar contexto, evitando reprocessar uma conversa inteira a cada nova pergunta. Esse cache é notório por consumir RAM de forma intensiva.

Conforme noticiado pelo TechCrunch, o TurboQuant emprega técnicas avançadas de “quantização”. É uma forma de simplificar os dados que a IA usa sem perder precisão, como arrumar uma mala com seis vezes mais roupas sem que ela fique mais pesada. A Google afirma que esses métodos operam perto dos “limites teóricos inferiores”, significando que são quase tão eficientes quanto a física permite.

Um choque no mercado de ações

O anúncio enviou ondas de choque pela economia global. Com a notícia do avanço, as ações de grandes fabricantes de chips como Samsung, SK Hynix e Micron caíram significativamente. Investidores temiam que, se os modelos de IA de repente precisassem de 80% menos memória, a demanda interminável por chips de RAM caros poderia finalmente desacelerar.

No entanto, muitos analistas acreditam que a “crise da RAM” não acabou. Enquanto o TurboQuant torna os modelos atuais mais eficientes, ele também abre a porta para projetos de IA ainda mais ambiciosos. Como especialistas da SemiAnalysis apontaram à CNBC, quando se remove um gargalo, os desenvolvedores geralmente respondem construindo sistemas ainda mais poderosos que, por fim, ocupam aquele espaço extra de qualquer maneira.

Quando veremos os benefícios?

Embora o TurboQuant seja um sucesso em laboratório, não estará pronto para chegar ao seu PC doméstico amanhã. A implantação em larga escala leva tempo. Além disso, muitos pedidos de memória para o próximo ano já estão garantidos por grandes corporações.

Ainda assim, este avanço fornece uma luz muito necessária no fim do túnel. Se a IA pode se tornar seis vezes mais eficiente apenas por software, podemos ver a escassez global de RAM diminuir bem antes do final da década.

Fonte: Android Headlines

Siga no Google NewsConteúdo confiável em primeira mãoSeguir
Ver mais
Compartilhar: