Uma abordagem All-in-One para computação

Computadores de mesa comuns, bem como laptops e smartphones, possuem unidades de processamento dedicadas à computação e memória. Eles são chamados de sistemas von Neumann e são nomeados após o físico e cientista da computação  John von Neumann, que, entre outras coisas, foi pioneiro na computação digital moderna. A IBM está procurando na AI uma forma de melhorar os computadores.

Eles funcionam movendo dados para frente e para trás entre a unidade de memória e de computação; um processo que pode, e muitas vezes, acabar sendo lento e não muito eficiente.

Pelo menos, não tão rápido nem eficiente como o que conseguimos ao usar a “memória computacional”. Também conhecida como “computação em memória”, a memória computacional permite armazenar e processar informações usando apenas as propriedades físicas da memória de um sistema informático.

Uma equipe da IBM Research afirma ter feito um avanço na memória computacional ao usar com sucesso um milhão de dispositivos de memória de mudança de fase (PCM) para executar um algoritmo de aprendizado de máquina sem supervisão. Detalhes da pesquisa foram publicados na revista Nature Communications.

O dispositivo PCM da equipe da IBM foi fabricado a partir de uma liga de telúrico de antimônio de germânio empilhada e intercalada entre dois eletrodos. “[T] sua tecnologia de protótipo deverá produzir 200x melhorias em velocidade e eficiência energética, tornando-o altamente adequado para permitir sistemas de computação ultra-densa, de baixa potência e paralelamente em paralelo para aplicações em IA”, de acordo com uma publicação no blog da IBM Research.

IBM: Mais pela AI

Os novos dispositivos PCM podem executar a computação no local através da dinâmica de cristalização. Essencialmente, isso envolve uma corrente elétrica aplicada ao material do PCM, que muda seu estado de uma disposição atômica desordenada para uma configuração ordenada – ou seja, cristalina. A equipe da IBM demonstrou sua tecnologia PCM usando dois exemplos baseados no tempo, que eles então compararam aos métodos tradicionais de aprendizagem por máquina.

A capacidade de executar cálculos mais rapidamente, obviamente, se beneficiará de todas as performances do computador. Para a IBM, isso significa um melhor poder de computação para as aplicações de AI. “Este é um importante passo em frente em nossa pesquisa sobre a física da AI, que explora novos materiais de hardware, dispositivos e arquiteturas”, disse o IBM Fellow e co-autor do estudo Evangelos Eleftheriou em uma declaração citada no blog.

“À medida que as leis de escala de complemento de óxido de metal ou CMOSdividem devido a limites tecnológicos, é necessária uma saída radical da dicotomia de memória de processador para contornar as limitações dos computadores atuais. Dada a simplicidade, alta velocidade e pouca energia de nossa abordagem de computação em memória, é notável que nossos resultados sejam tão parecidos com nossa abordagem clássica de referência executada em um computador com von Neumann “.

A memória computacional apresenta uma oportunidade para um processamento mais “em tempo real” da informação; uma melhoria muito necessária no mundo de hoje, onde mais empresas estão colocando um prémio na análise de dados. Ao mesmo tempo, como gigantes do setor como a Amazon e o Google colocam o AI no centro de seus negócios, a computação mais rápida para aplicações de AI é, de fato, um desenvolvimento bem-vindo.

Para a IBM, a computação em memória é a chave. “Até agora, a memória foi vista como um lugar onde meramente armazenamos informações. Mas neste trabalho, mostramos de forma conclusiva como podemos explorar a física desses dispositivos de memória para também realizar um primitivo computacional de alto nível “, disse o autor principal, Abu Sebastian. “O resultado da computação também é armazenado nos dispositivos de memória e, nesse sentido, o conceito é vagamente inspirado em como o cérebro calcula”.