Computador sem processador da IBM 200 vezes mais rápido

Sem a necessidade de um processador o sistema conseguiu realizar cálculos usando um milhão de dispositivos de memória o mesmo usado em CDs-RW utilizando o tipo de memória chamada de PCM, sigla em inglês que significa “Phase Change Memory” (memória de mudança de fase) baseado nessa ideia a IBM cria o sistema”in-memory” computing (computação dentro da memória) permitindo que computadores realizem diversas tarefas, rodando algoritmos de aprendizagem de máquina e encontrando correlações entre diferentes bancos de dados até 200 vezes mais rápida e eficiente.

Feita de um material que pode assumir duas estruturas atômicas diferentes, uma delas é uma estrutura cristalina que conduz bem eletricidade, a outra, mais amorfa, não conduz, ao esquentar uma célula do material, ele muda de um estado para o outro aproveita das propriedades físicas de seu material para armazenar dados. segundo o Ars Technica, organizando o material de maneira binária: o estado cristalino condutivo representa um 0, e o estado amorfo representa um 1, com a estrutura mantida mesmo quando não há energia circulando no sistema, a memória consegue armazenar esses estados mesmo que o circuito que a alimenta seja desligado.

A IBM criou o que ela chama de “memória computacional”, onde pretende usar a própria estrutura material da memória PCM, evitando o gargalo computacional (processador, memória) que consome muita energia deixando os dispositivos menos eficientes, essa parte da arquitetura von Neumann de computação, usada por praticamente todos os aparelhos eletrônicos que nós usamos, de computadores até celulares e tablets.

O funcionamento do sistema é uma espécie de computador analógico, aquecendo a célula um pouco mais e caso um número suficiente de correlações fosse encontrada, a célula acabaria mudando de 0 para 1, confirmando que a correlação existia, se esse número suficiente não fosse atingido, ela continuaria sendo 0, o que indicaria que os dados não eram suficientes para permitir afirmar que havia uma correlação ali onde o sistema busca correlações usando as propriedades físicas do material de maneira diferente.

Caso a correlação demore muito todas as células acabam se aquecendo mudando de 0 para 1 e as informções podem ter alguns falsos positivos e falsos negativos, a natureza do processo de aquecimento que muda as células está sujeito a variações aleatórias que os pesquisadores ainda não conseguem controlar alterando o resultado, mesmo assim o sistema tem a mesma precisão do sistema “tradicional”.

Esse novo método pode acabar representando uma verdadeira revolução para os data centers que pode ser essencial para sistemas de inteligência artificial, acreditando que será uma forma extremamente rápida e eficiente de realizar tarefas de Big Data.

 

Fonte: Olhardigital

 

Sobre a Webglobe
A Webglobe realiza a gestão da infraestrutura de tecnologia de empresas, alinhando a tecnologia com os negócios dos nossos clientes para gerar melhores resultados.

Nosso fluxo de trabalho é baseado em processos e nossa gestão é apoiada nas boas práticas de ITIL e COBIT, permitindo entregar serviços gerenciados de tecnologia com qualidade, segurança e previsão de investimentos.

Visite: webglobe.com.br