Recentemente, a Nvidia e IBM publicaram um estudo em parceria com pesquisadores acerca do desenvolvimento de uma solução para integrar, de maneira direta, GPUs e SSDs. Em tradução livre para o português, a novidade foi denominada "Grande Acelerador de Memória" (BaM) e pode exercer um papel fundamental na melhoria de tarefas envolvendo aprendizado de máquina e inteligência artificial no futuro.
Em suma, o BaM permitirá que GPUs leiam e sobrescrevam, sob demanda, pequenos dados diretamente em um SSD, dispensando o tráfego de informações extras através de um processador, que poderia resultar na perda de eficiência. No estudo completo, os pesquisadores explicam: "O objetivo do BaM é estender a capacidade de memória da GPU e aprimorar a largura de banda de acesso ao armazenamento eficaz."
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Para realizar o feito, o BaM utilizaria a memória cache da GPU, gerenciada por um software externo apoiado por uma biblioteca de dados no SSD. Em conjunto, todo o processo de transmissão seria gerenciado pela GPU, resultando em um processamento de dados ainda mais rápidos e no aceleramento de treinamentos de aprendizado de máquina e outras atividades mais exigentes.
Leia mais sobre: SSD 240GB: 6 modelos de diferentes marcas para conhecer
Modelo de funcionamento do BaM. (Fonte: Tom's Hardware / Reprodução)Fonte: Tom's Hardware
Promissora, a novidade pode ser a primeira alternativa à solução proprietária DirectStorage, recém-liberada pela Microsoft, que deve oferecer mais desempenho para jogos e aplicações através de um processo similar. Resta aguardar mais informações sobre o desenvolvimento do BaM para conferir sua eficiência.
Fontes