O Facebook está a lançar o seu  hardware de próxima geração para formação de redes neurais, chamado ‘Big Sur’. A rede social está também a contribuir com este hardware para o projeto ‘Open Compute’ para que outros possam beneficiar dos seus projetos.

 

Os progressos no domínio da Inteligência Artificial devem-se em grande parte à disponibilidade de computadores mais poderosos – especialmente aqueles alimentados por GPUs (Graphics Processing Units). Estes avanços são possíveis graças à capacidade computacional, uma vez que hardwares e softwares mais rápidos permitem uma exploração mais profunda e sistemas mais complexos.

 

 

Ao longo dos últimos anos, o Facebook tem criado componentes de infraestrutura abertas e de design e tem desenvolvido um software que é capaz de ler histórias, responder a perguntas, jogar jogos e até mesmo aprender tarefas não especificadas. O trabalho do Facebook com o IA, consistiu (até hoje) em trabalhos de pesquisa e de código. Agora, a rede social ‘acrescenta’  hardware pela primeira vez, fornecendo um modelo que permite a outras organizações configurarem uma infraestrutura IA - sejam estas startups, académicas ou de grandes empresas.

 

 

Em colaboração com a NVIDIA, o ‘Big Sur’ é:

 

  • Duas vezes mais rápido que a geração anterior do Facebook, o que significa que a empresa pode ‘treinar’ duas vezes mais rápido e explorar as redes com o dobro da dimensão - dimensionando o tamanho e a velocidade das redes do Facebook.
  • O hardware é também muito mais versátil e eficiente do que as soluções off-the-shelf de gerações anteriores, otimizado para uma eficiência térmica e com energia.

 

A equipa de pesquisa AI (FAIR) do Facebook está também a triplicar o seu investimento em hardware GPU, à medida que a empresa se concentra ainda mais em pesquisa e permite a outras equipas em toda a empresa, utilizarem redes neurais nos seus produtos e serviços.

 

 Mais informações : Blog Facebook Engineering

Classifique este item
(0 votos)
Ler 1612 vezes Modificado em Dez. 11, 2015
Top