Ao longo dos últimos anos, o Facebook tem criado componentes de infraestrutura abertas e de design e tem desenvolvido um software que é capaz de ler histórias, responder a perguntas, jogar jogos e até mesmo aprender tarefas não especificadas. O trabalho do Facebook com o IA, consistiu (até hoje) em trabalhos de pesquisa e de código. Agora, a rede social ‘acrescenta’ hardware pela primeira vez, fornecendo um modelo que permite a outras organizações configurarem uma infraestrutura IA - sejam estas startups, académicas ou de grandes empresas.

Em colaboração com a NVIDIA, o ‘Big Sur’ é:
- Duas vezes mais rápido que a geração anterior do Facebook, o que significa que a empresa pode ‘treinar’ duas vezes mais rápido e explorar as redes com o dobro da dimensão - dimensionando o tamanho e a velocidade das redes do Facebook.
- O hardware é também muito mais versátil e eficiente do que as soluções off-the-shelf de gerações anteriores, otimizado para uma eficiência térmica e com energia.
A equipa de pesquisa AI (FAIR) do Facebook está também a triplicar o seu investimento em hardware GPU, à medida que a empresa se concentra ainda mais em pesquisa e permite a outras equipas em toda a empresa, utilizarem redes neurais nos seus produtos e serviços.
Mais informações : Blog Facebook Engineering
O Facebook está a lançar o seu hardware de próxima geração para formação de redes neurais, chamado ‘Big Sur’. A rede social está também a contribuir com este hardware para o projeto ‘