Início Mundo Deepseek x Cerebras: como o modelo de IA mais controverso agora está...

Deepseek x Cerebras: como o modelo de IA mais controverso agora está sendo sobrealimentado pelo mais poderoso superchip de IA já construído

16
0


  • Fabricante de chip de IA mais rápido do mundo faz um mergulho com vencimento profundo
  • Cerebras diz que a solução classificará 57x mais rápido que as GPUs, mas não menciona quais GPUs
  • Deepseek R1 será executado no Cerebras Cloud e os dados permanecerão nos EUA

A Cerebras anunciou que apoiará o DeepSeek em um movimento não tão surpreendente, mais especificamente o modelo de raciocínio R1 70B. A mudança ocorre depois que o GROQ e a Microsoft confirmou que também traria o novo garoto do bloco de IA para suas respectivas nuvens. O AWS e o Google Cloud ainda não o fizeram, mas qualquer um pode executar o modelo de código aberto em qualquer lugar, mesmo localmente.

O especialista em chip de inferência da IA ​​executará o Deepseek R1 70B a 1.600 tokens/segundo, o que afirma ser 57x mais rápido que qualquer provedor R1 usando GPUs; Pode-se deduzir que 28 tokens/segundo é o que a solução GPU na nuvem (nesse caso Deepinfra) aparentemente alcançam. Por acaso, o último chip do Cerebras é 57x maior que o H100. Entrei em contato com os Cerebras para descobrir mais sobre essa reivindicação.

Fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui