O Golpe Estratégico da Apple: TPUs do Google em vez de Nvidia para Treinamento de IA

  • Apple utiliza TPUs do Google em vez de GPUs da Nvidia para treinamento de IA.
  • Riscos de Longo Prazo para a Nvidia Devido a Chips Personalizados.

Eulerpool News·

A Apple apresentou no início de junho suas tão esperadas funcionalidades de IA, que operam sob o nome Apple Intelligence. O sistema é composto por vários modelos de IA generativa, otimizados para diversas tarefas, como escrita, resumo, geração de imagens e interação com aplicativos do iPhone e Mac. Surpreendentemente, esses modelos não foram treinados com GPUs da Nvidia - na verdade, nenhuma GPU foi utilizada. Em vez disso, a Apple usou as Tensor Processing Units (TPUs) do Google para treinar seus Apple Foundation Models. Uma TPU é um design especializado de chip de computador, conhecido como circuito integrado específico para aplicações (ASIC). Comparados às GPUs, os chips ASIC são relativamente limitados nos processos que podem executar, mas o fazem de forma extremamente eficiente. A Apple utilizou a quarta e a quinta geração de TPUs do Google para treinar seus Foundation Models. O Google afirma que o TPU v5p, lançado no final do ano passado, é 2,8 vezes mais rápido do que o design de quarta geração. Segundo cálculos, o TPU v4 do Google era entre 1,2 e 1,7 vezes mais rápido do que a Nvidia A100. Consequentemente, os chips v5p do Google estão aproximadamente no mesmo nível dos chips mais recentes da Nvidia, os H100. Em maio, o Google introduziu sua sexta geração de TPUs, que oferece ainda mais melhorias de velocidade. Para o treinamento de um modelo de IA generativa fundamentado, os designs próprios do Google parecem ser tão poderosos quanto o hardware mais recente da Nvidia e são também mais eficientes em termos de energia e custo. Com isso, a Apple conseguiu desenvolver um modelo fundamental para o Apple Intelligence a uma fração dos custos que seriam gerados pelo treinamento com chips da Nvidia. A Apple não é a única empresa que utiliza TPUs do Google para treinar sua IA. No entanto, a decisão de uma das empresas mais ricas do mundo de usar TPUs em vez de Nvidia envia um forte sinal de alerta aos investidores da Nvidia. A Nvidia depende fortemente de um pequeno grupo de gigantes da tecnologia. Apesar do seu próprio desenvolvimento de chips de IA, o Google é um dos maiores clientes da Nvidia. Outros grandes clientes da Nvidia — Microsoft, Amazon e Meta — também estão projetando seus próprios chips de silício personalizados para o treinamento e operação de modelos de IA. O CEO da Alphabet, Sundar Pichai, chamou a atenção, na conferência trimestral da empresa, para o principal motivo pelo qual essas empresas ainda compram chips Nvidia em grandes quantidades. "Para nós, o risco de subinvestimento supera claramente o risco de sobreinvestimento", disse ele. A longo prazo, as TPUs do Google e outros ASICs personalizados podem representar alternativas mais econômicas. A decisão da Apple de usar TPUs é um sinal crucial disso. Uma alta concentração de clientes continua sendo um risco significativo para a Nvidia. Dois clientes representaram 24% da receita total da Nvidia no primeiro trimestre. Se esses clientes reduzirem sua dependência da Nvidia, o crescimento da receita pode desacelerar significativamente nos próximos anos. As expectativas para a Nvidia são altas, mas a mudança para ASICs mais econômicos pode colocar grande pressão sobre o preço das ações. Um trimestre ruim poderia fazer as ações caírem significativamente. Apesar da queda no preço das ações, as ações da Nvidia continuam sendo negociadas a múltiplos extremamente altos. Embora a Nvidia tenha superado as expectativas durante o boom de IA até agora, a probabilidade de uma queda na receita e nos lucros está aumentando.
EULERPOOL DATA & ANALYTICS

Make smarter decisions faster with the world's premier financial data

Eulerpool Data & Analytics