Resultados do trimestre da Nvidia destacam a rápida incursão da IA em todos os setores
23 de fevereiro de 2024Apesar do potencial de crescimento elevado da rápida expansão da IA, as limitações de oferta e questões geopolíticas mais amplas que preocupam a indústria de semicondutores continuam a causar algumas preocupações para a empresa.
A Nvidia anunciou lucros estelares para o quarto trimestre, alimentando ainda mais o ímpeto por trás de suas avaliações em alta. Isso destaca um amplo interesse em IA em vários setores, incluindo empresas, saúde e automotivo.
A receita do trimestre, encerrado em 28 de janeiro, atingiu US$ 22,1 bilhões, marcando um aumento de 265% ano a ano. Para o ano fiscal de 2024, a receita subiu para US$ 60,9 bilhões, um aumento de 126% em relação ao ano anterior.
A empolgação em torno da IA impulsionou muitas empresas ultimamente, mas a Nvidia é a grande empresa de tecnologia que parece ter se beneficiado mais. A avaliação da Nvidia recentemente subiu além das da Alphabet e da Amazon, enquanto destronou a Tesla como a ação mais negociada.
No entanto, apesar do potencial de crescimento elevado da rápida expansão da IA, as limitações de oferta e questões geopolíticas mais amplas que preocupam a indústria de semicondutores continuam a causar algumas preocupações para a empresa.
Fábricas de IA alimentam o crescimento
Para o ano fiscal de 2024, um segmento de crescimento significativo foi o de data centers, onde a receita atingiu US$ 47,5 bilhões, mais do que triplicando os números do ano anterior. O quarto trimestre registrou uma receita recorde de data center de US$ 18,4 bilhões, um aumento de 409% ano a ano.
Esse aumento foi alimentado principalmente pela plataforma de computação de GPU Hopper da Nvidia e pela rede de ponta a ponta InfiniBand.
“À medida que a Lei de Moore1 desacelera enquanto a demanda por computação continua a disparar, as empresas podem acelerar todas as cargas de trabalho possíveis para impulsionar melhorias futuras em desempenho, TCO e eficiência energética”, disse Colette Kress, vice-presidente executiva e CFO da Nvidia, na teleconferência de resultados.
“Ao mesmo tempo, as empresas começaram a construir a próxima geração de data centers modernos, o que chamamos de fábricas de IA, construídas especificamente para refinar dados brutos e produzir inteligência valiosa na era da IA generativa.“
IA rompendo barreiras entre verticais
O crescimento nas operações de data center durante o quarto trimestre foi atribuído ao treinamento e inferência de IA generativa e modelos de linguagem de grande porte, abrangendo uma gama diversificada de indústrias, casos de uso e regiões.
Na teleconferência de resultados, a Nvidia observou que a IA está se expandindo em vários setores e soluções, com o campo de modelos de linguagem grande florescendo. Empresas como Recursion Pharmaceuticals e Generate: Biomedicines estão desenvolvendo modelos de base para a biologia, indicando a ampla adoção da IA em setores como automotivo, saúde e serviços financeiros.
“Quase 80 fabricantes de veículos em OEMs globais, veículos de energia nova, caminhões, robotaxi e fornecedores de nível 1 estão usando a infraestrutura de IA da NVIDIA para treinar LLMs e outros modelos de IA para condução automatizada e aplicações de cockpit de IA”, disse Kress.
O conjunto de soluções de IA da Nvidia – abrangendo geração de texto, chatbots e até previsão de proteínas – capacita as empresas a desenvolver soluções de IA personalizadas para automatizar suas operações, de acordo com Thomas George, presidente do Cybermedia Group e CMR.
“Forjar alianças estratégicas com titãs da tecnologia, como Google, Microsoft e Amazon, também reforçou a posição da Nvidia como líder em tecnologia de IA”, acrescentou George. “A integração onipresente das GPUs da Nvidia, exemplificada por iniciativas inovadoras como o ChatGPT, impulsionou o crescimento nos fluxos de receita de IA da empresa e enriqueceu seu portfólio de negócios com ofertas diversificadas.”
Restrições de oferta e navegação na China
A GPU Hopper, principal impulsionadora da receita de data center da empresa, apresenta uma preocupação potencial devido às restrições de oferta esperadas, já que a demanda supera substancialmente a oferta. Respondendo às perguntas dos analistas sobre como as restrições da cadeia de suprimentos podem se resolver, Jensen Huang, CEO da Nvidia, disse que, embora haja uma melhora geral, a tecnologia complexa da Hopper torna isso difícil.
“… a GPU NVIDIA Hopper tem 35.000 peças”, disse Huang. “Pesa 70 quilos. Essas coisas são coisas realmente complicadas que construímos. As pessoas o chamam de supercomputador de IA por um bom motivo. Se você olhar na parte de trás do data center, os sistemas e o sistema de cabeamento são alucinantes. É o sistema de cabeamento complexo mais denso para rede que o mundo já viu.”
Manchetes recentes também destacaram preocupações em relação às restrições do governo dos EUA às exportações para a China, afetando empresas como a Nvidia. Após essas restrições, a Nvidia teve que suspender suas operações na China e revisar suas ofertas de produtos para o mercado chinês.
“E vamos fazer o nosso melhor para competir nesse mercado e ter sucesso nesse mercado… dentro das especificações da restrição”, acrescentou Huang.
Aproveitando a incursão dos clientes corporativos na IA
Os principais OEMs, como Dell, HPE, Lenovo e Super Micro, estão colaborando com a Nvidia por meio de seus canais de vendas globais para estender a solução de IA da Nvidia a empresas em todo o mundo. A Nvidia está pronta para enviar o Spectrum-X neste trimestre, de acordo com Cress.
“A Nvidia agora está entrando no espaço de rede ethernet com o lançamento de nossa nova oferta Spectrum-X de ponta a ponta, projetada para uma rede otimizada por IA para o data center”, disse Cress. “O Spectrum-X introduz novas tecnologias sobre ethernet que são desenvolvidas especificamente para IA.”
Espera-se que as tecnologias incorporadas no switch Spectrum, DPU BlueField e pilha de software associada alcancem um aumento de 1,6 vezes no desempenho de rede para processamento de IA quando comparado às configurações Ethernet tradicionais.
- A Lei de Moore é uma observação feita por Gordon E. Moore, cofundador da Intel, que previa que o número de transistores em um processador dobraria a cada dois anos. Esta previsão tem sido fundamental para o desenvolvimento da tecnologia da informação, pois tem guiado a indústria de semicondutores na miniaturização e no aumento da capacidade de processamento dos chips ↩︎
Fonte: CIO
IA generativa e os impactos nas organizações. Por Marcio Aguiar da NVIDIA
Nvidia anuncia Superchip para acelerar aplicativos de IA
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.