Jensen Huang, cofundador e CEO da Nvidia Corp., durante a Nvidia GPU Technology Conference (GTC) em San Jose, Califórnia, EUA, na terça-feira, 19 de março de 2024.
David Paul Morris | Bloomberg | Imagens Getty
da Nvidia A recuperação de 27% em maio elevou seu valor de mercado para US$ 2,7 trilhões, atrás apenas Microsoft e Maçã entre as empresas públicas mais valiosas do mundo. A fabricante de chips relatou uma triplicação nas vendas ano após ano pelo terceiro trimestre consecutivo, impulsionada pela crescente demanda por seus processadores de inteligência artificial.
A Mizuho Securities estima que a Nvidia controla entre 70% e 95% do mercado de chips de IA usados para treinamento e implantação de modelos como o GPT da OpenAI. O que ressalta o poder de precificação da Nvidia é uma margem bruta de 78%, um número surpreendentemente alto para uma empresa de hardware que precisa fabricar e enviar produtos físicos.
Fabricantes de chips rivais Informações e Microdispositivos avançados relataram margens brutas no último trimestre de 41% e 47%, respectivamente.
A posição da Nvidia no mercado de chips de IA foi descrita como um fosso por alguns especialistas. Suas principais unidades de processamento gráfico (GPUs) de IA, como o H100, juntamente com o software CUDA da empresa, levaram a uma vantagem tão grande na concorrência que mudar para uma alternativa pode parecer quase impensável.
Ainda assim, o CEO da Nvidia, Jensen Huang, cujo patrimônio líquido aumentou de US$ 3 bilhões para cerca de US$ 90 bilhões nos últimos cinco anos, disse estar “preocupado e preocupado” com a perda de vantagem de sua empresa de 31 anos. Ele reconheceu numa conferência no final do ano passado que há muitos concorrentes poderosos em ascensão.
“Não acho que as pessoas estejam tentando me tirar do mercado”, disse Huang. disse em novembro. “Eu provavelmente sei que eles estão tentando, então isso é diferente.”
A Nvidia se comprometeu a lançar uma nova arquitetura de chip AI a cada anoem vez de a cada dois anos, como tem acontecido historicamente, e a lançar novo software que pudesse consolidar mais profundamente seus chips em software de IA.
Mas a GPU da Nvidia não é a única capaz de executar a matemática complexa que sustenta a IA generativa. Se chips menos potentes puderem fazer o mesmo trabalho, Huang pode estar justificadamente paranóico.
A transição do treinamento de modelos de IA para o que é chamado de inferência – ou implantação de modelos – também poderia dar às empresas a oportunidade de substituir as GPUs da Nvidia, especialmente se elas forem mais baratas para comprar e operar. O chip carro-chefe da Nvidia custa cerca de US$ 30 mil ou mais, dando aos clientes bastante incentivo para buscar alternativas.
“A Nvidia adoraria ter 100% disso, mas os clientes não adorariam que a Nvidia tivesse 100% disso”, disse Sid Sheth, cofundador da aspirante a rival D-Matrix. “É uma oportunidade muito grande. Seria muito prejudicial à saúde se qualquer empresa aproveitasse tudo.”
Fundada em 2019, a D-Matrix planeja lançar uma placa semicondutora para servidores ainda este ano, que visa reduzir o custo e a latência da execução de modelos de IA. A empresa criado US$ 110 milhões em setembro.
Além da D-Matrix, empresas que vão desde corporações multinacionais até startups nascentes estão lutando por uma fatia do mercado de chips de IA que pode atingir US$ 400 bilhões em vendas anuais nos próximos cinco anos, de acordo com analistas de mercado e a AMD. A Nvidia gerou cerca de US$ 80 bilhões em receitas nos últimos quatro trimestres, e o Bank of America estima que a empresa vendeu US$ 34,5 bilhões em chips de IA no ano passado.
Muitas empresas que adotam as GPUs da Nvidia apostam que uma arquitetura diferente ou certas compensações poderiam produzir um chip melhor para tarefas específicas. Os fabricantes de dispositivos também estão desenvolvendo tecnologia que pode acabar realizando grande parte da computação para IA que ocorre atualmente em grandes clusters baseados em GPU na nuvem.
“Ninguém pode negar que hoje a Nvidia é o hardware que você deseja para treinar e executar modelos de IA”, disse Fernando Vidal, cofundador da 3Fourteen Research. disse à CNBC. “Mas tem havido um progresso incremental no nivelamento do campo de jogo, desde hiperscaladores trabalhando em seus próprios chips até mesmo pequenas startups, projetando seu próprio silício.”
A CEO da AMD, Lisa Su, deseja que os investidores acreditem que há muito espaço para muitas empresas de sucesso no setor.
“A chave é que existem muitas opções”, disse Su aos repórteres em dezembro, quando sua empresa lançou seu mais recente chip de IA. “Acho que veremos uma situação em que não haverá apenas uma solução, haverá múltiplas soluções”.
Outros grandes fabricantes de chips
Lisa Su exibe um chip AMD Instinct MI300 ao fazer um discurso na CES 2023 em Las Vegas, Nevada, em 4 de janeiro de 2023.
David Becker | Imagens Getty
A AMD fabrica GPUs para jogos e, assim como a Nvidia, está adaptando-as para IA dentro de data centers. Seu chip principal é o Instinct MI300X. A Microsoft já comprou processadores AMD, oferecendo acesso a eles através de sua nuvem Azure.
No lançamento, Su destacou a excelência do chip na inferência, em vez de competir com a Nvidia pelo treinamento. Na semana passada, a Microsoft disse que estava usando GPUs AMD Instinct para atender seus modelos Copilot. Os analistas do Morgan Stanley interpretaram a notícia como um sinal de que as vendas de chips de IA da AMD poderiam ultrapassar US$ 4 bilhões este ano, a meta pública da empresa.
A Intel, que foi superada pela Nvidia no ano passado em termos de receita, também tenta marcar presença em IA. A empresa anunciou recentemente a terceira versão de seu acelerador de IA, Gaudi 3. Desta vez, a Intel comparou-o diretamente com a concorrência, descrevendo-o como uma alternativa mais econômica e melhor que o H100 da Nvidia em termos de execução de inferência, embora mais rápido no treinamento de modelos. .
Analistas do Bank of America estimaram recentemente que a Intel terá menos de 1% do mercado de chips de IA este ano. A Intel afirma ter um pedido em atraso de US$ 2 bilhões para o chip.
O principal obstáculo para uma adoção mais ampla pode ser o software. AMD e Intel participam de um grande grupo industrial chamado a fundação UXLque inclui Googleque está trabalhando para criar alternativas gratuitas ao CUDA da Nvidia para controlar hardware para aplicativos de IA.
Principais clientes da Nvidia
Um desafio potencial para a Nvidia é competir com alguns de seus maiores clientes. Provedores de nuvem, incluindo Google, Microsoft e Amazonas todos estão construindo processadores para uso interno. As três Big Tech, mais Oráculorepresentam mais de 40% da receita da Nvidia.
A Amazon lançou seus próprios chips orientados para IA em 2018, sob a marca Inferentia. Inferentia está agora em sua segunda versão. Em 2021, a Amazon Web Services estreou o Tranium voltado para treinamento. Os clientes não podem comprar os chips, mas podem alugar sistemas através da AWS, que comercializa os chips como mais econômicos do que os da Nvidia.
O Google é talvez o provedor de nuvem mais comprometido com seu próprio silício. A empresa tem usado o que chama de Unidades de Processamento de Tensores (TPUs) desde 2015 para treinar e implantar modelos de IA. Em maio, o Google anunciou a sexta versão de seu chip, Trillium, que a empresa disse ter sido usado para desenvolver seus modelos, incluindo Gemini e Imagen.
O Google também usa chips Nvidia e os oferece por meio de sua nuvem.
A Microsoft não está tão adiantada. A empresa disse no ano passado que estava construindo seu próprio acelerador e processador de IA, chamado Maia e Cobalt.
meta não é um provedor de nuvem, mas a empresa precisa de grandes quantidades de poder computacional para executar seu software e site e para veicular anúncios. Embora a controladora do Facebook esteja comprando bilhões de dólares em processadores Nvidia, ela disse em abril que alguns de seus chips desenvolvidos internamente já estavam em data centers e permitiam “maior eficiência” em comparação com GPUs.
Analistas do JPMorgan estimaram em maio que o mercado de construção de chips personalizados para grandes provedores de nuvem poderia valer até US$ 30 bilhões, com crescimento potencial de 20% ao ano.
Iniciantes
O chip WSE-3 da Cerebras é um exemplo de novo silício desenvolvido para operar e treinar inteligência artificial.
Cerebras Sistemas
Os capitalistas de risco veem oportunidades para as empresas emergentes entrarem no jogo. Eles investiram US$ 6 bilhões em empresas de semicondutores de IA em 2023, um pouco acima dos US$ 5,7 bilhões do ano anterior, de acordo com dados do PitchBook.
É uma área difícil para startups, pois os semicondutores são caros para projetar, desenvolver e fabricar. Mas existem oportunidades de diferenciação.
Para a Cerebras Systems, fabricante de chips de IA no Vale do Silício, o foco está nas operações básicas e nos gargalos da IA, em vez da natureza de propósito mais geral de uma GPU. A empresa foi fundada em 2015 e foi avaliada em US$ 4 bilhões durante sua mais recente arrecadação de fundos, segundo a Bloomberg.
O chip Cerebras, WSE-2, coloca capacidades de GPU, bem como processamento central e memória adicional em um único dispositivo, o que é melhor para treinar modelos grandes, disse o CEO Andrew Feldman.
“Usamos um chip gigante, eles usam muitos chips pequenos”, disse Feldman. “Eles têm desafios de movimentação de dados, nós não.”
Feldman disse que sua empresa, que inclui a Mayo Clinic, GlaxoSmithKlinee as Forças Armadas dos EUA como clientes, estão ganhando negócios para seus sistemas de supercomputação, mesmo enfrentando a Nvidia.
“Há ampla competição e acho que isso é saudável para o ecossistema”, disse Feldman.
Sheth, da D-Matrix, disse que sua empresa planeja lançar uma placa com seu chip ainda este ano que permitirá mais computação na memória, em vez de em um chip como uma GPU. O produto D-Matrix pode ser inserido em um servidor de IA junto com GPUs existentes, mas tira o trabalho dos chips Nvidia e ajuda a reduzir o custo da IA generativa.
Os clientes “são muito receptivos e muito incentivados a permitir que uma nova solução chegue ao mercado”, disse Sheth.
Apple e Qualcomm
Os dispositivos Apple iPhone série 15 estão à venda na loja The Grove Apple no dia do lançamento em Los Angeles, Califórnia, em 22 de setembro de 2023.
Patrick T. Fallon | Afp | Imagens Getty
A maior ameaça aos negócios de data center da Nvidia pode ser uma mudança no local onde o processamento ocorre.
Os desenvolvedores apostam cada vez mais que o trabalho de IA passará dos servidores para os laptops, PCs e telefones que possuímos.
Grandes modelos como os desenvolvidos pela OpenAI requerem enormes clusters de GPUs poderosas para inferência, mas empresas como Apple e Microsoft estão desenvolvendo “modelos pequenos” que requerem menos energia e dados e podem funcionar com um dispositivo alimentado por bateria. Eles podem não ser tão habilidosos quanto a versão mais recente do ChatGPT, mas existem outros aplicativos que executam, como resumo de texto ou pesquisa visual.
Apple e Qualcomm estão atualizando seus chips para executar IA com mais eficiência, adicionando seções especializadas para modelos de IA chamados processadores neurais, que podem ter vantagens de privacidade e velocidade.
A Qualcomm anunciou recentemente um chip de PC que permitirá que laptops executem serviços de IA da Microsoft no dispositivo. A empresa também investiu em vários fabricantes de chips que fabricam processadores de baixo consumo de energia para executar algoritmos de IA fora de um smartphone ou laptop.
A Apple tem comercializado seus mais recentes laptops e tablets como otimizados para IA por causa do mecanismo neural em seus chips. Em sua próxima conferência de desenvolvedores, a Apple está planejando mostrar uma série de novos recursos de IA, provavelmente rodando no silício da empresa para iPhone.