Brief

DeepSeek, uma startup chinesa de IA fundada em 2023, rapidamente ganhou destaque na indústria. Com menos de 200 funcionários e apoiada pelo fundo quantitativo High-Flyer, que administra 8 bilhões de dólares em ativos, a empresa lançou seu modelo de código aberto, DeepSeek R1, um dia antes do anúncio do projeto Stargate da OpenAI, avaliado em 500 bilhões de dólares.
O que diferencia a DeepSeek é sua proposta de eficiência radical em custos. A empresa afirma ter treinado seu modelo por apenas 6 milhões de dólares, usando 2.000 GPUs Nvidia H800, enquanto o treinamento do GPT-4 teria custado entre 80 e 100 milhões de dólares e exigido 16.000 GPUs H100 para o LLaMA 3 da Meta. Embora as comparações não sejam diretas, é importante entender o potencial dessas diferenças.
A rápida adoção do DeepSeek mostra seu grande potencial. Em poucos dias, tornou-se o aplicativo gratuito mais baixado nas lojas dos EUA, gerou mais de 700 versões de código aberto (e esse número continua crescendo) e foi integrado às plataformas de IA da Microsoft, AWS e Nvidia.
Seu desempenho impressiona graças a uma série de avanços técnicos que reduzem significativamente os custos de processamento e treinamento. Sua arquitetura mixture-of-experts (MoE) usa apenas 37 bilhões dos 671 bilhões de parâmetros para processar cada token, o que diminui a necessidade de poder computacional sem perder qualidade. Além disso, a empresa aprimorou técnicas de destilação, permitindo que modelos menores aproveitem as capacidades de raciocínio de modelos maiores. O DeepSeek também se beneficia do aprendizado por reforço, que melhora seu desempenho sem precisar de um ajuste fino supervisionado intenso. Outra inovação é seu mecanismo de multi-head latent attention (MHLA), que reduz o consumo de memória para apenas 5% a 13% dos métodos tradicionais, tornando a IA mais eficiente e acessível.
Além da estrutura do modelo, o DeepSeek também melhorou a forma como processa os dados. Seu método de computação com precisão mista e baixa (FP8 mixed precision) ajuda a reduzir os custos computacionais. Além disso, uma função de recompensa otimizada direciona o poder de processamento para os dados de treinamento mais relevantes, evitando desperdício com informações repetitivas. A empresa também adotou técnicas que permitem ao modelo identificar quais parâmetros realmente importam para cada tarefa, tornando o processamento mais rápido e eficiente. Além disso, otimizações no hardware e no sistema aumentam ainda mais o desempenho. Para melhorar a eficiência, o DeepSeek desenvolveu formas mais inteligentes de gerenciar a memória e equilibrar a carga de processamento. Uma inovação importante foi substituir a programação CUDA pelo uso de PTX, dando aos engenheiros mais controle sobre como as GPUs executam tarefas, tornando o uso do hardware mais eficiente. Outra melhoria foi o algoritmo DualPipe, que melhora a comunicação entre GPUs, permitindo que elas trabalhem de forma mais sincronizada e eficiente durante o treinamento.
Até agora, esses resultados não são inesperados, pois acompanham a tendência geral de melhoria na eficiência da IA (veja a Figura 1). O que surpreende, no entanto, é que uma startup chinesa de código aberto conseguiu reduzir, ou até mesmo quase eliminar, a diferença de desempenho em relação aos principais modelos proprietários.


Notes: Massive multitask language understanding (MMLU) measures how well a large language model (LLM) understands language and solves problems, with results reported by model providers or through external evaluations; the scores of 83 and 42 are performance benchmarks, with higher being better
Sources: a16z; Bain analysisCeticismo e impacto no mercado
Apesar das promessas do DeepSeek, ainda há muitas incertezas. O custo real de treinamento do modelo não foi totalmente confirmado, e há especulações de que a empresa pode ter usado uma combinação de GPUs de alto desempenho e modelos mais básicos. Também surgiram questionamentos sobre questões de propriedade intelectual, especialmente sobre as fontes e métodos utilizados para a destilação do modelo. Alguns críticos argumentam que o DeepSeek não criou novas técnicas inovadoras, mas apenas aprimorou as já existentes.
Ainda assim, líderes e conselhos executivos estão cada vez mais atentos a como os avanços na eficiência da IA podem influenciar estratégias de investimento e planejamento de longo prazo (veja a Figura 2).
Possíveis cenários para o mercado de IA
O impacto do DeepSeek pode se desenrolar de diferentes maneiras.
Em um cenário positivo, as melhorias contínuas na eficiência tornariam a inferência mais barata, impulsionando uma adoção ainda maior da IA. Esse efeito é conhecido como o paradoxo de Jevons, no qual a redução de custos leva a um aumento na demanda. Embora os custos de inferência diminuam, o treinamento de modelos avançados ainda exigiria investimentos significativos, garantindo que os gastos com capacidades de IA de ponta continuem elevados.
No cenário moderado, os custos de treinamento da IA permaneceriam estáveis, mas os investimentos em infraestrutura de inferência poderiam cair entre 30% e 50%. Isso faria com que os provedores de nuvem reduzissem seus gastos de capital, que hoje variam entre 80 e 100 bilhões de dólares por ano, para algo entre 65 e 85 bilhões de dólares por provedor. Embora abaixo das previsões atuais, esse valor ainda representaria um aumento de 2 a 3 vezes em relação aos níveis de 2023.
Já em um cenário negativo, os orçamentos para treinamento de IA diminuiriam, e os gastos com infraestrutura de inferência cairiam de forma significativa. Os investimentos em nuvem poderiam ser reduzidos para um intervalo entre 40 e 60 bilhões de dólares, o que, apesar de ser inferior às estimativas moderadas, ainda representaria um aumento de 1,5 a 2 vezes em relação a 2023.
Separando o sinal do ruído
Diante das especulações, algumas observações ajudam a entender melhor o cenário:
- Um avanço significativo, mas esperado: Os custos de inferência vêm caindo constantemente, e as inovações do DeepSeek aceleram essa tendência em vez de causar uma disrupção total.
- Não é hora de reações exageradas: A adoção da IA continuará crescendo de forma sólida, embora o ritmo e a direção dos investimentos possam mudar.
- Inferência é apenas uma parte do todo: Os maiores players ainda estão competindo para desenvolver a próxima geração de modelos, com foco em desbloquear novas aplicações e expandir o mercado potencial.
- Impacto por segmento: A disputa entre modelos de código aberto e proprietários se intensifica, gerando volatilidade no curto prazo. No médio prazo, empresas de hardware para data centers e aplicativos tendem a se beneficiar.
- Demanda por energia: Até 2030, a demanda não deve mudar significativamente devido a restrições no fornecimento de energia. No longo prazo, os impactos ainda são incertos.
No geral, a demanda por IA continua alta. Com as melhorias em eficiência, data centers, fabricantes de hardware e desenvolvedores de aplicações de IA vão continuar evoluindo e explorando novas oportunidades.
Guia para CEOs: O que fazer agora
Para os CEOs, o caso do DeepSeek não é apenas sobre uma empresa, mas sobre o que ele representa para o futuro da IA. A principal lição é clara: a inovação na IA está evoluindo rápido e de forma constante, e grandes avanços podem surgir de onde menos se espera.
Os executivos podem tomar três medidas essenciais:
- Evite reações exageradas, mas prepare-se para a mudança nos custos. O modelo do DeepSeek pode não representar uma ameaça existencial para as grandes empresas de IA, mas reforça a tendência de queda acelerada nos custos. As empresas devem se preparar para um cenário onde a inferência de IA será muito mais barata, facilitando uma adoção mais ampla e criando novas dinâmicas de concorrência.
- Acompanhe de perto os sinais do mercado. Fique atento às tendências de investimentos em infraestrutura, à demanda por GPUs e aos níveis de adoção da IA. Se os gastos com infraestrutura desacelerarem, isso pode indicar que os avanços em eficiência estão transformando a economia da IA (veja a Figura 3). Com a adoção da IA nas empresas crescendo rapidamente, é essencial agir com agilidade para integrá-la às estratégias de negócio.
- Vá além da produtividade — use a IA como motor de inovação. O verdadeiro impacto da IA não está só na redução de custos, mas na criação de novas oportunidades. CEOs devem incentivar suas empresas a ir além da automação, explorando o potencial da IA para impulsionar inovação — seja no desenvolvimento de produtos, na personalização da experiência do cliente ou na criação de novos serviços.