Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
O MIT oferece 12 Livros sobre IA e ML (GRÁTIS PARA DOWNLOAD):
1. Fundamentos de Aprendizagem de Máquina
2. Compreendendo Aprendizagem Profunda
3. Algoritmos para ML
4. Aprendizagem por Reforço
5. Introdução a Sistemas de Aprendizagem de Máquina
6. Aprendizagem Profunda
7. Aprendizagem por Reforço Distribucional
8. Aprendizagem por Reforço Multi Agente
9. Agentes no Jogo Longo da IA
10. Justiça e Aprendizagem de Máquina
Você está pagando $50,000/ano por cursos de ML que estão disponíveis gratuitamente na internet.
Adicione aos favoritos. Compartilhe.


7
🚨 NOTÍCIA DE ÚLTIMA HORA: Um pesquisador do Google e um vencedor do Prêmio Turing acabaram de publicar um artigo que expõe a verdadeira crise na IA.
Não é o treinamento. É a inferência. E o hardware que estamos usando nunca foi projetado para isso.
O artigo é de Xiaoyu Ma e David Patterson. Aceito pela IEEE Computer, 2026.
Sem exageros. Sem lançamento de produto. Apenas uma análise fria de por que servir LLMs é fundamentalmente quebrado a nível de hardware.
O argumento central é brutal:
→ FLOPS de GPU cresceram 80X de 2012 a 2022
→ A largura de banda de memória cresceu apenas 17X no mesmo período
→ Os custos de HBM por GB estão subindo, não descendo
→ A fase de Decodificação é limitada pela memória, não pela computação
→ Estamos construindo inferência em chips projetados para treinamento
Aqui está a parte mais louca:
A OpenAI perdeu cerca de $5B em $3.7B de receita. O gargalo não é a qualidade do modelo. É o custo de servir cada único token a cada único usuário. A inferência está drenando essas empresas.
E cinco tendências estão tornando isso pior simultaneamente:
→ Modelos MoE como o DeepSeek-V3 com 256 especialistas explodindo a memória
→ Modelos de raciocínio gerando cadeias de pensamento massivas antes de responder
→ Entradas multimodais (imagem, áudio, vídeo) ofuscando o texto
→ Janelas de contexto longo sobrecarregando caches KV
→ Pipelines RAG injetando mais contexto por solicitação
Suas quatro propostas de mudanças de hardware:
→ Flash de Alta Largura de Banda: pilhas de 512GB com largura de banda a nível de HBM, 10X mais memória por nó
→ Processamento Perto da Memória: circuitos lógicos colocados ao lado da memória, não no mesmo chip
→ Empilhamento de Memória-Lógica 3D: conexões verticais entregando 2-3X menos energia do que HBM
→ Interconexão de Baixa Latência: menos saltos, computação em rede, buffers de pacotes SRAM
Empresas que tentaram chips apenas com SRAM como Cerebras e Groq já falharam e tiveram que adicionar DRAM de volta.
Este artigo não vende um produto. Ele mapeia todo o gargalo de hardware e diz: a indústria está resolvendo o problema errado.
Artigo lançado em janeiro de 2026. Link no primeiro comentário 👇


136
ÚLTIMA HORA: Alguém acaba de lançar o kit de ferramentas definitivo para startups de graça.
Chama-se Founders Kit e tem todos os recursos que um fundador precisa para passar da ideia ao IPO.
Ensaios de Paul Graham. Cursos da YC. Exemplos de pitch deck. Guias de captação de recursos. Mais de 200 ferramentas em design, análise, automação e marketing.
Sem paywall. Sem bloqueio de newsletter. Sem conversa fiada.
100% Código Aberto.

90
Top
Classificação
Favoritos
