Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
MIT erbjuder 12 böcker om AI OCH ML (GRATIS ATT LADDA NER):
1. Grunderna för maskininlärning
2. Förståelse för djupinlärning
3. Algoritmer för ML
4. Förstärkningsinlärning
5. Introduktion till maskininlärningssystem
6. Djupinlärning
7. Distributionell förstärkningsinlärning
8. Multiagent förstärkningsinlärning
9. Agenter i AI:s långsiktiga spel
10. Rättvisa och maskininlärning
Du betalar 50 000 dollar per år för ML-kurser som finns gratis på internet.
Bokmärk detta. Dela med dig.


🚨 BREAKING: En Google-forskare och Turingpristagare har precis publicerat en artikel som avslöjar den verkliga krisen inom AI.
Det är inte träning. Det är en slutsats. Och hårdvaran vi använder var aldrig designad för det.
Artikeln är skriven av Xiaoyu Ma och David Patterson. Godkänd av IEEE Computer, 2026.
Ingen hype. Ingen produktlansering. Bara en kall genomgång av varför det är fundamentalt trasigt på hårdvarunivå att servera LLM:er.
Kärnargumentet är brutalt:
→ GPU-FLOPS växte 80X från 2012 till 2022
→ Minnesbandbredden växte endast med 17X under samma period
→ HBM-kostnader per GB ÖKAR, inte NEDGÅNG.
→ Avkodningsfasen är minnesbunden, inte beräkningsbunden
→ Vi bygger slutsatser på chip designade för träning
Här är den vildaste delen:
OpenAI förlorade ungefär 5 miljarder dollar på 3,7 miljarder dollar i intäkter. Flaskhalsen är inte modellkvaliteten. Det är kostnaden för att leverera varje token till varje enskild användare. Slutsatser tömmer dessa företag på blod.
Och fem trender gör det värre samtidigt:
→ MoE-modeller som DeepSeek-V3 med 256 experter som exploderar minne
→ Resonemangsmodeller genererar massiva tankekedjor innan svar
→ Multimodala ingångar (bild, ljud, video) som överträffar texten
→ Långkontextfönster som spanar KV-cacher
→ RAG-pipelines injicerar mer kontext per förfrågan
Deras fyra föreslagna hårdvaruskiften:
→ Flash med hög bandbredd: 512 GB stackar på HBM-nivå, 10 gånger mer minne per nod
→ Processing-Near-Memory: logikkretsar placerade bredvid minnet, inte på samma chip
→ 3D minnes-logikstapling: vertikala anslutningar som levererar 2–3 gånger lägre effekt än HBM
→ Låglatens-interconnect: färre hopp, nätverksberäkning, SRAM-paketbuffertar
Företag som testat SRAM-enbart chip som Cerebras och Groq misslyckades redan och var tvungna att lägga till DRAM igen.
Den här tidningen säljer inte en produkt. Den kartlägger hela hårdvaruflaskhalsen och säger: branschen löser fel problem.
Artikeln släpptes i januari 2026. Länk i den första kommentaren 👇


126
UPPDATERING: Någon har precis släppt det ultimata startup-verktygslådan gratis.
Det kallas Founders Kit och har alla resurser en grundare behöver för att gå från idé till börsintroduktion.
Paul Graham-essäer. YC-kurser. Exempel på pitch-däck. Insamlingsguider. 200+ verktyg inom design, analys, automation och marknadsföring.
Ingen betalvägg. Ingen nyhetsbrevsportal. Inget struntprat.
100 % öppen källkod.

79
Topp
Rankning
Favoriter
