L’Eclissi della Memoria: Anatomia Tecnica e Strategica della Crisi del Silicio (2025-2026)

“L’Eclissi della Memoria 2026” non è uno slogan drammatico, ma una descrizione abbastanza letterale di ciò che sta succedendo alla filiera DRAM e NAND all’inizio del 2026: l’IA non sta solo drogando temporaneamente i prezzi, sta riscrivendo le priorità di fab, linee di packaging, roadmap tecnologiche e perfino il concetto stesso di “consumer” nel mondo delle memorie.

Genesi della crisi: dal post-2023 al nodo 1β/1γ

Micron confirms up to $825 million investment in India chip facility | Reuters

Per capire il disastro del 2026 bisogna tornare al 2022‑2023, quando il mercato DRAM e NAND entra in uno dei peggiori cicli down della sua storia: domanda in calo su PC, smartphone in stagnazione, scorte di magazzino ai massimi. Samsung, SK Hynix e Micron reagiscono sincronizzando la classica strategia da oligopolio, quindi attuando tagli agli investimenti (CapEx), rallentamento della produzione di massa su nuovi nodi, riduzione degli avvii di lavorazione dei wafer su DRAM e NAND per drenare inventario e far risalire i prezzi.

Micron, ad esempio, tra il 2022 e il 2023 ha annunciato tagli drastici agli investimenti in conto capitale (CapEx) e un rallentamento nell’espansione produttiva delle memorie DRAM 1β. Ciò ha comportato il rinvio dell’introduzione del nodo 1γ a dopo il 2025, con l’obiettivo preciso di ridurre la produzione di bit e frenare l’eccesso di offerta sul mercato. Il loro processo a 1β (1-beta) garantisce una densità estrema (oltre il 30% in più rispetto alla generazione precedente, a fronte di una riduzione dei consumi energetici del 15%), eppure i volumi vengono mantenuti deliberatamente bassi. La strategia è limpida: prima si smaltiscono le scorte di magazzino, poi si dà il via libera alla nuova tecnologia.

Nel frattempo, Samsung e SK Hynix spingono nodi 1α e successivi con uso crescente di EUV per diversi layer critici, mentre Micron resta più conservativa, utilizzando ancora DUV su 1β e rimandando seriamente l’adozione di EUV massiva a 1γ (quindi la sesta generazione della classe dei 10 nanometri per la produzione di chip di memoria). L’effetto macroscopico è che, a parità di domanda, la curva di disponibilità di bit DRAM cresce più lentamente rispetto alle generazioni precedenti, perché:

  • i wafer avviati alla produzione, i cosiddetti wafer starts, complessivi vengono tagliati;
  • il tempo di avvio della produzione dei nodi di ultima generazione viene volutamente allungato;
  • il mix di prodotto si sposta gradualmente verso geometrie più avanzate (1β/1γ) che inizialmente non hanno yield (quindi resa) maturi.

Se questo scenario fosse rimasto confinato al mondo PC/smartphone, avremmo assistito al solito ciclo: un paio d’anni di prezzi in salita, qualche trimestre di shortage, poi di nuovo sovrapproduzione. La differenza chiave è che, proprio mentre l’industria rallenta, esplode un nuovo attore vorace di bit, cioè l’IA generativa, con cluster GPU che richiedono quantità di DRAM e NAND mai viste prima, e soprattutto in forme nuove (HBM, SSD enterprise ad altissima capacità, CXL memory expander).

Questa sovrapposizione, dovuta a tagli di produzione intenzionali a valle del crash 2022, più una domanda IA che accelera con 12‑18 mesi di ritardo, genera un disallineamento strutturale: fab, processi e roadmap sono dimensionati per un mondo “pre‑ChatGPT”, ma si trovano a servire un mercato in cui ogni sistema come un un DGX o superpod assorbe decine di terabyte di DRAM equivalente sotto forma di HBM. Il risultato nel 2026 non è solo “la RAM costa di più”, ma diventa un’erosione sistematica della capacità allocabile al segmento consumer.

Il cannibalismo tecnico della HBM: wafer, TSV e resa

Il cuore della crisi è il cannibalismo fra DRAM “piana” (DDR5, LPDDR) e HBM3E/HBM4 destinata agli acceleratori IA. A parità di nodo tecnologico, 1 GB di HBM3E costa alla fab circa tre volte la capacità di wafer necessaria a produrre 1 GB di DDR5 convenzionale. Questo rapporto 3:1, divulgato pubblicamente da Micron e ripreso da più analisti, nasce da una combinazione di fattori fisici e di processo: die più grandi, TSV (quella tecnologia di interconnessione ad alte prestazioni che permette di creare collegamenti elettrici verticali che attraversano interamente un wafer o un chip di silicio), stack bonding, rese più basse e cicli produttivi più lunghi.

In primo luogo, il die HBM ha intrinsecamente una superficie maggiore a parità di bit: le stime parlano di un’area di die 35‑45% superiore rispetto a un die DDR5 di pari capacità, per ospitare bus ampi migliaia di bit e interfacce TSV ad altissima densità. A questo si aggiungono processi addizionali: formazione dei TSV, thinning del wafer, micro‑bumping, stacking a 8‑16 die, molding e test in condizioni elettriche più complesse. Ogni fase aggiuntiva aumenta il rischio di difetti; in uno stack HBM, un solo die difettoso o una singola connessione TSV interrotta possono compromettere l’intero stack.

TrendForce quantifica rendimenti complessivi (incluso il packaging TSV) per HBM inferiori di circa 20‑30% rispetto a DDR5: la resa elettrica per singolo die non è necessariamente disastrosa, ma la resa “per stack” è colpita in modo moltiplicativo. Questo significa che, oltre a consumare più silicio per bit, l’HBM scarta una frazione maggiore di wafer dopo aver già investito in molteplici step ad alto valore (thinning, bonding, molding). Il costo di scarto è quindi sensibilmente più alto rispetto alla DRAM convenzionale.

In termini di operazioni in fab, questo si traduce in:

  • ciclo di produzione di HBM più lungo di 1,5‑2 mesi rispetto a DDR5 (la catena wafer‑to‑stack è più articolata);
  • capacità effettiva (bit prodotti per mese) molto inferiore per una data linea di wafer starts;
  • necessità di dedicare linee di packaging avanzato (2.5D/3D, interposer, simil-CoWoS) che rappresentano un ulteriore collo di bottiglia.

Dal punto di vista economico, però, l’HBM giustifica questo spreco: nel 2Q25 HBM3E viene venduta con un premio di prezzo superiore a 4× rispetto alla DDR5, sempre a parità di capacità. Il fornitore di DRAM cattura quindi un valore per bit enormemente più alto servendo un singolo cliente HPC (NVIDIA, AMD e ad altri hyperscaler) rispetto a centinaia di milioni di moduli consumer. L’allocazione di wafer quindi diventa ovvia: a parità di wafer start, la scelta razionale è deviare capacità da DDR5 a HBM.

Da qui si arriva al fenomeno che la community DIY percepisce nel 2025‑2026 come “la HBM che ruba wafer alla RAM dei gamer”! Fisicamente, i wafer di 1β/1γ che potrebbero produrre die DDR5 per DIMM desktop/notebook vengono convertiti a die “thick” per HBM, poi impilati in stack 8‑Hi o 12‑Hi (che sono in sostanza il numero di chip di memoria sovrapposti verticalmente in un singolo modulo HBM). L’unità economica non è più il modulo UDIMM a 60 € per il mercato retail, ma uno stack HBM3E da centinaia di dollari (o più) agganciato a un acceleratore da decine di migliaia di dollari.

La conseguenza a valle è triplice:

  1. minor disponibilità di die DDR5 per il canale retail;
  2. prezzi di contratto verso gli OEM client in salita costante;
  3. verso il 2025‑2026, cambio dichiarato delle priorità: “HBM first”, “data center first”, poi, se rimane qualcosa, moduli consumer.

HBM4, prevista con stack ancora più alti, bus ancora più larghi e requisiti termici più severi, peggiora ulteriormente il rapporto wafer‑per‑bit rispetto alla DDR5, elevando il tasso di conversione oltre il già sfavorevole 3:1 di HBM3E. Se sommiamo a questo l’incremento di utilizzo di EUV per i nodi più avanzati, che limita la capacità per layer critici, l’effetto è un vero “buco nero” che risucchia silicio e linee di packaging fuori dall’ecosistema consumer.

Abbandono del retail: il caso Micron/Crucial e la fine dell’enthusiast come priorità

 

Crucial Pro RAM DDR5 32GB Kit (2x16GB) 6000MHz CL36, Overclocking Gaming, Intel XMP 3.0 / AMD EXPO, Memoria PC, Nero - CP2K16G60C36U5B : Amazon.it: Informatica

Il caso emblematico è l’uscita di Micron dal business consumer a marchio Crucial: dopo 29 anni, l’azienda decide di smantellare progressivamente la linea di moduli DRAM e SSD retail per concentrare capacità e focus su HBM, SSD enterprise e memoria server per data center IA, pur ritenendo parte della produzione dedicata agli altri assemblatori che, per ora, vendono ancora al mercato consumer. La motivazione ufficiale è semplice e brutale: la divisione consumer ha margini più bassi, domanda volatile, fortissima dipendenza da sconti/promozioni e nessun contratto pluriennale; i clienti IA e data center, invece, garantiscono prezzi medi di vendita più alti, accordi di fornitura di lungo periodo e un posizionamento strategico cruciale.

Vendere un kit DDR5 2×16 GB a un gamer significa gestire scorte fra decine di retailer globali, logistica frammentata, campagne marketing, supporto RMA individuale e una concorrenza feroce su qualche euro di differenza a livello di street‑price. Invece, vendere die DRAM nudi o stack HBM a NVIDIA, AMD o agli hyperscaler significa negoziare milioni di pezzi in lotti prevedibili, con contratti blindati (clausole take‑or‑pay), clausole di capacity reservation e livelli di margine molto più interessanti per bit.

La decisione di Micron non è un’anomalia isolata, ma il segnale di un trend: il brand visibile per l’enthusiast perde importanza rispetto al ruolo di supplier B2B nei data center IA. Dal 2025, Micron conferma che il suo output di 3D NAND e DRAM viene riorientato verso SSD enterprise, HBM e moduli server‑grade, riducendo progressivamente la disponibilità di prodotti per l’utente finale. Le ultime spedizioni Crucial proseguono fino a inizio 2026, giusto per onorare transizioni e contratti residui, ma la direzione è irreversibile, con un termine previsto per le attività b2c/consummer proprio verso la fine di Febbraio 2026!

Questo cambio di paradigma ha alcune conseguenze dirette per il mercato enthusiast:

  • il canale retail perde un fornitore primario con accesso di “prima mano” al silicio Micron;
  • il peso dei brand “puri assemblatori” (Corsair, G.Skill, Kingston, ecc.) aumenta, ma la loro dipendenza dalla capacità DRAM OEM (Samsung, SK Hynix, Micron stessa come fornitore di die) li rende dei meri price‑taker;
  • il potere negoziale dei distributori e dei retailer si riduce, perché non possono più spingere volumi con promozioni aggressive se l’offerta, o la disponibilità, è contingentata e prioritaria per i data center.

Non è un caso che, parallelamente, aumentino le segnalazioni di server farm che acquistano direttamente interi lotti di DIMM ECC/registered e SSD enterprise, bypassando il canale consumer e svuotando le riserve di prodotto ‘buono’ che, in altri cicli, sarebbero finite, magari riconvertite, proprio nei segmenti prosumer e gaming. In questo contesto, per i tre giganti della DRAM (Samsung, SK Hynix, Micron), l’utopia del ‘PC enthusiast’ come motore di prestigio tecnologico diventa un lusso d’altri tempi: la priorità assoluta è saturare i contratti legati all’AI.

Lo stallo (programmato) della NAND: 3D oltre i 300 layer e la deriva verso QLC/PLC

Sul fronte NAND, lo scenario è speculare, ma caratterizzato da un’evoluzione tecnologica ancora più estrema. L’industria delle 3D NAND ha incrementato in modo aggressivo il numero di strati verticali, passando dai circa 64-96 layer della metà degli anni 2010 agli oltre 200-250 delle generazioni 2023-2024, puntando ormai a configurazioni superiori ai 300-350 strati per la produzione avanzata. Tuttavia, il raggiungimento di tali densità spinge lo scaling verticale verso limiti fisici critici:

  • Processi di incisione (etching): l’altezza complessiva della colonna di celle richiede scavi profondi con un grado di uniformità estremamente elevato.
  • Integrità del segnale: mantenere il controllo del canale attraverso centinaia di strati sovrapposti (string-stacking) diventa progressivamente più complesso.
  • Stabilità strutturale ed elettrica: i fenomeni di imbarcamento (warpage), lo stress meccanico e la variabilità della tensione di soglia (threshold voltage) aumentano in modo non lineare.

Oltre una certa soglia (intorno ai 300+ layer), la marginalità di densità di bit per wafer inizia a essere compensata (o sovracompensata) dal peggioramento dei parametri di processo: i cicli si allungano, le rese si complicano e la finestra operativa di tensione per cella si restringe, una volta che si spinge anche il numero di bit per cella verso QLC e, sempre più, PLC (Penta‑Level Cell).

Il risultato è che, per il mondo consumer, diventa economicamente irresistibile ripiegare su QLC/PLC: più bit per cella, più capacità per wafer, SSD da 2‑4‑8 TB vendibili a prezzi ancora “accettabili” per il mercato retail, ma con endurance (TBW), latenze e performance in condizioni reali nettamente inferiori alle celle di memoria TLC. La NAND TLC di alta qualità, con cicli di program/erase maggiori, retention più stabile e performance random più elevate, come descritto già in questo articolo del 2024, viene assorbita dal segmento enterprise: SSD NVMe per data center IA, sistemi di storage per training e inferenza, tier flash nei cluster HPC.

Micron, proseguendo nel percorso che porterà alla chiusura del marchio Crucial, ha annunciato un ritardo per il nodo NAND successivo ai 232 layer, al fine di riallinearlo alle nuove prospettive di domanda e offerta. Ancora una volta, la priorità è evitare sovrapproduzione nel segmento consumer, mantenere prezzi medi di vendita elevati e soprattutto garantire capacità per i clienti data center. In pratica, si accetta uno stallo nella roadmap consumer: le specifiche degli SSD “da gaming” evolvono più lentamente, mentre l’innovazione (ad esempio nuovi schemi di periferiche, controller più complessi, canali NAND ad alta parallelizzazione, interfacce PCIe 5.0/6.0 in ambienti enterprise) viene implementata prima per prodotti server‑grade.

Il consumatore finale percepisce di conseguenza due effetti concreti:

  1. SSD sempre più capienti sulla carta, ma basati su QLC/PLC con cache SLC sempre più aggressive per mascherare limiti intrinseci;
  2. un delta crescente fra SSD enterprise e consumer non solo in termini di endurance e latenza, ma proprio di “classe” di NAND utilizzata.

Per chi assembla PC nel 2026, il vero salto qualitativo non è fra “PCIe 4 vs 5”, ma fra “TLC vera simil-enterprise vs QLC/PLC consumer di massa”. E la TLC “buona”, ancora una volta, è drenata via dai rack IA.

Scenari IA: bolla o nuovo stato stazionario?

Il chatbot AI di Google, Gemini, ha implementato un nuovo logo per abbinarsi all'icona recentemente rinnovata dell'azienda. : r/logodesign

Gemini, uno dei protagonisti degli LLM del momento

L’industria delle memorie è storicamente soggetta a cicli di espansione e recessione. È quindi naturale chiedersi se il dominio dell’IA sul mercato DRAM/NAND sia una bolla destinata a sgonfiarsi come il mining GPU post‑2022, o se rappresenti una nuova normalità.

Ho pensato quindi a due scenari estremi che vi espongo qua sotto.

Scenario A: scoppio della bolla IA

In questo scenario, tra la fine del 2026 e il 2027, la crescita degli investimenti per le infrastrutture IA subirà una brusca frenata: i modelli di base diventeranno prodotti di massa, l’utilità marginale derivante dall’aumento dei parametri si ridurrà e, parallelamente, normative e costi energetici argineranno l’espansione incontrollata dei cluster. Le grandi piattaforme cominciano a sfruttare meglio le risorse esistenti con ottimizzazioni software, sparsity, quantizzazione estrema e inferenza più efficiente, riducendo quindi la pressione sulla domanda di HBM e DRAM server.

Dal punto di vista della catena di approvvigionamento, significa che:

  • la capacità HBM e DDR5 server viene liberata improvvisamente;
  • le linee di wafer per HBM si trovano sovradimensionate rispetto alla domanda effettiva;
  • i fornitori, legati a contratti take‑or‑pay, potrebbero affrontare fasi di sottoutilizzo delle fab.

L’esperienza del mining GPU 2018 e 2022 suggerisce che, in caso di calo improvviso della domanda, i prezzi possono collassare rapidissimamente. Per la DRAM e la NAND, però, il meccanismo è più rigido: i contratti con data center sono spesso pluriennali, e l’infrastruttura non viene semplicemente dismessa ma riutilizzata per carichi di lavoro non strettamente generativi. Però, un rallentamento significativo esporrebbe la sovra capacità accumulata, generando un ciclo di prezzi in caduta e potenzialmente un ritorno di promozioni aggressive nel retail, con kit DDR5 64 GB venduti a prezzi che oggi sembrano fantascienza.

La differenza rispetto al post‑mining è che, questa volta, la filiera della memoria è già stata “ristrutturata” per servire i data center. Un crash di domanda IA non riporterebbe automaticamente le priorità sull’enthusiast: è plausibile che, per un certo periodo, i produttori preferiscano assorbire l’urto migliorando i margini (ad esempio riducendo prezzi solo fin dove necessario per mantenere i contratti enterprise) piuttosto che tornare a svendere moduli retail. Il beneficio per il consumatore ci sarebbe, indubbiamente, ma arriverebbe in ritardo e mediato da logiche B2B.

Scenario B: IA strutturale, la RAM consumer diventa “lusso di seconda fascia”

Nello scenario opposto, invece, la domanda IA si mantiene strutturalmente elevata. Pur senza un’esplosione esponenziale, la crescita resta costante, alimentata da tre fattori chiave:

  • Diffusione capillare di modelli di medie dimensioni nei settori tradizionali (finanza, sanità, manifatturiero e pubblica amministrazione);
  • Sviluppo di modelli verticali ad alta intensità di dati, caratterizzati da multimodalità e agenti autonomi, che richiedono soluzioni di storage e memoria sempre più integrate con le unità di calcolo;
  • Adozione di espansori di memoria CXL nei data center per superare i limiti di capacità della DRAM collegata direttamente ai socket della CPU, favorendo la nascita di un nuovo ecosistema di ‘memoria a pacchetto’ che va oltre la DRAM tradizionale.

In questo contesto, le memorie HBM restano un bene scarso, con un rapporto di resa wafer/bit che peggiora passando alle HBM4 e generazioni successive. Le HBM3E continuano a essere vendute con sovrapprezzi (premium price) molto elevati rispetto alle DDR5, confermandosi come prodotti strutturalmente costosi. La DRAM consumer, in particolare le DDR5 per desktop e notebook, diventa un bene di ‘seconda fascia’: perde il primato nella catena del valore e finisce per subire le decisioni strategiche del settore.

Il risultato per il mercato consumer è una sorta di inflazione permanente:

  • la base di 16 GB, considerata standard nel 2020‑2022, diventa rapidamente insufficiente per OS, browser, gaming moderno e applicazioni prosumer;
  • i 32 GB si affermano come minima raccomandazione realistica per chiunque faccia qualcosa di più del semplice office/gaming leggero;
  • i prezzi per kit 2×16 e 2×32 GB restano stabilmente elevati, con poca differenza fra listino “normale” e periodi promozionali.

La roadmap DDR6 ne risente di conseguenza: se la DRAM high‑end più redditizia è HBM, non c’è un incentivo a correre nello sviluppo e nell’avvio di produzione di DDR6 consumer; l’introduzione può essere diluita, privilegiando in prima battuta DIMM DDR6 server, con latenze e frequenze ottimizzate per piattaforme datacenter, e solo in un secondo momento, e in volumi ridotti, l’arrivo di DDR6 su desktop mainstream.

Il paradosso è che l’utente enthusiast potrebbe vedere GPU e CPU avanzare più rapidamente delle memorie di sistema in termini di salto generazionale percepito.

Geopolitica e dualismo di mercato: CHIPS Act vs CXMT

CXMT DRAM

A rendere tutto ancora più complesso interviene la geopolitica. Il CHIPS Act Statunitense, insieme a misure Europee analoghe, mira a riportare onshore parte della capacità produttiva avanzata, incentivando investimenti in fab e, più specificamente, in tecnologie strategiche come DRAM avanzata, 3D NAND e packaging HBM. In parallelo, vengono imposte restrizioni significative sull’export di tecnologie di memoria avanzata verso la Cina, soprattutto quando destinate a data center e applicazioni IA sensibili.

In risposta, la Cina accelera gli sforzi per sviluppare una filiera DRAM e NAND domestica: CXMT emerge come player chiave sul fronte DRAM, affiancata da altri attori nel campo NAND, come YMTC, nel tentativo di ridurre la dipendenza da Samsung, SK Hynix e Micron. A breve termine, però, questi produttori “emergenti” si concentrano su nodi meno spinti (tranne YMTC dove sullo storage fa e ha fatto da frontiera, grazie anche alla tech proprietaria xtacking) e su segmenti dove le restrizioni occidentali sono meno stringenti.

Si delinea così il rischio di un mercato a due velocità:

  • da una parte, DRAM e NAND “premium” prodotte su nodi 1β/1γ, con EUV intensivo, elevata qualità e rese stabili, destinate principalmente a clienti data center occidentali e ad alcuni OEM PC di fascia alta;
  • dall’altra, memoria più economica ma meno performante e potenzialmente più variabile in termini di qualità, proveniente da produttori cinesi su nodi meno avanzati, destinata a mercati emergenti e a segmenti price‑sensitive.

Se le restrizioni si irrigidiscono, potremmo assistere a una segmentazione ancora più netta: moduli DRAM e SSD “low‑cost” alimentati da chip di provenienza cinese, con caratteristiche elettriche e di endurance meno prevedibili, e una fascia “alta” dove pochi brand certificati (spesso verticalmente integrati) dominano l’offerta di memoria per sistemi high‑end, workstation e piattaforme gaming/creator premium. In mezzo, la classica fascia media rischia letteralmente di scomparire o di assottigliarsi in una nicchia di prodotti rebadged, spesso fuori stock o venduti a prezzi non proporzionati alle prestazioni.

Per l’utente europeo, come chi assembla PC in Italia, questo dualismo può tradursi in scaffali popolati da:

  • moduli DDR4/DDR5 apparentemente convenienti, ma con die di origine non sempre trasparente, timing più conservativi, potenziale variabilità di binning;
  • pochi modelli “top” con chip binned Samsung/SK Hynix/Micron e prezzi che ricordano più il mercato workstation che quello consumer.

Fortunatamente, però, possiamo almeno già iniziare a mitigare l’idea di memorie RAM DDR5 di stampo Cinese meno performanti come normalmente ci verrebbe in mente e appena descritto, dato che i dati diretti di primo acchito, come osservato nei recenti test di testate di settore su moduli di memoria CXMT, come Hardware Unboxed, sono, in realtà, molto promettenti.

Meno promettente, invece, è il discorso prezzi, in quanto non si allineano con le nostre speranze. Ad esempio, i kit 2x16GB DDR5 con chip di memoria di CXMT, come i moduli di Kingbank e similari, vedi Juhor, non hanno prezzi così concorrenziali, i quali si discostano davvero di poco rispetto a quanto già abbiamo sul mercato consumer attuale, allineandosi purtroppo alle soluzioni già presenti e conosciute.

Inoltre, l’attuale questione della Guerra in Iran e la conseguente chiusura dello Stretto di Hormuz non aiutano, in quanto queste crisi possono significare aumenti considerevoli dei costi delle materie prime, energetici e produttivi a livello globale, portare anche crisi lato logistico per la chiusura degli spazi aerei, contribuendo ulteriormente ad un aumento dei costi di produzione a monte ed esacerbare sia l’effetto scarsità sul prodotto finale, che sia DDR5 o HBM, che speculativo. I tempi, insomma, non sono dalla nostra parte.

Strategie pratiche per il 2026: sopravvivere all’eclissi

Arriviamo quindi alla domanda che interessa davvero la community pc building/diy: cosa fare, concretamente, nel 2026 in un contesto in cui la memoria è cara, la buona NAND scarseggia e la HBM si è presa la parte del leone dei wafer?

RAM: 32 GB come baseline (e oltre)

Per l’utilizzatore enthusiast o power‑user nel 2026, 32 GB DDR5 non sono più un lusso, ma la base minima sensata per sistemi senza limitazioni. Il motivo non è solo il gaming “tripla A” con asset più pesanti, ma l’aumento del carico di sistema: browser con decine di tab, applicazioni di produttività, VM leggera, qualche istanza locale di modello AI quantizzato, tutto concorre a saturare i 16 GB con facilità.

In un contesto di prezzi alti e supply incerta, la strategia più razionale è:

  • se si ha già una piattaforma DDR5, puntare a 2×16 GB con un buon equilibrio fra frequenza e timing (evitando la fissazione per i kit estremi proprio ora che il costo per GB è alle stelle);
  • se si è in fase di nuova build, considerare seriamente 2×32 GB se il carico di lavoro comprende editing pesante, virtualizzazione, sviluppo, strumenti di AI locale.

L’idea di “prendere il minimo oggi e upgradare fra un paio d’anni” diventa più rischiosa: la scarsità strutturale potrebbe mantenere i prezzi alti anche a medio termine, e l’uscita di brand come Crucial dal retail riduce la probabilità di trovare “occasioni” con silicio di prima scelta rebrandizzato.

Per i kit DDR5 2x8GB, invece, l’idea è quella di relegarli a sistemi con pochi use-case e per risparmiare nell’immediato. Se dovete solo giocarci, ad esempio, o utilizzarli solo in campo multimedia/office leggero, possono andare per non far alzare troppo il budget di una build moderna, specie se intesa come low budget.

DDR4: il mercato dell’usato come valvola di sfogo

DDR4 resta ancora una piattaforma pienamente valida nel 2026, soprattutto per chi non ha bisogno delle ultime CPU top tier e può vivere benissimo con un Ryzen 5000 o un Intel 12a/13a/14a gen ben configurati. La produzione DDR4 viene progressivamente ridotta mentre Samsung, SK Hynix e Micron spostano capacità verso DDR5 e HBM, ma il mercato dell’usato, e dei fondi di magazzino, offre opportunità interessanti.

Per chi ha un sistema DDR4 e valuta un upgrade, le scelte strategiche possono essere:

  • partire da una baseline di 16GB per sistemi tuttofare e senza troppe pretese;
  • saturare lo slotting con 32‑64 GB di DDR4 usata di buona qualità;
  • rimandare il salto a DDR5 quando i prezzi saranno più prevedibili o quando si ha necessità di un salto prestazionale oggettivo (ad esempio per workload produttivi o gaming ad alto livello).

Nel mercato dell’usato, tuttavia, bisogna tenere d’occhio provenienza e binning: con l’ascesa di fornitori non‑top‑tier, il rischio di moduli costruiti con die borderline o mid‑bin reimpacchettati aumenta. Vale la pena privilegiare lotti documentati, venditori affidabili e, se possibile, moduli noti nella community per la loro stabilità in overclock/tuning dei timing, come i famosi Samsung B-Die.

SSD: scegliere la NAND, non solo il protocollo

Nel 2026, la distinzione fra “PCIe 4” e “PCIe 5” è ormai meno rilevante della domanda: “questo SSD usa TLC di qualità o QLC/PLC borderline?”. Con la TLC di fascia alta assorbita dal segmento enterprise IA, molti SSD consumer scendono verso QLC o addirittura PLC per mantenere capacità elevate a prezzi digeribili.

L’approccio consigliabile è:

  • per il drive di sistema e applicazioni critiche, privilegiare modelli che dichiarano, o che sono stati verificati, come TLC, anche accettando tagli di capacità leggermente inferiori, possibilmente anche con DRAM cache;
  • usare SSD QLC/PLC principalmente come storage “freddo” (librerie, giochi, archivi) dove endurance e performance random sono meno critici;
  • diffidare di modelli “aggressivi” in TB per euro che non documentano chiaramente il tipo di NAND.

Per chi ha workload pesanti (editing, compilazioni massicce, dataset IA locale), l’ideale rimane affiancare un SSD TLC “buono” per il working‑set e uno o più SSD più economici per l’archivio. Il mercato enterprise/ex‑datacenter usato potrebbe diventare una fonte interessante di unità TLC con altissima endurance, ma qui entrano in gioco conoscenze più spinte (valutazione dati SMART, cicli residui, ecc.).

In ogni caso, per le raccomandazioni dirette che riguardano anche i modelli, la vecchia e la nuova tier list fatta su Reddit sono strumenti che reputo fondamentali per una scelta consapevole e vi consiglio di utilizzarli a vostro vantaggio.

CXL e memoria disaggregata: cosa significa per il PC builder?

A livello data center, la risposta strutturale alla fame di memoria non è solo “più DRAM su slot”, ma la creazione di un livello di memoria disaggregata tramite CXL (Compute Express Link): moduli di memoria CXL che si comportano come “pool di RAM” a bassa latenza, collegati via PCIe e accessibili da più CPU. Questo non tocca direttamente il PC consumer, ma ha due implicazioni indirette:

  • sposta ulteriori volumi di DRAM verso moduli specializzati CXL, sottraendo ancora capacità al mondo desktop/laptop;
  • incentiva i produttori a ottimizzare la supply per questi form factor, lasciando al canale consumer soprattutto i volumi residui.

Nel medio termine, non è da escludere che alcune idee di “memory pooling” arrivino anche in ambito prosumer (workstation condivise, sistemi multi‑tenant), ma per il builder domestico 2026 il punto è più cinico: un altro segmento affamato di memoria appare all’orizzonte, e non sarà certo il PC gaming a dettare legge sulle roadmap DRAM.

Le buone notizie non mancano?

Come si è osservato recentemente, sul mercato Europeo, e nella fattispecie quello Tedesco, i prezzi delle memorie RAM DDR5 consumer hanno subito un leggero calo.

Secondo le più recenti analisi di mercato e così come osservato anche su Reddit, un kit medio da 32 GB, che a luglio 2025 costava circa 90/100 €, è arrivato a costare oltre 430-470 € all’inizio di febbraio 2026. Recentemente, però, si sono registrate correzioni al ribasso, con cali di circa 50-80 € per alcuni modelli di brand come Corsair e Kingston, cosa che, però, non si è ancora riflessa sul mercato USA.

Nonostante le poche scorte, l’andamento è chiaro e si riesce a notare come si fosse raggiunto una sorta di plateau nei prezzi dell’offerta mainstream. Purtroppo molto probabilmente questo dato sta a significare anche una contrazione dei consumi in merito a questa tipologia di prodotto, con tutte le conseguenze del caso.

Quindi se da una parte il consumatore può ottenere lo stesso prodotto a prezzi inferiori, altrove i prezzi sono rimasti alti e il mercato DIY ne sta risentendo concretamente.

Ci rimane solo la caccia alle offerte?

Al di là dell’aspetto puramente tecnico per quanto riguarda la scelta della quantità di memoria o il tipo di kit di memoria più appropriato da usare in base ai vari casi d’uso, ci sono anche alcune strategie che possono essere messe in atto sotto l’aspetto pratico, come quello di sapere dove andare a cercare opportunamente le offerte.

Spesso sia qui che su Reddit ho spiegato dove reperire quelle migliori. Uno dei punti principali è sicuramente l’utilizzo di tool come Keepa o Camel Camel Camel, dov’è possibile salvare il prodotto da tracciare all’interno del proprio account con un prezzo limite sotto il quale far scattare una notifica dedicata. La stessa cosa è fattibile su altri strumenti come Idealo o Trovaprezzi.

Altre strategie prevedono l’utilizzo di canali Telegram dedicati al PC Building DIY, come quelli dei volti più noti nell’ambiente tech italiano, oppure quelle in cui è previsto l’uso di bot personali, che potete scrivervi in python o altri linguaggi di programmazione, come il Tracker Bot di ItalyHardware, ancora in WIP ma funzionante e potete farlo andare in locale

È buona norma, alla luce di quanto detto in quest’articolo, andarsi a cercare le RAM anche su AliExpress, dove possiamo reperire più facilmente moduli di memoria con chip di CXMT, come quelle a brand Kingbank o Juhor, precedentemente già menzionate, sfruttando al massimo i vari periodi di promozioni, come quelle del recente Capodanno Cinese.

Solo una volta in possesso di quante più frecce da poter scoccare col nostro arco potremo dire di avere a disposizione tutti gli strumenti necessari per navigare con successo nel mercato delle offerte dedicate alle RAM. Chiaramente lo stesso discorso è applicabile su qualsiasi altro tipo di componente.

Conclusione operativa per le community

All’inizio del 2026, la scarsità di memoria non è quindi un incidente di percorso, ma l’effetto combinato di scelte deliberate e di una domanda IA che ha spostato il baricentro del valore dalla DIMM consumer allo stack HBM multi‑miliardario.

Per le community DIY, come quella di r/ItalyHardware, e i lettori di Assemblo Computer, le linee guida pragmatiche nel 2026 possono essere riassunte così:

  • se siete su DDR5, trattate 32 GB come baseline e pianificate gli upgrade come investimenti a lungo termine, non come spese temporanee da “aggiustare più avanti”, e relegate la scelta dei kit da 16GB solo per un risparmio immediato o per casi d’uso più limitati o per build low budget;
  • se siete su DDR4, sfruttate al massimo il mercato dell’usato di qualità per estendere la vita della piattaforma, evitando salti affrettati verso DDR5 a prezzi gonfiati;
  • sugli SSD, cercate di risalire al tipo di NAND prima ancora di fissarvi su PCIe 5.0 o sul valore di velocità read/write sequenziale dichiarato in copertina;
  • considerate che il segmento enthusiast non è più il cliente “di riferimento” per i produttori di DRAM e NAND: le loro decisioni saranno guidate dai cluster IA e dai data center, e noi ci muoveremo negli spazi che restano.

In altre parole, l’eclissi della memoria non significa che non potremo più costruire PC potenti, ma che dovremo farlo con maggiore consapevolezza dell’economia del silicio che c’è dietro a ogni GB: capire da dove arriva, a chi era “destinato” davvero e quanto siamo disposti a pagare per strapparlo, per qualche anno ancora, alla gravità dell’IA. Fino allo scoppio della bolla, se mai accadrà.

LLAP 🖖


Fonti:

Deprezzamento RAM mercato EU

Tagli DRAM, nodi 1β / 1γ, EUV, rallentamento roadmap

HBM3E / HBM4, rapporto wafer 3:1, yield e TSV

Uscita Micron dal retail Crucial, pivot su HBM e data center

Domanda IA, analisi macro sulla memoria 2026

DDR4, riduzione produzione legacy, ascesa cinese

DDR4 ancora in produzione fino al 2026

Foto Copertina di Andrey Matveev su Unsplash

CONDIVIDI

Facebook
Twitter
LinkedIn
Reddit
Pinterest
WhatsApp
Telegram
Skype
Email
Stampa

SEGUICI SUI NOSTRI CANALI SOCIAL

LEGGI GLI ALTRI ARTICOLI DELL'AUTORE

GLI ARTICOLI PIU' RECENTI

ARTICOLI CORRELATI

COMMENTI

5 2 voti
Voto dell'Articolo
Sottoscrivi
Notificami
guest
0 Commenti
I più vecchi
I più nuovi I più votati
Inline Feedbacks
Guarda tutti i commenti
Indice
0
Condividi il tuo pensiero, clicca qui e commentax