Introduzione
Una CPU server non è soltanto “il componente più potente” — è la parte che stabilisce il limite di scalabilità, definisce l’equilibrio dell’intera piattaforma (memoria, PCIe, storage, rete) e incide direttamente sul costo totale di possesso su un orizzonte di 3–5 anni. Un errore nella scelta della CPU raramente si manifesta “immediatamente”: più spesso si trasforma in sintomi cronici — picchi costanti di latenza del database, carenza di linee PCIe per NVMe/GPU, impossibilità di espandere la memoria o un aumento improvviso dei costi di licenza o dell’energia.
I processori server differiscono dai chip desktop non solo per il numero di core. Conta di più l’ecosistema server costruito attorno a loro: supporto alla memoria ECC, funzionalità di affidabilità e diagnostica (RAS), supporto di piattaforma con ciclo di vita lungo, comportamento prevedibile 24/7 sotto carico, compatibilità validata con schede madri, RAID/HBA, NIC, hypervisor e sistemi operativi enterprise. Inoltre, capacità I/O estese: più canali di memoria e più linee PCIe, che in un server reale spesso sono più importanti di “+200 MHz in turbo”.
Questo articolo è una guida pratica per sysadmin, ingegneri DevOps e IT manager che scelgono CPU per carichi di lavoro specifici: applicazioni web, database (OLTP/OLAP/In-Memory), virtualizzazione, Kubernetes, storage software-defined e AI/ML. Analizzeremo le caratteristiche chiave, forniremo formule ed esempi di calcolo (inclusi elettricità e TCO), mostreremo configurazioni tipiche e concluderemo con una checklist che permette di decidere senza ulteriori “googling”.
Principali produttori: Intel Xeon e AMD EPYC
Intel Xeon (ecosistema server e prevedibilità della piattaforma)
Intel è storicamente forte in compatibilità enterprise, maturità della piattaforma e ampia disponibilità presso i vendor. La gamma “universale” più comune è Xeon Scalable: copre tutto, da modelli relativamente accessibili per compiti tipici a CPU ad alte prestazioni per database, analytics e virtualizzazione. Nell’ecosistema Xeon non contano solo i core — contano anche le capacità della piattaforma: numero di canali di memoria, supporto PCIe Gen5, funzioni di sicurezza e telemetria e ottimizzazioni per i carichi enterprise più comuni. La lineup ufficiale Xeon Scalable e il suo posizionamento sono disponibili sulla pagina Intel.
Caratteristiche che spesso emergono nei carichi reali:
- Hyper-Threading (thread) — aiuta nei carichi paralleli, ma non sostituisce i core fisici (soprattutto con SLO di latenza rigorosi).
- Istruzioni vettoriali (incluso AVX-512 in alcuni compiti) — evidenti in HPC/calcolo scientifico, alcune analytics e carichi multimediali. (Importante: l’effetto dipende dal software e da come è stato compilato/configurato.)
AMD EPYC (molto I/O e memoria “di default”, alta densità)
Le recenti generazioni AMD EPYC puntano su elevata densità di calcolo e soprattutto su I/O: molte linee PCIe, tanti canali di memoria, alta banda di memoria — elementi spesso critici per virtualizzazione, container, analytics e sistemi di storage. Questo può essere importante a seconda del software: alcuni prodotti si licenziano per socket e una singola CPU AMD con molti core può risultare più conveniente di una piattaforma Intel dual-socket.
Famiglie comunemente considerate per acquisti nel 2026:
- EPYC 9004 (Genoa) — EPYC di 4ª generazione per data center moderni.
- EPYC 9005 (Turin) — EPYC di 5ª generazione (Zen 5 / Zen 5c) come passo successivo in prestazioni ed efficienza.
AMD sottolinea anche un’“ampia gamma” di conteggi core/profili di potenza e posiziona EPYC per cloud/enterprise nelle proprie pagine prodotto. (AMD)
Tabella: confronto tra produttori (semplificato, per scelta pratica)
| Criterio | Intel Xeon (Scalable) | AMD EPYC (9004/9005) |
|---|---|---|
| Prestazioni “per core” | Spesso forti nei compiti dove contano single-thread/latenza (dipende dal modello) | Varia molto per gamma; spesso vince “per server” grazie alle risorse di piattaforma |
| Memoria (canali/banda) | Fino a 8 canali DDR5 per socket nelle piattaforme Scalable tipiche | 12 canali DDR5 e banda elevata — vantaggio chiave di EPYC 9004/9005 |
| PCIe e I/O | Spesso 80 linee PCIe Gen5 per socket | 128 linee PCIe Gen5 in 1P — argomento forte per NVMe/GPU/rete |
| Ecosistema (server/firmware/compatibilità) | Molto ampio, molte configurazioni validate | Ampio e in rapida crescita, soprattutto nel cloud e nell’alta densità |
Caratteristiche chiave della CPU (e come “si vedono” in un server)
3.1 Numero di core e frequenza: dove sta la verità e dove sta il marketing
Core fisici vs thread (SMT/Hyper-Threading). I thread (SMT) migliorano le prestazioni quando un carico parallelizza bene e si ferma su “bolle” della pipeline (attesa memoria/branch). Ma i thread non equivalgono a core aggiuntivi: per database con requisiti di latenza stringenti, o per compiti CPU-bound (compilazione, alcuni calcoli), i core fisici sono di solito più importanti.
Quando servono molti core:
- virtualizzazione (molte VM/container);
- cluster Kubernetes con alta densità di pod;
- web server e applicazioni con molte richieste in parallelo;
- analytics/ETL, batch job, molti servizi di storage.
Quando conta la frequenza (e la bassa latenza):
- database OLTP (transazioni brevi, molti lock/contesa, latenza critica);
- applicazioni legacy con parallelismo limitato;
- alcuni componenti middleware dove conta il tempo di risposta single-thread.
Base vs Turbo — cosa significa davvero.
- Frequenza base — la frequenza che la CPU è in grado di sostenere in modo garantito entro il proprio envelope termico/di potenza sotto carico prolungato (semplificando).
- Turbo/Boost — una frequenza “di picco” quando c’è budget termico/di potenza disponibile, spesso con un numero limitato di core attivi che possono salire più in alto.
Conclusione pratica: se stai comprando “32 core perché il turbo è 3,9 GHz”, assicurati che il tuo carico giri davvero su un numero limitato di core o possa mantenere il boost richiesto nel tuo profilo di alimentazione/raffreddamento. Altrimenti avrai “molti core a frequenza moderata” — talvolta va bene (virtualizzazione) e talvolta no (OLTP).
3.2 Cache: perché L3 è spesso più importante di un “+200 MHz”
Per i server, la cache è un buffer tra core e memoria. Quando il working set (indici, pagine DB “calde”, metadata) colpisce più spesso L3, diminuiscono gli accessi alla RAM, cala la latenza e aumenta la prevedibilità.
In pratica:
- Database OLTP beneficiano di una L3 più grande perché diminuiscono i cache miss su indici “caldi” e strutture interne.
- OLAP/analytics ne beneficia anche, soprattutto con scansioni/aggregazioni e riuso ripetuto dei dati.
- Virtualizzazione ottiene una latenza più stabile quando hypervisor e pagine “calde” delle VM restano più spesso vicine ai core.
Puoi vedere facilmente la tipica distribuzione della L3 su modelli reali: ad esempio, AMD EPYC 9554 ha 256 MB di L3. Anche Intel Xeon Platinum 8580 di fascia alta offre grande capacità di cache e alta densità di core.
3.3 Supporto memoria: DDR4 vs DDR5, canali, capacità, tipi di DIMM
DDR4 vs DDR5. Negli acquisti 2026, DDR5 è già lo standard de-facto per le piattaforme nuove: banda più alta e migliore scaling in configurazioni multi-CPU/ad alto numero di core. Tuttavia DDR4 può ancora essere economicamente giustificata — così come selezionare una generazione di server leggermente precedente dove la piattaforma costa meno e il carico atteso non satura la banda di memoria (soprattutto considerando i prezzi della memoria a inizio 2026).
Numero di canali di memoria e banda di memoria sono critici per:
- database (soprattutto In-Memory e analytics);
- virtualizzazione ad alta densità di VM;
- molti compiti di elaborazione dati e storage (ad es. Ceph su nodi saturi).
A livello di piattaforma, le differenze sono evidenti:
- Intel Xeon Scalable in genere offre fino a 8 canali di memoria.
- AMD EPYC 9004/9005 offre 12 canali DDR5 come vantaggio di piattaforma di base.
La capacità massima di memoria dipende non solo dalla CPU, ma anche dal server (numero di slot DIMM e supporto RDIMM/LRDIMM). I vendor dichiarano esplicitamente i limiti: ad esempio, HPE ProLiant DL360 Gen11 indica fino a 8 TB DDR5 e I/O PCIe Gen5.
RDIMM vs LRDIMM.
- RDIMM è di solito più economica ed è sufficiente per la maggior parte dei carichi.
- LRDIMM si usa quando serve la massima capacità per socket (più costosa, talvolta con sfumature su frequenza/latenza).
Tabella: memoria e I/O nelle linee più diffuse (riferimento pratico)
| Linea | Memoria | Canali | PCIe | Commento |
|---|---|---|---|---|
| Intel Xeon Scalable (esempio: Gold 6430) | DDR5 | 8 | 80 linee Gen5 | Ecosistema forte, “generalista” bilanciato |
| AMD EPYC 9004/9005 | DDR5 | 12 | 128 linee Gen5 | Alta densità di I/O e memoria “di default” |
| Server entry (esempio: Dell PowerEdge T360) | DDR5 ECC UDIMM | dipende dalla piattaforma | dipende | Fino a 128 GB ECC UDIMM — tipico per PMI/filiali |
3.4 Linee PCIe: NVMe, GPU e 100G — dove la CPU decide tutto
PCIe 4.0 vs 5.0. PCIe Gen5 raddoppia la banda per linea rispetto a Gen4. Questo diventa importante quando:
- hai molti dischi NVMe (soprattutto U.2/U.3/EDSFF e RAID su rete);
- hai più GPU;
- usi NIC veloci (25/100/200G) e SmartNIC/DPU.
Quante linee ti servono davvero? Un modo semplice è contare i dispositivi per “larghezza”:
- un SSD NVMe è quasi sempre x4;
- una NIC 100G è spesso x16 (dipende dal modello);
- una GPU è di solito x16.
Esempio di allocazione (un’idea, non l’unico schema):
- 8× NVMe (8 × x4 = 32 linee)
- 2× NIC 100G (2 × x16 = 32 linee)
- 4× GPU (4 × x16 = 64 linee)
Totale: 32 + 32 + 64 = 128 linee — un caso “ideale” tipico per una CPU che offre 128 linee PCIe (ad esempio, una piattaforma EPYC).
Su modelli Intel specifici puoi vedere quante linee sono disponibili per socket: ad esempio, Xeon Gold 6430 specifica 80 linee PCIe.
Conclusione pratica: se pianifichi “tanto di tutto”, PCIe non è “secondario” — spesso è il limite principale.
3.5 Potenza (TDP) e costi: esempio di calcolo
TDP non è “il consumo reale a parete”, ma è un buon riferimento per il dimensionamento termico e per capire la classe della CPU. Nella realtà, un server può consumare di più/di meno a seconda di turbo, profili di potenza BIOS, utilizzo, numero di DIMM, dischi, ecc.
Per evitare di tirare a indovinare, usa un calcolo approssimativo basato sulla potenza media nel tuo carico. Per esempio, supponiamo:
- il server in media consuma 250 W (0.25 kW) per CPU+piattaforma sotto carico reale;
- il prezzo dell’energia è $0.12/kWh (esempio);
- funziona 24/7 per 5 anni.
Calcolo:
- ore per anno: 24 × 365 = 8760
- consumo annuo: 0.25 × 8760 = 2190 kWh
- costo annuo: 2190 × 0.12 = $262.80
- costo 5 anni: 262.80 × 5 = $1314.00
Ora immagina di aver scelto una CPU/profilo che aggiunge +100 W di consumo medio (0.10 kW) per un piccolo guadagno di prestazioni che non ti serve. L’“extra” in 5 anni è:
- 0.10 × 8760 × 0.12 × 5 = 876 × 0.12 × 5 = 105.12 × 5 = $525.60
E questo senza considerare raffreddamento e rack/UPS. Morale: una “CPU più economica” non è sempre più economica nella realtà.
3.6 Multi-socket (1P vs 2P) e NUMA: quando serve davvero una seconda CPU
1P (single socket) è più semplice: meno effetti NUMA, tuning più facile e spesso latenza più prevedibile. Detto questo, AMD ha anche tuning NUMA: su un singolo socket puoi configurare da 1 a 4 nodi NUMA e, a seconda del carico, questo può e deve essere ottimizzato.
2P (dual socket) offre più core, più memoria, più PCIe e spesso un limite di scalabilità più alto.
Ma 2P ha un costo: NUMA. La memoria è “più vicina” al suo socket e se un’applicazione accede spesso a memoria remota, la latenza aumenta e le prestazioni calano. Questo è critico per:
- database OLTP,
- alcuni servizi sensibili alla latenza,
- virtualizzazione densa senza pinning NUMA corretto.
Regola pratica:
- Scegli 2P se ti servono davvero memoria/PCIe/core oltre ciò che 1P può offrire, o se il server consolida molti carichi eterogenei.
- Resta su 1P se il KPI principale è la latenza e la semplicità operativa, e un socket ha risorse sufficienti con margine.
3.7 Istruzioni specializzate e acceleratori: quando conta
- AES-NI / cifratura hardware: accelera TLS, VPN, cifratura disco. Sulle CPU server moderne è in genere un “must-have” di base.
- AVX-512: può dare un boost evidente in HPC/calcolo scientifico, alcune analytics e software specializzato (se usa queste istruzioni).
- Accelerazione AI/ML (es. VNNI/DL accelerators): rilevante quando fai inferenza su CPU o acceleri certe operazioni di matrice senza GPU. La chiave è verificare benchmark per framework/versione esatti.
Tipi di workload e requisiti: tradurre il compito in parametri CPU
4.1 Web server e applicazioni
Profilo: molte richieste parallele; conta il throughput stabile e servono abbastanza core, ma la frequenza influisce anche sulla latenza p95/p99.
Raccomandazione tipica: 16–32 core, frequenza moderata, memoria adeguata e I/O veloce.
Esempio di logica di scelta: Intel Xeon Silver/Gold o AMD EPYC di fascia media. Come riferimento EPYC, modelli della classe EPYC 9254 (serie 9004) sono spesso considerati un’opzione bilanciata core/frequenza per applicazioni generali.
4.2 Database
OLTP (transazionale)
Profilo: molte operazioni brevi, lock, journaling; latenza critica.
Ti serve:
- alta frequenza turbo sui core “di lavoro”;
- memoria veloce e banda sufficiente;
- latenza prevedibile (spesso migliore con 1P o con 2P/NUMA ben ottimizzato).
Classe CPU esempio per OLTP: Intel Xeon Gold con focus sulla frequenza (per esempio, Gold 6538N è spesso categorizzato come opzione ad alta frequenza/orientata ai DB nella lineup).
OLAP (analitico)
Profilo: scansioni, aggregazioni, query parallele, batch job.
Ti serve:
- molti core (32–64+);
- cache ampia;
- alta banda di memoria;
- PCIe sufficiente per NVMe veloci e rete.
DB In-Memory (Redis / approccio stile SAP HANA)
Profilo: tutto in memoria; banda e capacità sono la chiave.
Ti serve:
- massimo numero di canali di memoria;
- alta velocità di memoria e popolamento DIMM corretto;
- grande capacità totale di RAM.
Tabella: indicazioni rapide di configurazione per database
| Tipo di database | CPU | Memoria | I/O |
|---|---|---|---|
| OLTP | meno core ma più veloci; alta frequenza turbo | alta frequenza/banda, capacità sufficiente | NVMe/journal, bassa latenza |
| OLAP | molti core, cache ampia | molta memoria e banda | NVMe/throughput, rete |
| In-Memory | bilanciamento tra frequenza e core | massimo canali e capacità | spesso secondario, ma la stabilità è importante |
4.3 Virtualizzazione
Profilo: molte VM diverse, competizione per CPU/cache/memoria; conta una latenza “piatta”.
Dimensionamento pratico: una regola empirica comune è 4–6 vCPU per core fisico (dipende molto dal profilo VM). Vale anche notare che questo può diventare un anti-pattern per VM critiche (più vCPU dei core/thread fisici) — si chiama oversubscription CPU e, sotto carico serio, può non dare i risultati migliori.
Stima grezza: se punti a 30–50 VM a densità media, un punto di partenza ragionevole è 32–64 core fisici, più margine.
Esempi classe 2P:
- 2× Intel Xeon Gold 6430 (un socket tipico da 32 core in 2P porta a 64 core totali).
- 2× AMD EPYC 9334 (riferimento: 32 core per socket in 2P).
Punto chiave: configurazione consapevole di NUMA — pinning, corretta collocazione delle VM e controllo degli accessi a memoria remota.
4.4 Containerizzazione (Kubernetes)
Profilo: alta densità di pod, overhead della piattaforma, requests/limits, possibili spike.
Raccomandazione: più core a frequenza media + memoria sufficiente e banda di memoria. Se hai molti sidecar e una service mesh, la CPU “si scioglie” più in fretta di quanto sembri dalle metriche applicative.
4.5 Sistemi di storage
- Ceph / storage software-defined: spesso 16–32 core per nodo sono sufficienti, ma molto dipende dal ruolo (OSD/Monitor), rete e dischi. La CPU conta per codec (erasure coding), compressione, cifratura e stack di rete.
- NVMe-over-Fabrics: i colli di bottiglia sono PCIe, rete e gestione delle code — CPU e linee PCIe sono critiche.
- File server: la CPU di solito non è il collo di bottiglia a meno di cifratura/compressione/deduplica pesanti.
4.6 ML/AI e compute
Se hai un server GPU, il compito principale della CPU è “non intralciare” la GPU:
- spesso bastano 16–32 core CPU per un nodo multi-GPU (se non c’è pre-processing pesante lato CPU);
- è fondamentale assicurare PCIe x16 per ogni GPU e non “consumare” linee con dischi/rete.
Piattaforme con un grande numero di linee PCIe (per esempio 128) sono particolarmente comode per queste build.
Fattori aggiuntivi che cambiano la scelta
5.1 Affidabilità: ECC e RAS non sono “opzioni”, sono igiene di base
La memoria ECC è uno standard server: riduce il rischio di errori rari ma distruttivi. Le funzionalità RAS (diagnostica, logging degli errori hardware) sono importanti in operations: vuoi rilevare il degrado di DIMM/CPU prima di un guasto.
5.2 Compatibilità: HCL, firmware e supporto vendor
Verifica la compatibilità HCL (hypervisor/OS/controller/NIC) e le CPU supportate per il modello di server specifico. Lo stesso “Xeon Gold” può essere fisicamente incompatibile con una generazione server diversa.
5.3 Licensing software: il per-core può rendere costosa una “CPU economica”
Alcuni prodotti enterprise si licenziano per numero di core. Questo cambia l’economia: a volte è meglio scegliere una CPU con meno core ma più veloci che “più core economici” e poi pagare licenze.
5.4 TCO (Total Cost of Ownership): una formula che vale la pena calcolare
Semplificato:
TCO = Prezzo del server + (Potenza media × tariffa × 24 × 365 × 5)
Sì, è grezzo, ma già così è chiaro che elettricità e raffreddamento possono “mangiarsi” la differenza tra due classi di CPU.
5.5 Sicurezza: vulnerabilità classe Spectre/Meltdown e impatto sulle prestazioni
Le mitigazioni per vulnerabilità di classe CPU/OS-kernel possono ridurre le prestazioni. A seconda dello scenario e della piattaforma, l’effetto può essere piccolo, ma in alcuni casi evidente; Red Hat ha notato che l’impatto dipende molto dal carico e dai meccanismi di protezione specifici.
In pratica: mantieni firmware/microcode e kernel OS aggiornati e misura l’impatto sul tuo profilo di carico prima di acquistare “al buio”.
Casi d’uso 2026: esempi di server Dell/HPE e CPU adatte (senza legare a prezzi specifici)
Nota: i prezzi dipendono da regione, supporto, configurazione storage/rete/memoria e condizioni di fornitura — quindi sotto c’è solo la logica di configurazione.
6.1 Dell PowerEdge per una piccola impresa / filiale
Server: Dell PowerEdge T360 (tower, single-socket) — un’opzione tipica per ufficio/filiale.
CPU: Intel Xeon E-2488 (8 core/16 thread; riferimenti di frequenza — specifiche Intel).
Use case: file service, domain controller, applicazioni per piccole imprese, virtualizzazione leggera.
Memoria: fino a 128 GB DDR5 ECC UDIMM.
6.2 HPE ProLiant per web hosting / container
Server: HPE ProLiant DL360 Gen11 (1U, 2P).
HPE elenca esplicitamente il supporto Intel Xeon Scalable di 4ª/5ª generazione, fino a 64 core, fino a 8 TB di memoria e PCIe Gen5.
Opzioni CPU: Intel Xeon Silver 4416+ (partenza più economica) oppure Xeon Gold 6430 (maggiore densità).
Use case: web hosting, Kubernetes, servizi di fascia media, database “moderati”.
6.3 Dell PowerEdge per database OLTP (carico sensibile alla latenza)
Server: Dell PowerEdge R760 (2U, piattaforma per Xeon Scalable moderni; riferimenti memoria/PCIe — specifiche Dell).
CPU: Intel Xeon Gold 6538N (spesso considerata un’opzione orientata alla frequenza/profilo DB; verifica la compatibilità con la piattaforma scelta).
Use case: sistemi OLTP ad alto carico, applicazioni classe ERP/CRM, servizi transazionali.
Commento: per OLTP è quasi sempre più importante costruire correttamente memoria/dischi/journaling e garantire p95/p99 stabili che “aggiungere altri 16 core”.
6.4 HPE ProLiant per virtualizzazione (2P, alta densità)
Server: HPE ProLiant DL380 Gen11 (2U, 2P). HPE indica supporto Xeon Scalable di 4ª/5ª generazione e fino a 8 TB DDR5, e posiziona il modello per la virtualizzazione.
Opzioni CPU:
- 2× Intel Xeon Gold 6430 (64 core totali)
- oppure una piattaforma AMD con 2× EPYC 9334 (riferimento: 32 core per socket)
Use case: 50–100 VM (a seconda del profilo), cluster hypervisor.
6.5 Dell/HPE per OLAP/analytics (Data Warehouse, ETL)
Approccio: molti core + alta banda di memoria + I/O veloce.
Riferimenti di classe CPU:
- Intel Xeon Platinum 8580 (fascia alta, molti core e cache)
- AMD EPYC 9554 (64 core/128 thread, 256 MB L3)
Come “chassis” per questi compiti si scelgono spesso piattaforme classe Dell PowerEdge R760 o la serie HPE 2U corrispondente — in base ai requisiti di dischi/GPU/rete.
6.6 HPE ProLiant per ML/AI (server GPU)
Server: HPE ProLiant DL385 Gen11 (piattaforma orientata AMD). Materiali del vendor sottolineano il supporto EPYC e un focus sulla scalabilità per carichi moderni.
CPU: EPYC 9554 o un’altra CPU EPYC 9004/9005 per il bilanciamento richiesto tra frequenza/core.
Critico: topologia PCIe per GPU (x16 per GPU), rete e alimentazione/raffreddamento.
Tabella: casi Dell vs HPE (per scopo)
| Scopo | Dell (esempio) | HPE (esempio) | Classe CPU |
|---|---|---|---|
| Piccola impresa/filiale | PowerEdge T360 | ProLiant ML class (segmento simile) | Xeon E-2400 (esempio: E-2488) |
| Web/container | PowerEdge R760 class | ProLiant DL360 Gen11 | Xeon Silver/Gold |
| DB OLTP | PowerEdge R760 | ProLiant DL360/DL380 Gen11 | Xeon Gold ad alta frequenza (esempio: 6538N) |
| Virtualizzazione 2P | PowerEdge R760 class | ProLiant DL380 Gen11 | 2× Xeon Gold 6430 / 2× EPYC 9334 |
| OLAP/analytics | PowerEdge 2U class | ProLiant 2U class | Xeon Platinum 8580 / EPYC 9554 |
| ML/AI (GPU) | PowerEdge accelerator class | ProLiant DL385 Gen11 | EPYC 9004/9005 + GPU |
Quando scegliere Dell (ragioni comuni):
- strumenti di gestione remota comodi iDRAC e amministrazione dei server nella tua infrastruttura.
Quando scegliere HPE (ragioni comuni):
- una linea ProLiant solida e gestione remota iLO in scenari enterprise.
Considera anche le pagine ufficiali delle linee server Dell e HPE — dai produttori.
Metodologia passo-passo di selezione (quello che funziona davvero)
Passo 1. Identifica il tipo di workload e profila il sistema attuale.
Non partire da “quale Xeon è migliore”. Parti dalle metriche: utilizzo CPU (con breakdown user/system/iowait), latenza p95/p99, throughput disco, rete, cache miss (se disponibili), uso memoria e swap, e profondità della coda disco.
Passo 2. Traduci le metriche in requisiti.
- Core: prendi il tuo “picco sostenuto” e moltiplica per 1.5–2 (crescita + margine).
- Frequenza: se OLTP/sensibile alla latenza — conta la frequenza; se web/container paralleli — contano di più core e memoria.
- Memoria: capacità + canali. Se la memoria è già “stretta”, un upgrade CPU non aiuterà.
- PCIe: conta i dispositivi (NVMe/GPU/NIC) e assicurati che le linee non finiscano prima del budget.
Passo 3. Costruisci una shortlist di 3–5 modelli di CPU.
Scegli non “il top assoluto”, ma alcuni candidati: un’opzione di fascia media, una “ottimale” e una “con extra margine”.
Passo 4. Controlla i benchmark — ma fallo correttamente.
Usa:
- SPEC CPU2017 come riferimento di settore per carichi CPU.
- PassMark — come punto di confronto “di massa” (con caveat di metodologia).
E soprattutto: se possibile, esegui la tua applicazione (o il profilo sintetico più vicino).
Passo 5. Confronta il TCO, non solo il prezzo della CPU.
Include elettricità, raffreddamento, licensing, downtime e costo di future espansioni RAM/PCIe.
Passo 6. Verifica compatibilità e disponibilità.
Generazione server, BIOS/UEFI, supporto DIMM, lista NIC/HBA compatibili, supporto hypervisor.
Passo 7. Decidi con 30–50% di margine di crescita.
Un server “al limite” dal primo giorno è quasi sempre più costoso nel lungo periodo.
Errori comuni (e perché costano molto)
- Pagare troppo per un modello top per carichi dove il collo di bottiglia sarà memoria/storage/rete, o dove la CPU sarà ampiamente sottoutilizzata.
- Sottovalutare la memoria: il collo di bottiglia spesso non è la CPU, ma la banda/capacità RAM.
- Ignorare i consumi: risparmiare sulla CPU può trasformarsi in un extra costo su 5 anni (vedi calcolo sopra).
- Comprare una generazione datata “in sconto”, perdendo PCIe Gen5/DDR5 e pagando in tempo/rischio.
- Ignorare licensing per core o per socket, soprattutto in database/virtualizzazione enterprise.
- Mancanza di margine: un server che “regge ancora” smette di reggere dopo il primo step di crescita.
- Trascurare NUMA: poi compaiono p99 alti e cali strani “all’improvviso”.
Tabella di confronto e checklist
Tabella: classi “top” di CPU per budget (riferimento di categoria, non listino)
| Classe di budget | Scenari tipici | Riferimento CPU |
|---|---|---|
| Entry | ufficio/filiale, file service, virtualizzazione leggera | Xeon E-2400 (esempio: E-2488) |
| Mid-range | web/container, servizi generali | Xeon Silver/Gold o EPYC 9004 di fascia media (esempio: EPYC 9254) |
| High-range | virtualizzazione ad alta densità, OLAP/ETL | classe Xeon Gold 6430 / EPYC 9334 |
| Ultra / HPC | analytics pesanti, consolidamento di fascia alta | Xeon Platinum 8580 / EPYC 9554 e oltre |
Risorse utili
- Specifiche CPU: Intel ARK e le pagine ufficiali Intel Xeon Scalable.
- AMD EPYC: lineup ufficiale EPYC e pagine di generazione per 9004/9005.
- Benchmark: SPEC (CPU2017) e PassMark (come database di confronto ampio).
- Recensioni/community pratiche: ServeTheHome, forum di nicchia e subreddit (homelab/sysadmin) — utili per insidie e configurazioni reali.
11. FAQ
D: Qual è la principale differenza tra i processori server?
R: Funzionamento prevedibile 24/7, memoria ECC, funzioni RAS, più canali di memoria e linee PCIe e un ciclo di vita di piattaforma più lungo.
D: Si può usare una CPU desktop in un server?
R: Tecnicamente, a volte sì — ma di solito perdi ECC/RAS e ottieni affidabilità e compatibilità inferiori, che è una cattiva scommessa per la produzione. Inoltre, le CPU server supportano in genere capacità RAM molto maggiori. Un processore desktop può essere più veloce e più economico di una CPU server, e si usa dove ECC e affidabilità non sono necessari ma servono massime prestazioni e bassa latenza — per esempio, nei sistemi di trading.
D: Quanti core servono per un server database?
R: OLTP spesso lavora comodamente nella fascia 8–32 core “veloci”; OLAP più spesso richiede 32–64+ e una memoria robusta. La risposta precisa arriva dopo il profiling.
D: Cosa conta di più: core o frequenza?
R: Compiti paralleli e alta densità = core/memoria/PCIe. Transazioni sensibili alla latenza = frequenza e latenza prevedibile.
D: Intel o AMD?
R: AMD spesso offre più memoria/I/O “per socket” (12 canali DDR5 e 128 linee PCIe sono un argomento forte).
Intel è forte nell’ecosistema e nell’ampia gamma di piattaforme vendor validate.
D: Conviene comprare un modello top-tier?
R: Di solito no. La fascia media offre spesso il miglior rapporto prezzo/prestazioni/TCO, a meno di requisiti estremi.
D: Come influisce la CPU sul licensing?
R: Se un prodotto è licenziato per core, più core possono significare più licenze. A volte meno core, ma più potenti, sono più convenienti.
D: Un processore potente o due più deboli?
R: Uno è più semplice e spesso migliore per la latenza (meno NUMA). Due offrono più memoria/PCIe/core, ma richiedono tuning corretto.
12. Conclusione
Scegliere una CPU server nel 2026 è un equilibrio tra prestazioni, risorse di piattaforma (memoria e PCIe), prezzo e crescita futura. L’errore più comune è scegliere una CPU “per nome” o “per numero di core” senza verificare se il carico è realmente CPU-bound. In pratica, un server è un sistema: memoria, dischi, rete e topologia PCIe possono limitare i risultati più di “altri +16 core”.
La strada giusta è partire dal profiling del sistema attuale, tradurre le metriche in requisiti (core, frequenza, memoria, PCIe), costruire una shortlist, validare benchmark e compatibilità e poi confrontare le opzioni per TCO, includendo elettricità e licensing potenziale. E assicurati di pianificare un margine di crescita del 30–50%: un server “stretto” diventa quasi sempre un progetto continuo di firefighting.
Se segui le raccomandazioni di questo articolo e calcoli in modo onesto memoria/PCIe/TCO, la scelta della CPU di solito diventa ovvia — e, soprattutto, difendibile verso il business con numeri invece che “sensazioni”. E se qualcosa non è chiaro o hai domande aggiuntive, contatta i nostri manager — ti consuliamo e ti aiutiamo a scegliere il modello ottimale per te.