Accedi
Richiesta di riparazione in garanzia

In caso di problema, forniremo diagnostica e riparazioni presso il sito di installazione del server. Gratuitamente.

Lingua

Come scegliere una CPU per server: Guida degli esperti 2026

How to Choose a Server CPU: Expert Guide 2026

Introduzione

Una CPU server non è soltanto “il componente più potente” — è la parte che stabilisce il limite di scalabilità, definisce l’equilibrio dell’intera piattaforma (memoria, PCIe, storage, rete) e incide direttamente sul costo totale di possesso su un orizzonte di 3–5 anni. Un errore nella scelta della CPU raramente si manifesta “immediatamente”: più spesso si trasforma in sintomi cronici — picchi costanti di latenza del database, carenza di linee PCIe per NVMe/GPU, impossibilità di espandere la memoria o un aumento improvviso dei costi di licenza o dell’energia.

I processori server differiscono dai chip desktop non solo per il numero di core. Conta di più l’ecosistema server costruito attorno a loro: supporto alla memoria ECC, funzionalità di affidabilità e diagnostica (RAS), supporto di piattaforma con ciclo di vita lungo, comportamento prevedibile 24/7 sotto carico, compatibilità validata con schede madri, RAID/HBA, NIC, hypervisor e sistemi operativi enterprise. Inoltre, capacità I/O estese: più canali di memoria e più linee PCIe, che in un server reale spesso sono più importanti di “+200 MHz in turbo”.

Questo articolo è una guida pratica per sysadmin, ingegneri DevOps e IT manager che scelgono CPU per carichi di lavoro specifici: applicazioni web, database (OLTP/OLAP/In-Memory), virtualizzazione, Kubernetes, storage software-defined e AI/ML. Analizzeremo le caratteristiche chiave, forniremo formule ed esempi di calcolo (inclusi elettricità e TCO), mostreremo configurazioni tipiche e concluderemo con una checklist che permette di decidere senza ulteriori “googling”.

Principali produttori: Intel Xeon e AMD EPYC

Intel Xeon (ecosistema server e prevedibilità della piattaforma)

Intel è storicamente forte in compatibilità enterprise, maturità della piattaforma e ampia disponibilità presso i vendor. La gamma “universale” più comune è Xeon Scalable: copre tutto, da modelli relativamente accessibili per compiti tipici a CPU ad alte prestazioni per database, analytics e virtualizzazione. Nell’ecosistema Xeon non contano solo i core — contano anche le capacità della piattaforma: numero di canali di memoria, supporto PCIe Gen5, funzioni di sicurezza e telemetria e ottimizzazioni per i carichi enterprise più comuni. La lineup ufficiale Xeon Scalable e il suo posizionamento sono disponibili sulla pagina Intel.

Caratteristiche che spesso emergono nei carichi reali:

  • Hyper-Threading (thread) — aiuta nei carichi paralleli, ma non sostituisce i core fisici (soprattutto con SLO di latenza rigorosi).
  • Istruzioni vettoriali (incluso AVX-512 in alcuni compiti) — evidenti in HPC/calcolo scientifico, alcune analytics e carichi multimediali. (Importante: l’effetto dipende dal software e da come è stato compilato/configurato.)

AMD EPYC (molto I/O e memoria “di default”, alta densità)

Le recenti generazioni AMD EPYC puntano su elevata densità di calcolo e soprattutto su I/O: molte linee PCIe, tanti canali di memoria, alta banda di memoria — elementi spesso critici per virtualizzazione, container, analytics e sistemi di storage. Questo può essere importante a seconda del software: alcuni prodotti si licenziano per socket e una singola CPU AMD con molti core può risultare più conveniente di una piattaforma Intel dual-socket.

Famiglie comunemente considerate per acquisti nel 2026:

  • EPYC 9004 (Genoa) — EPYC di 4ª generazione per data center moderni.
  • EPYC 9005 (Turin) — EPYC di 5ª generazione (Zen 5 / Zen 5c) come passo successivo in prestazioni ed efficienza.

AMD sottolinea anche un’“ampia gamma” di conteggi core/profili di potenza e posiziona EPYC per cloud/enterprise nelle proprie pagine prodotto. (AMD)

Tabella: confronto tra produttori (semplificato, per scelta pratica)

Criterio Intel Xeon (Scalable) AMD EPYC (9004/9005)
Prestazioni “per core” Spesso forti nei compiti dove contano single-thread/latenza (dipende dal modello) Varia molto per gamma; spesso vince “per server” grazie alle risorse di piattaforma
Memoria (canali/banda) Fino a 8 canali DDR5 per socket nelle piattaforme Scalable tipiche 12 canali DDR5 e banda elevata — vantaggio chiave di EPYC 9004/9005
PCIe e I/O Spesso 80 linee PCIe Gen5 per socket 128 linee PCIe Gen5 in 1P — argomento forte per NVMe/GPU/rete
Ecosistema (server/firmware/compatibilità) Molto ampio, molte configurazioni validate Ampio e in rapida crescita, soprattutto nel cloud e nell’alta densità

Caratteristiche chiave della CPU (e come “si vedono” in un server)

Key CPU characteristics (and how they “show up” in a server)

3.1 Numero di core e frequenza: dove sta la verità e dove sta il marketing

Core fisici vs thread (SMT/Hyper-Threading). I thread (SMT) migliorano le prestazioni quando un carico parallelizza bene e si ferma su “bolle” della pipeline (attesa memoria/branch). Ma i thread non equivalgono a core aggiuntivi: per database con requisiti di latenza stringenti, o per compiti CPU-bound (compilazione, alcuni calcoli), i core fisici sono di solito più importanti.

Quando servono molti core:

  • virtualizzazione (molte VM/container);
  • cluster Kubernetes con alta densità di pod;
  • web server e applicazioni con molte richieste in parallelo;
  • analytics/ETL, batch job, molti servizi di storage.

Quando conta la frequenza (e la bassa latenza):

  • database OLTP (transazioni brevi, molti lock/contesa, latenza critica);
  • applicazioni legacy con parallelismo limitato;
  • alcuni componenti middleware dove conta il tempo di risposta single-thread.

Base vs Turbo — cosa significa davvero.

  • Frequenza base — la frequenza che la CPU è in grado di sostenere in modo garantito entro il proprio envelope termico/di potenza sotto carico prolungato (semplificando).
  • Turbo/Boost — una frequenza “di picco” quando c’è budget termico/di potenza disponibile, spesso con un numero limitato di core attivi che possono salire più in alto.

Conclusione pratica: se stai comprando “32 core perché il turbo è 3,9 GHz”, assicurati che il tuo carico giri davvero su un numero limitato di core o possa mantenere il boost richiesto nel tuo profilo di alimentazione/raffreddamento. Altrimenti avrai “molti core a frequenza moderata” — talvolta va bene (virtualizzazione) e talvolta no (OLTP).

3.2 Cache: perché L3 è spesso più importante di un “+200 MHz”

Per i server, la cache è un buffer tra core e memoria. Quando il working set (indici, pagine DB “calde”, metadata) colpisce più spesso L3, diminuiscono gli accessi alla RAM, cala la latenza e aumenta la prevedibilità.

In pratica:

  • Database OLTP beneficiano di una L3 più grande perché diminuiscono i cache miss su indici “caldi” e strutture interne.
  • OLAP/analytics ne beneficia anche, soprattutto con scansioni/aggregazioni e riuso ripetuto dei dati.
  • Virtualizzazione ottiene una latenza più stabile quando hypervisor e pagine “calde” delle VM restano più spesso vicine ai core.

Puoi vedere facilmente la tipica distribuzione della L3 su modelli reali: ad esempio, AMD EPYC 9554 ha 256 MB di L3. Anche Intel Xeon Platinum 8580 di fascia alta offre grande capacità di cache e alta densità di core.

3.3 Supporto memoria: DDR4 vs DDR5, canali, capacità, tipi di DIMM

DDR4 vs DDR5. Negli acquisti 2026, DDR5 è già lo standard de-facto per le piattaforme nuove: banda più alta e migliore scaling in configurazioni multi-CPU/ad alto numero di core. Tuttavia DDR4 può ancora essere economicamente giustificata — così come selezionare una generazione di server leggermente precedente dove la piattaforma costa meno e il carico atteso non satura la banda di memoria (soprattutto considerando i prezzi della memoria a inizio 2026).

Numero di canali di memoria e banda di memoria sono critici per:

  • database (soprattutto In-Memory e analytics);
  • virtualizzazione ad alta densità di VM;
  • molti compiti di elaborazione dati e storage (ad es. Ceph su nodi saturi).

A livello di piattaforma, le differenze sono evidenti:

  • Intel Xeon Scalable in genere offre fino a 8 canali di memoria.
  • AMD EPYC 9004/9005 offre 12 canali DDR5 come vantaggio di piattaforma di base.

La capacità massima di memoria dipende non solo dalla CPU, ma anche dal server (numero di slot DIMM e supporto RDIMM/LRDIMM). I vendor dichiarano esplicitamente i limiti: ad esempio, HPE ProLiant DL360 Gen11 indica fino a 8 TB DDR5 e I/O PCIe Gen5.

RDIMM vs LRDIMM.

  • RDIMM è di solito più economica ed è sufficiente per la maggior parte dei carichi.
  • LRDIMM si usa quando serve la massima capacità per socket (più costosa, talvolta con sfumature su frequenza/latenza).

Tabella: memoria e I/O nelle linee più diffuse (riferimento pratico)

Linea Memoria Canali PCIe Commento
Intel Xeon Scalable (esempio: Gold 6430) DDR5 8 80 linee Gen5 Ecosistema forte, “generalista” bilanciato
AMD EPYC 9004/9005 DDR5 12 128 linee Gen5 Alta densità di I/O e memoria “di default”
Server entry (esempio: Dell PowerEdge T360) DDR5 ECC UDIMM dipende dalla piattaforma dipende Fino a 128 GB ECC UDIMM — tipico per PMI/filiali

3.4 Linee PCIe: NVMe, GPU e 100G — dove la CPU decide tutto

PCIe lanes: NVMe, GPUs, and 100G — where the CPU decides everything

PCIe 4.0 vs 5.0. PCIe Gen5 raddoppia la banda per linea rispetto a Gen4. Questo diventa importante quando:

  • hai molti dischi NVMe (soprattutto U.2/U.3/EDSFF e RAID su rete);
  • hai più GPU;
  • usi NIC veloci (25/100/200G) e SmartNIC/DPU.

Quante linee ti servono davvero? Un modo semplice è contare i dispositivi per “larghezza”:

  • un SSD NVMe è quasi sempre x4;
  • una NIC 100G è spesso x16 (dipende dal modello);
  • una GPU è di solito x16.

Esempio di allocazione (un’idea, non l’unico schema):

  • 8× NVMe (8 × x4 = 32 linee)
  • 2× NIC 100G (2 × x16 = 32 linee)
  • 4× GPU (4 × x16 = 64 linee)
    Totale: 32 + 32 + 64 = 128 linee — un caso “ideale” tipico per una CPU che offre 128 linee PCIe (ad esempio, una piattaforma EPYC).

Su modelli Intel specifici puoi vedere quante linee sono disponibili per socket: ad esempio, Xeon Gold 6430 specifica 80 linee PCIe.
Conclusione pratica: se pianifichi “tanto di tutto”, PCIe non è “secondario” — spesso è il limite principale.

3.5 Potenza (TDP) e costi: esempio di calcolo

TDP non è “il consumo reale a parete”, ma è un buon riferimento per il dimensionamento termico e per capire la classe della CPU. Nella realtà, un server può consumare di più/di meno a seconda di turbo, profili di potenza BIOS, utilizzo, numero di DIMM, dischi, ecc.

Per evitare di tirare a indovinare, usa un calcolo approssimativo basato sulla potenza media nel tuo carico. Per esempio, supponiamo:

  • il server in media consuma 250 W (0.25 kW) per CPU+piattaforma sotto carico reale;
  • il prezzo dell’energia è $0.12/kWh (esempio);
  • funziona 24/7 per 5 anni.

Calcolo:

  • ore per anno: 24 × 365 = 8760
  • consumo annuo: 0.25 × 8760 = 2190 kWh
  • costo annuo: 2190 × 0.12 = $262.80
  • costo 5 anni: 262.80 × 5 = $1314.00

Ora immagina di aver scelto una CPU/profilo che aggiunge +100 W di consumo medio (0.10 kW) per un piccolo guadagno di prestazioni che non ti serve. L’“extra” in 5 anni è:

  • 0.10 × 8760 × 0.12 × 5 = 876 × 0.12 × 5 = 105.12 × 5 = $525.60
    E questo senza considerare raffreddamento e rack/UPS. Morale: una “CPU più economica” non è sempre più economica nella realtà.

3.6 Multi-socket (1P vs 2P) e NUMA: quando serve davvero una seconda CPU

Multi-socket (1P vs 2P) and NUMA: when a second CPU is really needed

1P (single socket) è più semplice: meno effetti NUMA, tuning più facile e spesso latenza più prevedibile. Detto questo, AMD ha anche tuning NUMA: su un singolo socket puoi configurare da 1 a 4 nodi NUMA e, a seconda del carico, questo può e deve essere ottimizzato.
2P (dual socket) offre più core, più memoria, più PCIe e spesso un limite di scalabilità più alto.

Ma 2P ha un costo: NUMA. La memoria è “più vicina” al suo socket e se un’applicazione accede spesso a memoria remota, la latenza aumenta e le prestazioni calano. Questo è critico per:

  • database OLTP,
  • alcuni servizi sensibili alla latenza,
  • virtualizzazione densa senza pinning NUMA corretto.

Regola pratica:

  • Scegli 2P se ti servono davvero memoria/PCIe/core oltre ciò che 1P può offrire, o se il server consolida molti carichi eterogenei.
  • Resta su 1P se il KPI principale è la latenza e la semplicità operativa, e un socket ha risorse sufficienti con margine.

3.7 Istruzioni specializzate e acceleratori: quando conta

  • AES-NI / cifratura hardware: accelera TLS, VPN, cifratura disco. Sulle CPU server moderne è in genere un “must-have” di base.
  • AVX-512: può dare un boost evidente in HPC/calcolo scientifico, alcune analytics e software specializzato (se usa queste istruzioni).
  • Accelerazione AI/ML (es. VNNI/DL accelerators): rilevante quando fai inferenza su CPU o acceleri certe operazioni di matrice senza GPU. La chiave è verificare benchmark per framework/versione esatti.

Tipi di workload e requisiti: tradurre il compito in parametri CPU

4.1 Web server e applicazioni

Profilo: molte richieste parallele; conta il throughput stabile e servono abbastanza core, ma la frequenza influisce anche sulla latenza p95/p99.

Raccomandazione tipica: 16–32 core, frequenza moderata, memoria adeguata e I/O veloce.
Esempio di logica di scelta: Intel Xeon Silver/Gold o AMD EPYC di fascia media. Come riferimento EPYC, modelli della classe EPYC 9254 (serie 9004) sono spesso considerati un’opzione bilanciata core/frequenza per applicazioni generali.

4.2 Database

OLTP (transazionale)

Profilo: molte operazioni brevi, lock, journaling; latenza critica.

Ti serve:

  • alta frequenza turbo sui core “di lavoro”;
  • memoria veloce e banda sufficiente;
  • latenza prevedibile (spesso migliore con 1P o con 2P/NUMA ben ottimizzato).

Classe CPU esempio per OLTP: Intel Xeon Gold con focus sulla frequenza (per esempio, Gold 6538N è spesso categorizzato come opzione ad alta frequenza/orientata ai DB nella lineup).

OLAP (analitico)

Profilo: scansioni, aggregazioni, query parallele, batch job.

Ti serve:

  • molti core (32–64+);
  • cache ampia;
  • alta banda di memoria;
  • PCIe sufficiente per NVMe veloci e rete.

DB In-Memory (Redis / approccio stile SAP HANA)

Profilo: tutto in memoria; banda e capacità sono la chiave.

Ti serve:

  • massimo numero di canali di memoria;
  • alta velocità di memoria e popolamento DIMM corretto;
  • grande capacità totale di RAM.

Tabella: indicazioni rapide di configurazione per database

Tipo di database CPU Memoria I/O
OLTP meno core ma più veloci; alta frequenza turbo alta frequenza/banda, capacità sufficiente NVMe/journal, bassa latenza
OLAP molti core, cache ampia molta memoria e banda NVMe/throughput, rete
In-Memory bilanciamento tra frequenza e core massimo canali e capacità spesso secondario, ma la stabilità è importante

4.3 Virtualizzazione

Profilo: molte VM diverse, competizione per CPU/cache/memoria; conta una latenza “piatta”.

Dimensionamento pratico: una regola empirica comune è 4–6 vCPU per core fisico (dipende molto dal profilo VM). Vale anche notare che questo può diventare un anti-pattern per VM critiche (più vCPU dei core/thread fisici) — si chiama oversubscription CPU e, sotto carico serio, può non dare i risultati migliori.

Stima grezza: se punti a 30–50 VM a densità media, un punto di partenza ragionevole è 32–64 core fisici, più margine.

Esempi classe 2P:

  • 2× Intel Xeon Gold 6430 (un socket tipico da 32 core in 2P porta a 64 core totali).
  • 2× AMD EPYC 9334 (riferimento: 32 core per socket in 2P).

Punto chiave: configurazione consapevole di NUMA — pinning, corretta collocazione delle VM e controllo degli accessi a memoria remota.

4.4 Containerizzazione (Kubernetes)

Containerization (Kubernetes)

Profilo: alta densità di pod, overhead della piattaforma, requests/limits, possibili spike.

Raccomandazione: più core a frequenza media + memoria sufficiente e banda di memoria. Se hai molti sidecar e una service mesh, la CPU “si scioglie” più in fretta di quanto sembri dalle metriche applicative.

4.5 Sistemi di storage

  • Ceph / storage software-defined: spesso 16–32 core per nodo sono sufficienti, ma molto dipende dal ruolo (OSD/Monitor), rete e dischi. La CPU conta per codec (erasure coding), compressione, cifratura e stack di rete.
  • NVMe-over-Fabrics: i colli di bottiglia sono PCIe, rete e gestione delle code — CPU e linee PCIe sono critiche.
  • File server: la CPU di solito non è il collo di bottiglia a meno di cifratura/compressione/deduplica pesanti.

4.6 ML/AI e compute

Se hai un server GPU, il compito principale della CPU è “non intralciare” la GPU:

  • spesso bastano 16–32 core CPU per un nodo multi-GPU (se non c’è pre-processing pesante lato CPU);
  • è fondamentale assicurare PCIe x16 per ogni GPU e non “consumare” linee con dischi/rete.

Piattaforme con un grande numero di linee PCIe (per esempio 128) sono particolarmente comode per queste build.

Fattori aggiuntivi che cambiano la scelta

Additional factors that change the choice

5.1 Affidabilità: ECC e RAS non sono “opzioni”, sono igiene di base

La memoria ECC è uno standard server: riduce il rischio di errori rari ma distruttivi. Le funzionalità RAS (diagnostica, logging degli errori hardware) sono importanti in operations: vuoi rilevare il degrado di DIMM/CPU prima di un guasto.

5.2 Compatibilità: HCL, firmware e supporto vendor

Verifica la compatibilità HCL (hypervisor/OS/controller/NIC) e le CPU supportate per il modello di server specifico. Lo stesso “Xeon Gold” può essere fisicamente incompatibile con una generazione server diversa.

5.3 Licensing software: il per-core può rendere costosa una “CPU economica”

Alcuni prodotti enterprise si licenziano per numero di core. Questo cambia l’economia: a volte è meglio scegliere una CPU con meno core ma più veloci che “più core economici” e poi pagare licenze.

5.4 TCO (Total Cost of Ownership): una formula che vale la pena calcolare

Semplificato:
TCO = Prezzo del server + (Potenza media × tariffa × 24 × 365 × 5)
Sì, è grezzo, ma già così è chiaro che elettricità e raffreddamento possono “mangiarsi” la differenza tra due classi di CPU.

5.5 Sicurezza: vulnerabilità classe Spectre/Meltdown e impatto sulle prestazioni

Le mitigazioni per vulnerabilità di classe CPU/OS-kernel possono ridurre le prestazioni. A seconda dello scenario e della piattaforma, l’effetto può essere piccolo, ma in alcuni casi evidente; Red Hat ha notato che l’impatto dipende molto dal carico e dai meccanismi di protezione specifici.
In pratica: mantieni firmware/microcode e kernel OS aggiornati e misura l’impatto sul tuo profilo di carico prima di acquistare “al buio”.

Casi d’uso 2026: esempi di server Dell/HPE e CPU adatte (senza legare a prezzi specifici)

Nota: i prezzi dipendono da regione, supporto, configurazione storage/rete/memoria e condizioni di fornitura — quindi sotto c’è solo la logica di configurazione.

6.1 Dell PowerEdge per una piccola impresa / filiale

Server: Dell PowerEdge T360 (tower, single-socket) — un’opzione tipica per ufficio/filiale.
CPU: Intel Xeon E-2488 (8 core/16 thread; riferimenti di frequenza — specifiche Intel).
Use case: file service, domain controller, applicazioni per piccole imprese, virtualizzazione leggera.
Memoria: fino a 128 GB DDR5 ECC UDIMM.

6.2 HPE ProLiant per web hosting / container

Server: HPE ProLiant DL360 Gen11 (1U, 2P).
HPE elenca esplicitamente il supporto Intel Xeon Scalable di 4ª/5ª generazione, fino a 64 core, fino a 8 TB di memoria e PCIe Gen5.
Opzioni CPU: Intel Xeon Silver 4416+ (partenza più economica) oppure Xeon Gold 6430 (maggiore densità).
Use case: web hosting, Kubernetes, servizi di fascia media, database “moderati”.

6.3 Dell PowerEdge per database OLTP (carico sensibile alla latenza)

Server: Dell PowerEdge R760 (2U, piattaforma per Xeon Scalable moderni; riferimenti memoria/PCIe — specifiche Dell).
CPU: Intel Xeon Gold 6538N (spesso considerata un’opzione orientata alla frequenza/profilo DB; verifica la compatibilità con la piattaforma scelta).
Use case: sistemi OLTP ad alto carico, applicazioni classe ERP/CRM, servizi transazionali.
Commento: per OLTP è quasi sempre più importante costruire correttamente memoria/dischi/journaling e garantire p95/p99 stabili che “aggiungere altri 16 core”.

6.4 HPE ProLiant per virtualizzazione (2P, alta densità)

HPE ProLiant for virtualization (2P, high density)

Server: HPE ProLiant DL380 Gen11 (2U, 2P). HPE indica supporto Xeon Scalable di 4ª/5ª generazione e fino a 8 TB DDR5, e posiziona il modello per la virtualizzazione.
Opzioni CPU:

  • 2× Intel Xeon Gold 6430 (64 core totali)
  • oppure una piattaforma AMD con 2× EPYC 9334 (riferimento: 32 core per socket)

Use case: 50–100 VM (a seconda del profilo), cluster hypervisor.

6.5 Dell/HPE per OLAP/analytics (Data Warehouse, ETL)

Approccio: molti core + alta banda di memoria + I/O veloce.
Riferimenti di classe CPU:

  • Intel Xeon Platinum 8580 (fascia alta, molti core e cache)
  • AMD EPYC 9554 (64 core/128 thread, 256 MB L3)
    Come “chassis” per questi compiti si scelgono spesso piattaforme classe Dell PowerEdge R760 o la serie HPE 2U corrispondente — in base ai requisiti di dischi/GPU/rete.

6.6 HPE ProLiant per ML/AI (server GPU)

Server: HPE ProLiant DL385 Gen11 (piattaforma orientata AMD). Materiali del vendor sottolineano il supporto EPYC e un focus sulla scalabilità per carichi moderni.
CPU: EPYC 9554 o un’altra CPU EPYC 9004/9005 per il bilanciamento richiesto tra frequenza/core.
Critico: topologia PCIe per GPU (x16 per GPU), rete e alimentazione/raffreddamento.

Tabella: casi Dell vs HPE (per scopo)

Scopo Dell (esempio) HPE (esempio) Classe CPU
Piccola impresa/filiale PowerEdge T360 ProLiant ML class (segmento simile) Xeon E-2400 (esempio: E-2488)
Web/container PowerEdge R760 class ProLiant DL360 Gen11 Xeon Silver/Gold
DB OLTP PowerEdge R760 ProLiant DL360/DL380 Gen11 Xeon Gold ad alta frequenza (esempio: 6538N)
Virtualizzazione 2P PowerEdge R760 class ProLiant DL380 Gen11 2× Xeon Gold 6430 / 2× EPYC 9334
OLAP/analytics PowerEdge 2U class ProLiant 2U class Xeon Platinum 8580 / EPYC 9554
ML/AI (GPU) PowerEdge accelerator class ProLiant DL385 Gen11 EPYC 9004/9005 + GPU

Quando scegliere Dell (ragioni comuni):

  • strumenti di gestione remota comodi iDRAC e amministrazione dei server nella tua infrastruttura.

Quando scegliere HPE (ragioni comuni):

  • una linea ProLiant solida e gestione remota iLO in scenari enterprise.

Considera anche le pagine ufficiali delle linee server Dell e HPE — dai produttori.

Metodologia passo-passo di selezione (quello che funziona davvero)

Step-by-step selection methodology (what really works)

Passo 1. Identifica il tipo di workload e profila il sistema attuale.
Non partire da “quale Xeon è migliore”. Parti dalle metriche: utilizzo CPU (con breakdown user/system/iowait), latenza p95/p99, throughput disco, rete, cache miss (se disponibili), uso memoria e swap, e profondità della coda disco.

Passo 2. Traduci le metriche in requisiti.

  • Core: prendi il tuo “picco sostenuto” e moltiplica per 1.5–2 (crescita + margine).
  • Frequenza: se OLTP/sensibile alla latenza — conta la frequenza; se web/container paralleli — contano di più core e memoria.
  • Memoria: capacità + canali. Se la memoria è già “stretta”, un upgrade CPU non aiuterà.
  • PCIe: conta i dispositivi (NVMe/GPU/NIC) e assicurati che le linee non finiscano prima del budget.

Passo 3. Costruisci una shortlist di 3–5 modelli di CPU.
Scegli non “il top assoluto”, ma alcuni candidati: un’opzione di fascia media, una “ottimale” e una “con extra margine”.

Passo 4. Controlla i benchmark — ma fallo correttamente.
Usa:

  • SPEC CPU2017 come riferimento di settore per carichi CPU.
  • PassMark — come punto di confronto “di massa” (con caveat di metodologia).
    E soprattutto: se possibile, esegui la tua applicazione (o il profilo sintetico più vicino).

Passo 5. Confronta il TCO, non solo il prezzo della CPU.
Include elettricità, raffreddamento, licensing, downtime e costo di future espansioni RAM/PCIe.

Passo 6. Verifica compatibilità e disponibilità.
Generazione server, BIOS/UEFI, supporto DIMM, lista NIC/HBA compatibili, supporto hypervisor.

Passo 7. Decidi con 30–50% di margine di crescita.
Un server “al limite” dal primo giorno è quasi sempre più costoso nel lungo periodo.

Errori comuni (e perché costano molto)

  • Pagare troppo per un modello top per carichi dove il collo di bottiglia sarà memoria/storage/rete, o dove la CPU sarà ampiamente sottoutilizzata.
  • Sottovalutare la memoria: il collo di bottiglia spesso non è la CPU, ma la banda/capacità RAM.
  • Ignorare i consumi: risparmiare sulla CPU può trasformarsi in un extra costo su 5 anni (vedi calcolo sopra).
  • Comprare una generazione datata “in sconto”, perdendo PCIe Gen5/DDR5 e pagando in tempo/rischio.
  • Ignorare licensing per core o per socket, soprattutto in database/virtualizzazione enterprise.
  • Mancanza di margine: un server che “regge ancora” smette di reggere dopo il primo step di crescita.
  • Trascurare NUMA: poi compaiono p99 alti e cali strani “all’improvviso”.

Tabella di confronto e checklist

Tabella: classi “top” di CPU per budget (riferimento di categoria, non listino)

Classe di budget Scenari tipici Riferimento CPU
Entry ufficio/filiale, file service, virtualizzazione leggera Xeon E-2400 (esempio: E-2488)
Mid-range web/container, servizi generali Xeon Silver/Gold o EPYC 9004 di fascia media (esempio: EPYC 9254)
High-range virtualizzazione ad alta densità, OLAP/ETL classe Xeon Gold 6430 / EPYC 9334
Ultra / HPC analytics pesanti, consolidamento di fascia alta Xeon Platinum 8580 / EPYC 9554 e oltre

Risorse utili

  • Specifiche CPU: Intel ARK e le pagine ufficiali Intel Xeon Scalable.
  • AMD EPYC: lineup ufficiale EPYC e pagine di generazione per 9004/9005.
  • Benchmark: SPEC (CPU2017) e PassMark (come database di confronto ampio).
  • Recensioni/community pratiche: ServeTheHome, forum di nicchia e subreddit (homelab/sysadmin) — utili per insidie e configurazioni reali.

11. FAQ

FAQ

D: Qual è la principale differenza tra i processori server?
R: Funzionamento prevedibile 24/7, memoria ECC, funzioni RAS, più canali di memoria e linee PCIe e un ciclo di vita di piattaforma più lungo.

D: Si può usare una CPU desktop in un server?
R: Tecnicamente, a volte sì — ma di solito perdi ECC/RAS e ottieni affidabilità e compatibilità inferiori, che è una cattiva scommessa per la produzione. Inoltre, le CPU server supportano in genere capacità RAM molto maggiori. Un processore desktop può essere più veloce e più economico di una CPU server, e si usa dove ECC e affidabilità non sono necessari ma servono massime prestazioni e bassa latenza — per esempio, nei sistemi di trading.

D: Quanti core servono per un server database?
R: OLTP spesso lavora comodamente nella fascia 8–32 core “veloci”; OLAP più spesso richiede 32–64+ e una memoria robusta. La risposta precisa arriva dopo il profiling.

D: Cosa conta di più: core o frequenza?
R: Compiti paralleli e alta densità = core/memoria/PCIe. Transazioni sensibili alla latenza = frequenza e latenza prevedibile.

D: Intel o AMD?
R: AMD spesso offre più memoria/I/O “per socket” (12 canali DDR5 e 128 linee PCIe sono un argomento forte).
Intel è forte nell’ecosistema e nell’ampia gamma di piattaforme vendor validate.

D: Conviene comprare un modello top-tier?
R: Di solito no. La fascia media offre spesso il miglior rapporto prezzo/prestazioni/TCO, a meno di requisiti estremi.

D: Come influisce la CPU sul licensing?
R: Se un prodotto è licenziato per core, più core possono significare più licenze. A volte meno core, ma più potenti, sono più convenienti.

D: Un processore potente o due più deboli?
R: Uno è più semplice e spesso migliore per la latenza (meno NUMA). Due offrono più memoria/PCIe/core, ma richiedono tuning corretto.

12. Conclusione

Scegliere una CPU server nel 2026 è un equilibrio tra prestazioni, risorse di piattaforma (memoria e PCIe), prezzo e crescita futura. L’errore più comune è scegliere una CPU “per nome” o “per numero di core” senza verificare se il carico è realmente CPU-bound. In pratica, un server è un sistema: memoria, dischi, rete e topologia PCIe possono limitare i risultati più di “altri +16 core”.

La strada giusta è partire dal profiling del sistema attuale, tradurre le metriche in requisiti (core, frequenza, memoria, PCIe), costruire una shortlist, validare benchmark e compatibilità e poi confrontare le opzioni per TCO, includendo elettricità e licensing potenziale. E assicurati di pianificare un margine di crescita del 30–50%: un server “stretto” diventa quasi sempre un progetto continuo di firefighting.

Se segui le raccomandazioni di questo articolo e calcoli in modo onesto memoria/PCIe/TCO, la scelta della CPU di solito diventa ovvia — e, soprattutto, difendibile verso il business con numeri invece che “sensazioni”. E se qualcosa non è chiaro o hai domande aggiuntive, contatta i nostri manager — ti consuliamo e ti aiutiamo a scegliere il modello ottimale per te.

Commenti
(0)
Nessun commento
Scrivi un commento
Accetto di trattare i miei dati personali

ARTICOLO SUCCESSIVO

Sii il primo a conoscere i nuovi post e guadagna 50 €