VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento

Pagina creata da Nicolo' Vitiello
 
CONTINUA A LEGGERE
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
VMware® vCloud™ Director con Hitachi
             Compute Blade 2000 e Hitachi Virtual
             Storage Platform
             Architettura di riferimento

             Henry Chu

             Agosto 2011

Soluzioni storage Hitachi
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
Feedback
Hitachi Data Systems è lieta di ricevere il vostro feedback. Potete comunicarci il vostro parere inviando un'e-mail
a SolutionLab@hds.com. Non dimenticate di menzionare il titolo di questo white paper nel vostro messaggio.

                                                                                                                      1
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
Indice
Panoramica della soluzione ................................................................................................................... 4

Componenti della soluzione .................................................................................................................. 5

  Hitachi Compute Blade 2000.................................................................................................................. 5

  Hitachi Virtual Storage Platform ............................................................................................................. 5

  La famiglia Hitachi Adaptable Modular Storage 2000 ............................................................................ 6

  VMware vCloud Director 1.0 .................................................................................................................. 7

  VMware vSphere 4.1 .............................................................................................................................. 7

Design della soluzione ........................................................................................................................... 7

  Infrastruttura di calcolo .......................................................................................................................... 7

  Infrastruttura di rete ............................................................................................................................... 14

  Infrastruttura di storage .......................................................................................................................... 18

Prestazioni e scalabilità.......................................................................................................................... 23

  Prestazioni di calcolo .. ......................................................................................................................... 26

  Prestazioni di storage ............................................................................................................................ 29

  Prestazioni applicative .......................................................................................................................... 34

Conclusione ............................................................................................................................................ 37

Appendice—Terminologia...................................................................................................................... 38

                                                                                                                                                              2
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
VMware® vCloud™ Director con Hitachi
Compute Blade 2000 e Hitachi Virtual
Storage Platform
Architettura di riferimento

L'utilizzo di un'infrastruttura VMware vSphere può migliorare l'agilità dei data center e la loro efficacia. Tuttavia non
tutti i silos infrastrutturali utilizzano le risorse in modo efficiente: per ogni silo il grado di utilizzazione può variare, da
molto basso fino a un valore prossimo alla piena capacità. La gestione manuale delle risorse per affrontare i
momenti di massima utilizzazione può richiedere del tempo e risultare complessa. Un modello a silos spesso
comporta un utilizzo non efficiente delle risorse, che non soddisfa così le crescenti esigenze gestionali delle
aziende.

Un nuovo approccio privilegia un'infrastruttura con servizi condivisi per aggregare risorse da tutti i silos disponibili
per tutte le organizzazioni. Tuttavia, per questa soluzione sono necessari una multi-tenancy integrata, elevata
disponibilità, un sistema integrato di controllo della qualità di servizio e facilità di provisioning.

VMware vCloud Director consente di affrontare e vincere queste sfide grazie a una piattaforma di cloud computing
IaaS (Infrastructure as a Service, infrastruttura come servizio). La condivisione dell'infrastruttura VMware vSphere
con vCloud Director fornisce pool di risorse dinamici, con capacità on-demand, sulla base di un modello self-
service.

VMware vCloud Director introduce il concetto di provider virtual data center (vDC), che assicura una chiara
separazione delle risorse organizzate in un pool. Ogni organizzazione utilizza i propri pool di risorse tramite portali
self-service individuali. vCloud Director, costruito su vSphere, fornisce il livello di astrazione necessario per
consentire mobilità all'infrastruttura cloud e multi-tenancy.

L'infrastruttura sottostante deve assicurare grande disponibilità ed elasticità. Per consentire una fluida gestione
delle risorse on-demand, anche l'infrastruttura di storage deve possedere le stesse caratteristiche. Hitachi Virtual
Storage Platform è la piattaforma di storage ideale per VMware vCloud Director, poiché offre una capacità di
virtualizzazione tale da consentire una gestione centralizzata di sistemi di storage multipli, inclusi quelli che non
dispongono delle funzionalità di Virtual Storage Platform.

Tutte le dotazioni e le funzioni di Hitachi Virtual Storage Platform possono essere applicate a un ambiente storage
eterogeneo, rendendolo omogeneo. Hitachi Dynamic Provisioning può creare pool di risorse dinamici con
disponibilità on-demand.

Grazie a VMware vStorage APIs for Array Integration le risorse di storage vengono integrate in VMware vSphere,
incrementando così l'efficienza operativa tramite l'accelerazione dell'hardware.

L'architettura di riferimento è concepita per amministratori di sistemi di storage, vCloud, vSphere e applicazioni che
devono gestire ambienti di grandi dimensioni e dinamici, richiede familiarità con i sistemi di storage basati su
storage area network (SAN), VMware vSphere e le generali pratiche operative nell'ambito dello storage.

                                                                                                                                   3
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
Panoramica della soluzione
L'architettura di riferimento utilizza:

■ Hitachi Compute Blade 2000 (CB 2000)—Una piattaforma su server di classe enterprise

■ Hitachi Virtual Storage Platform (VSP)—Una soluzione di storage ad alte prestazioni ed elevata scalabilità

■ Hitachi Adaptable Modular Storage 2100 (AMS 2100)—Una soluzione di storage low cost, con funzione active-
  active completamente operativa, di classe midrange

■ Switch Brocade 5340 Fibre Channel — Garantisce la connettività SAN alla rete dei data center

■ VMware vSphere 4.1 — La tecnologia di virtualizzazione che costituisce la base del cloud computing

■ VMware vCloud Director 1.0—Piattaforma cloud basata su un'infrastruttura VMware vSphere per consentire
  l'utilizzo del cloud computing di tipo IaaS (Infrastructure as a Service, infrastruttura come servizio)

In figura 1 si riporta un diagramma dell'architettura di riferimento che mostra la connettività di rete e Fibre
Channel, caratterizzata da ridondanza.

Figura 1

                                                                                                                  4
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
Componenti della soluzione
Di seguito si descrivono i componenti dell'architettura di riferimento.

Hitachi Compute Blade 2000
Hitachi Compute Blade 2000 è una piattaforma su blade server di classe enterprise, che offre le seguenti funzionalità:

■ Un'architettura bilanciata che elimina i colli di bottiglia nelle prestazioni e nella produttività

■ Virtualizzazione con partizione logica integrata

■ Flessibilità di configurazione

■ Risparmio energetico ecosostenibile

■ Sistema di ripristino rapido basato su cold standby N+1, che consente la sostituzione dei server non funzionanti
  nel giro di pochi minuti

La virtualizzazione con partizione logica è integrata nel firmware di Hitachi Compute Blade 2000. Questa tecnologia
collaudata, di classe mainframe, unisce l'esperienza acquisita da Hitachi nel partizionamento logico alla tecnologia
Intel VT, con miglioramenti in termini di prestazioni, affidabilità e sicurezza. La virtualizzazione con partizione logica
integrata non compromette le prestazioni delle applicazioni e non richiede l'acquisto e l'installazione di componenti
aggiuntivi.

Hitachi Virtual Storage Platform
Hitachi Virtual Storage Platform è una piattaforma di storage con scalabilità 3D che, grazie alla possibilità di
combinare le funzioni di scale up, scale out e scale deep contemporaneamente in un singolo sistema di storage,
consente di adeguare prestazioni, capacità, connettività e virtualizzazione in modo flessibile.

■ Scale Up— Per aumentare le prestazioni, la capacità e la connettività aggiungendo cache, processori,
  connessioni e dischi al sistema di base.

■ Scale Out— Per combinare più chassis in un singolo sistema logico con risorse condivise.

■ Scale Deep — Per estendere le funzioni avanzate della Virtual Storage Platform allo storage esterno multivendor.

Hitachi Virtual Storage Platform dispone di funzionalità complementari a VMware vCloud Director.

Pool di risorse con VMware DRS e Hitachi Dynamic Provisioning
Hitachi Dynamic Provisioning, una funzionalità di Hitachi Virtual Storage Platform, aggrega le risorse di storage in un
pool analogamente a come VMware DRS è in grado di aggregare le risorse computazionali. I provider virtual data
center (vDC) in VMware vCloud Director sono associati direttamente VMware DRS per i pool di risorse
computazionali e a Hitachi Dynamic Provisioning per i pool di risorse di storage. Le capacità di creazione di pool di
VMware DRS e Hitachi Dynamic Provisioning sono in grado di creare una base di calcolo dinamica e attribuire le
risorse ai provider virtual data center.

Con Hitachi Dynamic Provisioning è possibile incrementare o ridurre la capacità di storage e le prestazioni,
aumentando o diminuendo i blocchi di parità nel pool di dynamic provisioning. Hitachi Dynamic Provisioning consente
inoltre l'oversubscription della capacità e fornisce la funzione di striping che consente un'ampia suddivisione su tutti i
dischi del pool.

                                                                                                                             5
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
Agilità nell'elaborazione dei dati con Mware Storage vMotion e Hitachi Tiered Storage Manager
Hitachi Tiered Storage Manager è in grado di migrare volumi logici allo storage interno ed esterno su Hitachi Virtual
Storage Platform senza interruzioni della normale operatività. Utilizzate Hitachi Tiered Storage Manager per i volumi
logici a livello del sistema di storage: le migrazioni eseguite con questa funzionalità sono completamente trasparenti
per la macchina virtuale e per gli host ESX.

La migrazione dei volumi logici in modalità non-disruptive garantisce la mobilità dei dati per i provider virtual data
center. Si tratta di una soluzione di migrazione dei dati di storage multilivello per i provider virtual data center, in cui, a
seconda delle esigenze gestionali, è possibile passare in modo dinamico a un livello di servizio superiore o inferiore.

Storage vMotion è un componente di VMware che migra in modo non-disruptive i dischi della macchina virtuale ai
datastore VMFS sugli host ESX. Utilizzate VMware Storage vMotion su una macchina virtuale a livello del datastore
VMFS.

Funzione di accelerazione dell'hardware per le normali operazioni vSphere
Le operazioni chiave sui dati di Hitachi Virtual Storage Platform sono gestite da VMware vStorage APIs for Array
Integration (VAAI) anziché dal layer del server ESX, in modo da ridurre l'utilizzo delle risorse e potenziali colli di
bottiglia su server fisici, garantendo inoltre una performance del server più costante e una densità maggiore della
macchina virtuale.

Hitachi Virtual Storage Platform supporta tutte le primitive VMware vSphere 4.1 VAAI API. Le seguenti primitive API
procurano vantaggi diretti in un ambiente vCloud:

■ Full copy—Consente a Hitachi Virtual Storage Platform di realizzare copie complete dei dati all'interno del
  sistema di storage, senza che siano necessarie la lettura e la scrittura da parte dell'host ESX. Le operazioni di
  lettura e scrittura vengono quindi scaricate su Hitachi Virtual Storage Platform, con una sostanziale riduzione dei
  tempi di provisioning per la clonazione delle macchine virtuali in vCloud Director.

■ Hardware-assisted locking — Consente all'host ESX di eseguire l'offload di operazioni di blocco su Hitachi
  Virtual Storage Platform L'offload delle operazioni di blocco consente di disporre di una piattaforma di storage ad
  alta scalabilità per vCloud Director, nel caso in cui le risorse di storage comuni siano condivise da un elevato
  numero di macchine virtuali. È disponibile anche un metodo di blocco granulare LUN che consente di eseguire il
  locking a livello dell'indirizzo LBA (logical block address) senza fare ricorso alle prenotazioni SCSI o senza dover
  bloccare l'intero LUN mediante altri host.

Per ulteriori informazioni consultare la pagina Hitachi Virtual Storage Platform sul sito Internet di Hitachi Data
Systems.

Hitachi Adaptable Modular Storage 2000 Family
I sistemi della famiglia Adaptable Modular Storage 2000, di classe midrange, sono dotati di Hitachi Dynamic Load
Balancing Controller, che assicura un bilanciamento integrato, automatico e di tipo hardware del carico I/O front-to-
back-end, eliminando così per i soggetti che gestiscono lo storage l'esecuzione di task complessi e ai quali è
necessario dedicare molto tempo. In questo modo il traffico I/O verso le unità disco back-end è gestito e bilanciato
dinamicamente ed è condiviso in modo equo tra i due controller. L'architettura back-end point-to-point elimina ritardi
nel traffico I/O e i problemi di contesa che si verificano con la topologia Arbitrated Loop di Fibre Channel, fornendo
inoltre una larghezza di banda significativamente più elevata e un I/O perfettamente simultaneo.

Grazie alle porte Fibre Channel con configurazione active-active l'utente non deve preoccuparsi della proprietà del
controller; il traffico I/O viene infatti trasferito al controller mediante una comunicazione cross-path e qualsiasi
percorso può essere utilizzato come percorso normale. I controller di Hitachi Dynamic Load Balancing bilanciano il
carico del microprocessore trasversalmente ai diversi sistemi di storage. Se un microprocessore risulta troppo carico,
il LU management si attiva immediatamente per eseguire il bilanciamento. Per ulteriori informazioni sulla serie
Adaptable Modular Storage 2000 consultare il sito Internet Hitachi Data Systems Adaptable Modular Storage .

                                                                                                                                  6
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
VMware vCloud Director 1.0
VMware vCloud Director 1.0 raggruppa le risorse dei data center formando un'infrastruttura di cloud computing, sfruttando
l'efficiente pooling consentito da infrastrutture virtuali on-demand e autogestite per mettere a disposizione risorse
utilizzabili come servizi. L'architettura di riferimento è focalizzata sull'utilizzo di VMware vCloud Director come livello IaaS
(Infrastructure as a Service - infrastruttura come servizio).

VMware vCloud Director, in abbinamento a VMware vSphere, estende le capacità della vostra infrastruttura virtuale
nella fornitura dei servizi di cloud computing.

Ulteriori informazioni su VMware vCloud Director sono disponibili sul sito Internet di VMware.

VMware vSphere 4.1
VMware vSphere 4.1 è una piattaforma di virtualizzazione molto efficiente che fornisce un'infrastruttura per data center
robusta, scalabile e affidabile. VMware vSphere dispone di funzionalità come VMware Distributed Resource Scheduler
(DRS). VMware High Availability e VMware Fault Tolerance costituiscono una piattaforma facile da gestire.

VMware vSphere 4.1 supporta vApp, un raggruppamento logico di una o più VM in formato aperto di virtualizzazione, in
cui è possibile incapsulare un'applicazione multilivello con livelli di servizio e policy.

L'utilizzo della policy di multipath round-robin fornita dall'hypervisor VMware ESX 4, con bilanciamento del
carico dinamico grazie al controller simmetrico active-active di VMware DRS, consente di distribuire il carico
su diversi host bus adapter (HBA) e porte di storage.

Ulteriori informazioni sono disponibili alla pagina Internet VMware vSphere.

Design della soluzione
Di seguito sono descritte le infrastrutture di calcolo, di rete e di storage utilizzate per l'architettura di riferimento.

Infrastruttura di calcolo
L'infrastruttura di calcolo nell'architettura di riferimento è la seguente:

■ VMware vCloud Director 1.0

■ VMware vSphere 4.1

■ Hitachi Compute Blade 2000

VMware vCloud Director 1.0
VMware vCloud Director crea risorse astratte dall'infrastruttura VMware vSphere. Ogni risorsa astratta viene quindi messa
a disposizione con il deployment della sua stessa macchina virtuale. Il set completo delle risorse astratte costituisce lo
stack delle risorse.

La figura 2 rappresenta lo stack delle risorse di VMware vCloud Director utilizzato nell'architettura di riferimento.

                                                                                                                             7
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
Figura 2

Esistono provider virtual data center e organization virtual data center.

Gli utenti finali accedono al virtual data center dell'organizzazione come portale self-service. L'utente effettua il login
all'interfaccia web di VMware vCloud Director che consente l'accesso alle risorse computazionali, di rete e di storage
allocate.

Un organization virtual data center può allocare risorse computazionali in tre modi:

■ Allocation Pool — Una percentuale delle risorse allocate è assegnata a un organization virtual data center.
  L'overcommit è controllato dall'amministratore di sistema.

■ Pay-As-You-Go—Le risorse allocate sono assegnate a un organization virtual data center solo quando si crea
  una vApp.

■ Reservation Pool — Tutte le risorse allocate sono assegnate a un organization virtual data center. In qualsiasi
  momento gli utenti possono controllare l'overcommit della capacità.

L'architettura di riferimento è stato utilizzato il modello Allocation Pool, che consente di controllare l'allocazione delle
risorse nel miglior modo possibile. Le risorse sono assegnate a un'organizzazione con o senza overcommit. La
tabella 1 mostra la distribuzione delle risorse per il pool di allocazione; in questo caso non è possibile l'overcommit
delle risorse.

                                                                                                                               8
VMware vCloud Director con Hitachi Compute Blade 2000 e Hitachi Virtual Storage Platform - Architettura di riferimento
Tabella 1. Allocazione delle risorse a livello di organization virtual data center per pool senza overcommit

               Organizzazione di livello oro Organizzazione di livello                   Organizzazione di livello bronzo
                                             argento
CPU               100% di 81 GHz             100% di 63 GHz                              100% di 51 GHz
Memoria           100% di 138GB              100% di 132 GB                              100% di 123 GB

 Un organization virtual data center può essere autorizzato ad accedere ad un grande pool di risorse di CPU e di
 memoria contenuto nel pool di risorse del proprio provider virtual data center. La tabella 2 mostra la distribuzione
 delle risorse per i pool di allocazione che consentono l'overcommit delle risorse.

Tabella 2. Allocazione delle risorse a livello di organization virtual data center per pool con overcommit

               Organizzazione di livello oro         Organizzazione di livello           Organizzazione di livello bronzo
                                                     argento
CPU                 39% di 200 GHz                   31% di 200 GHz                      25% di 200 GHz
Memoria             34% di 402 GB                    33% di 402 GB                       31% di 402 GB

La percentuale di risorse prenotata può essere utilizzata per garantire un minimo di risorse sempre disponibile
all'organization virtual data center. Eventuali risorse rimanenti sono disponibili per l'organization virtual data center
solo quando possono essere fornite dal provider data center. Questo modello può essere utilizzato per l'overcommit
di risorse.

Le risorse computazionali possono essere modificate in modo dinamico per ogni organizzazione. Poiché le esigenze
in termini di risorse computazionali delle singole organizzazioni sono in continuo mutamento, le risorse di CPU e di
memoria possono essere incrementate o ridotte in modo individuale per venire incontro alle richieste del provider
data center.

Ogni organization virtual data center è associato a un provider data center, il quale può essere utilizzato per
classificare determinare livelli di service level agreement o persino le tipologie applicative. In figura 2 sono riportati i
tre provider data center utilizzati nell'architettura di riferimento: oro, argento e bronzo. Ciascuno di essi garantisce
livelli diversi per quanto riguarda le risorse di CPU e di memoria.

Ogni provider data center è associato a un pool di risorse all'interno di un cluster VMware vSphere DRS. Questi pool
di risorse non sono creati da VMware vCloud Director, ma vengono creati manualmente con VMware vCenter e sono
utilizzati per raggruppare logicamente diversi provider virtual data center.

Di norma si consiglia di configurare solo un pool di risorse per ogni livello di servizio, in modo da differenziare i vari
livelli. Per esempio, potete configurare un pool di risorse per ogni provider virtual data center di livello oro, argento e
bronzo. Configurate e create tutti i pool di risorse di livello subordinato per mezzo di vCloud Director.

VMware vSphere 4.1
L'infrastruttura VMware vSphere 4.1 rappresenta la base a seconda della quale vCloud Director definisce le risorse.
Per ottenere le migliori prestazioni da vCloud Director è necessaria un'infrastruttura robusta e dall'elevata
disponibilità.

L'infrastruttura VMware vSphere è stata configurata in due parti:

■ Cluster di management—Fornisce le applicazioni e i servizi necessari a VMware vCloud Director.

■ Cluster di risorse—Fornisce le risorse a ogni macchina virtuale installata tramite VMware vCloud Director come
  cluster dedicato, con capacità di calcolo raw per il consumo da parte dei tenant.

                                                                                                                               9
Si garantisce così una chiara separazione tra le risorse destinate alle operazioni di management e le risorse cloud.

Cluster di management
La figura 3 rappresenta il cluster di management utilizzato per far fronte alle esigenze in termini di infrastruttura
connesse con l'esecuzione di VMware vCenter, Oracle Database e VMware vCloud Director.

Figura 3

Il cluster di management contiene i seguenti componenti e funzionalità:

■ vCenter Server 4.1 — Gestione generale dell'infrastruttura virtualizzata

■ Oracle 11G — Macchine virtuali Red Hat Enterprise Linux 5 con Oracle 11G. Necessario per le istanze del
  database di vCenter Server 4.1 e vCloud Director 1.0

■ vCloud Director 1.0 Cell — Una singola istanza VMware vCloud Director che costituisce il componente core di
  vCloud Director. Si crea così un nuovo livello di astrazione che facilita la comunicazione tra i server vCenter ed
  ESX, con l'accettazione delle richieste dei clienti finali tramite un portale web integrato e le chiamate vCloud
  API.

■ vShield Manager—Componente di management di vShield Suite. È responsabile dell'installazione dell'agente
  vShield (vShield Edge), della configurazione delle regole del firewall e della gestione.

VMware segnala la seguente raccomandazione in relazione al numero di celle necessarie:

Numero di celle VMware vCloud = Numero di istanze VMware vCenter + 1

La cella aggiuntiva indicata nella formula viene utilizzata nei casi seguenti:

■ Come cella di riserva per failover

■ Quando è necessario disattivare una cella per interventi di manutenzione

Inoltre su una singola cella vCloud dovrebbe essere mappata un'unica istanza vCenter, in modo da assicurare un
consumo delle risorse maggiormente bilanciato tra le celle in termini di carico.

Per altre informazioni sulle best practice relative a vCloud Director consultare VMware vCloud Director 1.0 -
Prestazioni e best practice.

                                                                                                                        10
La tabella 3 descrive la configurazione della macchina virtuale per ogni servizio. VMware vCenter e VMware
vCloud Director si trovano su macchine virtuali separate rispetto alle loro applicazioni database.

Tabella 3. Configurazione della macchina virtuale per ogni servizio del cluster di management

Applicazione             SO                             CPU           Memoria       Disco Virtuale
VMware vCenter 4.1       Microsoft Windows              2 vCPU        4096 MB       100 GB Eagerzeroedthick (SO)
                         Server 2008 R2
                         Enterprise
Oracle Database 11g (vC Microsoft      Windows          4 vCPU        8192 MB       40 GB Eagerzeroedthick (SO), 256 GB
DB)                      2008 R2 Enterprise                                         Eagerzeroedthick (DB)
VMware vCloud Director   Red Hat Enterprise             2 vCPU        4096 MB       40 GB Eagerzeroedthick (SO)
1.0                      Linux 5.5
Oracle Database 11g (vCD Microsoft     Windows          4 vCPU        8192 MB       40 GB Eagerzeroedthick (SO), 100 GB
DB)                      2008 R2 Enterprise                                         Eagerzeroedthick (DB)

Nel cluster di management il carico delle macchine virtuali è distribuito da Dynamic Resource Scheduler (DRS) di
VMware tra due host hypervisor ESX 4.1. Quando gli host ESX sono configurati in un cluster VMware DRS, le risorse
sono aggregate in un pool che consente il loro utilizzo come se fossero un'unica entità.

Una macchina virtuale può utilizzare le risorse di ogni host nel cluster invece di dipendere da un unico host. VMware
DRS gestisce queste risorse come un pool, assegnando automaticamente le macchine virtuali a un host e monitorando
successivamente l'allocazione delle risorse. VMware DRS utilizza VMware vMotion per trasferire le macchine virtuali da
un host all'altro se riscontra un vantaggio in termini di performance o sulla base di criteri di ottimizzazione.

Il cluster ad alta disponibilità di VMware assicura ridondanza a tutte le macchine virtuali: se si verifica un
malfunzionamento o un'interruzione sulla linea di un host ESX, le macchine virtuali assegnate ad esso si riavviano
rapidamente su un altro host disponibile. Grazie all'architettura di riferimento è possibile il guasto di un solo host.
Maggiore ridondanza si ottiene aggiungendo altri host ESX al cluster di management.

Cluster di risorse
La figura 4 mostra la configurazione del cluster di risorse che contiene le macchine virtuali per l'elaborazione del carico di
lavoro dell'utente.

Figura 4

                                                                                                                                 11
In un cluster pool VMware DRS sono stati creati tre pool di risorse (oro, argento e bronzo), ognuno dei quali è
mappato su un unico provider virtual data center. Questo tipo di mappatura 1:1 facilita la separazione delle
caratteristiche in termini di prestazioni di ogni singolo provider virtual data center.

Nel cluster di risorse il carico delle macchine virtuali è distribuito da DRS di VMware tra sei host ESX. Dal momento
che tutte le risorse degli host ESX in un cluster VMware DRS sono aggregate in modo dinamico, è possibile
incrementare o ridurre le risorse di CPU e memoria, aggiungendo o rimuovendo gli host ESX al cluster. La risorsa
dinamica si riflette direttamente nel pool di risorse su cui è mappato il provider virtual data center.

La configurazione massima supportata da VMware vCenter è di 32 host ESX in un cluster DRS. Una volta raggiunto
il limite massimo con la funzione di scale-up, grazie alla scalabilità orizzontale è possibile creare un ulteriore cluster
VMware DRS per ospitare altri 32 host ESX. Una singola istanza VMware vCenter può supportare al massimo 1000
host ESX.

VMware High Availability (HA) fornisce ridondanza al cluster di risorse e alle macchine virtuali per l'elaborazione del
carico di lavoro dell'utente: se si verifica un malfunzionamento o un'interruzione sulla linea di un host ESX, le
macchine virtuali assegnate ad esso si riavviano rapidamente su un altro host disponibile.

Hitachi Compute Blade 2000
Per l'infrastruttura VMware vSphere 4.1 è stato utilizzato Hitachi Compute Blade 2000. La tabella 4 mostra la
configurazione hardware, mentre le 8 blade del server sono rappresentate nella figura 5.

Tabella 4. Configurazione Hitachi Compute Blade 2000

Modello           CPU                                                     RAM
8xX55A2           2 x 6 nuclei Intel Xeon 5670 a 2,93 GHz                 72 GB DDR3 Registered
                  Cache 12 MB                                             DIMM
                  Bus di sistema 6.40 GT/s

                                                                                                                             12
Figura 5

           13
La tabella 5 mostra la distribuzione delle risorse di Hitachi Compute Blade 2000. Vi è la possibilità di una crescita
 parallela a quella dell'infrastruttura VMware vCloud e VMware vSphere.

 Tabella 5. Distribuzione delle risorse Hitachi Compute Blade 2000

                      Cluster di management                  Cluster di risorse
Utilizzo              VMware vCenter 4.1 Oracle              Macchine virtuali per il carico di lavoro dell'utente
                      Database 11g VMware vCenter            ■       Pool risorse oro
                      DB VMware vCloud Director 1.0          ■       Pool risorse argento
                      vShield Manager 4.1                    ■       Pool risorse bronzo
                      ESX0, ESX1                             ESX2, ESX3, ESX4, ESx5, ESX6, ESX7
Blade del server      2                                      6
CPU                   35,16 GHz                              210,96 GHz
Memoria               144 GB                                 432 GB

 Infrastruttura di rete
 L'infrastruttura di rete nell'architettura di riferimento è la seguente. La versione di Hitachi Compute Blade 2000
 utilizzata in questa soluzione contiene l'hardware di rete descritto alla tabella 6.

 Tabella 6. Hardware di rete Hitachi Compute Blade 2000

Schede di rete NIC         Modulo switch 0           Modulo switch 1              Modulo switch 2              Modulo switch 3
2 porte onboard Intel      Switch LAN 1 Gb           Switch LAN 1 Gb/10           Switch LAN 1 Gb              Switch LAN 1 Gb/10
82576 Gigabit Ethernet     20 porte interne          Gb                           20 porte interne             Gb
(SERDES)                   1000Base-SERDES           20 porte interne             1000Base-SERDES              20 porte interne
1 porta mezzanine          4 porte esterne           1000Base-SERDES              4 porte esterne              1000Base-SERDES
quad (SERDES)              1000Base-                 4 porte esterne              1000Base-                    4 porte esterne
Intel 82576 Gigabit        T/100Base-TX/10-          1000Base-T/100Base-          T/100Base-TX/10-             1000Base-T/100Base-
Ethernet                   Base-T                    TX/10-                       Base-T                       TX/10-
                                                     Base-T                                                    Base-T
                                                     2 porte 10GBase-                                          2 porte 10GBase-
                                                     LR/SR (XFP)                                               LR/SR (XFP)

 Ogni blade del server contiene 6 schede di rete NIC Gigabit. Ogni scheda di rete è connessa tramite il midplane dello
 chassis alle porte interne del suo modulo switch.

 Nota—La prima VMNIC (vmnic0) numerata in ESX è Intel 825672LF-2. Non utilizzarla in ESX per il traffico di rete.

                                                                                                                                     14
Cluster di management
Ogni cluster contiene una rete di management, una per VMKernel e una per la macchina virtuale. Ogni rete del
cluster è configurata per uno scopo specifico. La figura 6 mostra la configurazione di rete del cluster di
management.

Figura 6
Il cluster di management utilizza uno switch virtuale standard per la rete della console di servizio, di VMkernel e
della macchina virtuale. Sono state usate due porte per la console di servizio.

VMNIC1, dedicata alla console di servizio 1, fornisce le seguenti funzionalità:

■ Traffico di management verso VMware vCenter

■ La rete heartbeat VMware High Availability per gli altri host ESX sullo stesso cluster ad alta disponibilità

VMware High Availability è un meccanismo di avvio del failover su rete. Per evitare un failover indesiderato di un
servizio ad alta disponibilità o l'isolation response dell'host, utilizzare una rete aggiuntiva heartbeat VMware High
Availability.

VMNIC2, dedicata alla console di servizio 2, è la rete heartbeat ridondante per VMware High Availability.

                                                                                                                        15
Un altro vantaggio derivante dall'utilizzo di Hitachi Compute Blade 2000 per VMware High Availability è che la
connessione tra le VMNIC e i moduli switch avviene mediante le porte SERDES collegate direttamente al
midplane dello chassis, eliminando così l'eventualità che un cavo venga tirato accidentalmente o di un cablaggio
difettoso. Dal momento che le strutture heartbeat ad alta disponibilità per ogni rete VMware High Availability si
trovano su un unico modulo switch e dominio di trasmissione, si riduce l'eventualità che un malfunzionamento
della rete esterna possa interrompere la rete heartbeat per VMware High Availability.

VMNIC2 fornisce anche una rete dedicata VMkernel per il traffico VMware vMotion, per gestire il traffico vMotion
tra i due host ESX nel cluster di management all'interno dello chassis.

VMNIC3 e VMNIC5, dedicate al traffico tra macchine virtuali, agiscono congiuntamente per bilanciare il
traffico in uscita.

Cluster di risorse
Il cluster di risorse fa uso dello stesso hardware del cluster di management, ma dispone di una configurazione
leggermente diversa, concepita in modo specifico per le macchine virtuali VMware vCloud che elaborano il carico
di lavoro dell'utente. La figura 7 mostra la configurazione di rete del cluster di risorse.

Figura 7

La configurazione della scheda VMNIC per la console di servizio e VMkernel è identica a quella del cluster di
management, mentre la rete della macchina virtuale viene configurata in vNetwork Distributed Switch (vDS) di
VMware. Centralizzata in un livello cluster, vDS si estende a molteplici host ESX. Anche il management della rete
degli host ESX è centralizzato, come consigliato per VMware vCloud Director.

                                                                                                                    16
Per il traffico tra macchine virtuali sono configurati due switch VMware vDS dal livello 1 e dal livello 2, con due
uplink per host ESX. Oltre a 6 host nel cluster di risorse, sono disponibili 12 uplink fisici (VMNICS) per ogni
VMware vDS.

I due uplink disponibili per ogni host ESX per VMware vDS agiscono congiuntamente per bilanciare il carico in
uscita sulla base dell'algoritmo calcolato per l'ID della porta. Ogni porta utilizzata dalle VMNIC sul modulo switch 2
e sul modulo switch 3 è inoltre configurata come trunk VLAN 802.1Q, per consentire a molteplici segmenti LAN il
transito di traffico virtuale.

I diversi livelli di VMware vDS sono determinati dalla larghezza di banda dell'uplink per ogni modulo switch su
chassis. La figura 8 mostra gli uplink esterni per ogni modulo switch.

Figura 8

Il modulo switch 0, collegato al modulo di management 0 e al modulo di management 1, è dedicato alla rete di
management degli host ESX, di VMware vCenter, delle blade individuali del server (tramite interfaccia web) e alla
gestione dello chassis di Hitachi Compute Blade 2000. La rete di management utilizza una connessione Ethernet 1
Gbit.

Il modulo switch 1 è dedicato al traffico VMware vMotion. Se il traffico VMware vMotion avviene tra le blade del
server situate sullo stesso chassis, non è necessario un uplink esterno, mentre se è disponibile una rete VMware
vMotion dedicata all'interno di un data center fisico, ai fini della connettività è possibile usare da tale switch l'uplink
10 Gbit.

Il modulo switch 2, dedicato al traffico inter-chassis tra macchine virtuali di livello 2, utilizza connessioni in rame
Ethernet 1 Gbit.

Il modulo switch 3, dedicato al traffico inter-chassis tra macchine virtuali di livello 1, utilizza connessioni in fibra
Ethernet 10 Gbit.

                                                                                                                              17
Infrastruttura di storage
Si descrive qui l'infrastruttura di storage. Hitachi Compute Blade 2000 (CB 2000) consente di utilizzare schede
HBA dual-port mezzanine con moduli switch dual per Fibre Channel oppure schede HBA dual per Fibre Channel
PCIe. L'architettura di riferimento utilizza le schede Fibre Channel dual port 8G bit/sec Five-EX family PCIe di
Hitachi.

La figura 9 mostra l'architettura di rete della storage area

Figura 9

Sono stati utilizzati due switch Brocade 5340. La prima porta su ogni HBA è stata collegata allo switch 1, mentre la
seconda porta su ogni HBA è stata collegata allo switch 2. La policy di multipath sull'ESX è stata impostata su
round-robin

Per la connessione allo switch 1 sono state utilizzate due porte, una da ogni cluster di Hitachi Virtual Storage
Platform, mentre per la connessione allo switch 2 sono state utilizzate altre due porte, una da ogni cluster di
Hitachi Virtual Storage Platform, Tale interconnessione consente di aumentare la ridondanza. Infatti, in caso di
guasto di uno switch, l'host ESX dispone ancora di due percorsi, uno su ogni cluster di Hitachi Virtual Storage
Platform.

Analogamente sono state utilizzate due porte di ogni controller su Hitachi Adaptable Modular Storage 2100 per la
connessione alle porte esterne di Hitachi Virtual Storage Platform.

                                                                                                                       18
La tabella 7 mostra la configurazione delle zone per il cluster di

Tabella 7. Configurazione delle zone del cluster di management per il gruppo di host di storage

Host          Numero         Nome della zona                                  Porta di
              HBA host                                                        storage
ESX 0                                                                         3B
              HBA1_1         esx0_hba1_1_vsp_3B_4B
                                                                              4B
                                                                              5B
              HBA1_2         esx0_hba1_2_vsp_5B_6B
                                                                              6B
ESX 1                                                                         3B
              HBA1_1         esx1_hba1_1_vsp_3B_4B
                                                                              4B
                                                                              5B
              HBA1_2         esx1_hba1_2_vsp_5B_6B
                                                                              6B

Per quanto riguarda la configurazione delle zone è stato utilizzato un initiator singolo, per cui ogni porta HBA è
mappata su 2 porte di destinazione, una su ogni cluster di Hitachi Virtual Storage Platform.

Con due porte per initiator e quattro porte di destinazione, sono disponibili in tutto quattro percorsi, che vengono
utilizzati da ogni host ESX in modalità round-robin.

Per semplificare la gestione e garantire la coerenza dei LUN mappati sugli host per il cluster di management, è
stato utilizzato un unico gruppo di host di storage per le quattro porte di destinazione (3B, 4B, 5B, 6B)

La tabella 8 mostra la configurazione delle zone per il cluster di risorse.

                                                                                                                       19
Tabella 8. Configurazione delle zone del cluster di risorse per il gruppo di host di storage

Numero        Numero         Nome della zona                               Porta di
              HBA Host                                                     storage

                                                                           3B
              HBA1_1         esx2_hba1_1_vsp_3B_4B
ESX 2                                                                      4B
                                                                           5B
              HBA1_2         esx2_hba 1_2_vs p_5 B_6B
                                                                           6B
                                                                           3B
              HBA1_1         esx3_hba1_1_vs p_3 B_4B
ESX 3                                                                      4B
                                                                           5B
              HBA1_2         esx3_hba 1_2_vs p_5 B_6B
                                                                           6B
                                                                           3B
              HBA1_1         esx4_hba1_1_vs p_3 B_4B
ESX 4                                                                      4B
                                                                           5B
              HBA1_2         esx4_hba 1_2_vs p_5 B_6B
                                                                           6B
                                                                           3B
              HBA1_1         esx5_hba1_1_vs p_3 B_4B
ESX 5                                                                      4B
                                                                           5B
              HBA1_2         esx5_hba 1_2_vs p_5 B_6B
                                                                           6B
                                                                           3B
              HBA1_1         esx6_hba1_1_vs p_3 B_4B
ESX 6                                                                      4B
                                                                           5B
              HBA1_2         esx6_hba 1_2_vs p_5 B_6B
                                                                           6B
                                                                           3B
              HBA1_1         esx7_hba1_1_vs p_3 B_4B
ESX 7                                                                      4B
                                                                           5B
              HBA1_2         esx7 _hba1_2_vsp_5B_6B
                                                                           6B

Il cluster di risorse è stato configurato nello stesso modo del cluster di management, per cui sono disponibili
quattro percorsi per gli host ESX. È stato però utilizzato un diverso gruppo di host di storage per garantire la
coerenza dei LUN mappati sugli host per il cluster di risorse.

La tabella 9 mostra la configurazione delle zone per lo storage esterno.

Tabella 9. Configurazione delle zone per lo storage esterno

  Host             Porta esterna      Nome della zona              Porta di storage

                   3D                 vsp_5D_ams2K_0A              0A
        VSP
                   4D                 vsp_6D_ams2K_1A              1A

                                                                                                                   20
Due porte di Hitachi Virtual Storage Platform sono state configurate come porte esterne. Analogamente alla configurazione
della storage area network, una porta è stata utilizzata da ogni cluster di Hitachi Virtual Storage Platform. Una porta su ogni
cluster è stata assegnata alla porta di un controller, in modo da mappare un cluster di Hitachi Virtual Storage Platform su
un controller di Hitachi Adaptable Modular Storage.

Configurazione del sottosistema di storage
Si descrive qui la configurazione del sottosistema di storage. Questa soluzione si avvale Hitachi Virtual Storage
Platform come storage principale. Lo storage virtualizzato viene trasmesso agli host ESX come se fosse situato su
Hitachi Virtual Storage Platform Sullo storage esterno è così possibile utilizzare le funzionalità avanzate di Hitachi
Virtual Storage Platform, tra cui VMware vStorage APIs for Array Integration, anche nel caso in cui esso non le
supporti.

La figura 10 mostra la configurazione del sottosistema di storage.

Figura 10

L'architettura di riferimento utilizza volumi di dynamic provisioning da 1,8 TB senza oversubscription. Mentre per
l'insieme dei volumi di dynamic provisioning è ammessa l'oversubscription, ESX 4.1 supporta una dimensione
massima dei LUN di 2 TB.

Pool di management di HDP
La figura 10 illustra il pool di management di HDP, con tre blocchi di parità che utilizzano dischi SAS RAID 5
(3D+1P) 300 GB 10K, per un volume di dynamic provisioning (Management DP-Vol) di 2 TB. Questo volume di
dynamic provisioning è presentato come un LUN nei confronti degli host nel cluster di management, in modo da
garantire capacità e prestazioni sufficienti per la maggior parte delle implementazioni.

Grazie alla natura dinamica di Hitachi Dynamic Provisioning è possibile far fronte a maggiori esigenze in termini di
prestazioni e capacità, aggiungendo facilmente blocchi di parità al pool di management di HDP.

                                                                                                                                  21
Pool oro di HDP
La figura 10 mostra il pool oro di HDP, con sei blocchi di parità che utilizzano dischi SAS RAID 5 (7D+1P) 146 GB
15K in tre volumi di dynamic provisioning da 1,8 TB (Gold DP-Vol), per un totale di 5,4 TB. Questi volumi di dynamic
provisioning sono presentati come tre LUN nei confronti degli host ESX nel cluster di risorse.

I LUN mappati da Gold DP-Vol1, Gold DP-Vol2 e Gold DP-Vol3 sono destinati allo storage di livello 1 nel provider
virtual data center oro.

Pool argento di HDP
La figura 10 mostra il pool argento di HDP, con sei blocchi di parità che utilizzano dischi SAS RAID 5 (7D+1P) 300
GB 10K in sei volumi di dynamic provisioning da 1,8 TB (Silver DP-Vol), per un totale di 10,8 TB. Questi volumi di
dynamic provisioning sono presentati come sei LUN nei confronti degli host ESX nel cluster di risorse.

Per il pool argento di HDP, anche se simile al pool oro di HDP, è stato usato un tipo di disco differente, con
prestazioni leggermente inferiori a causa di minori regimi di rotazione, ma di maggiore capacità rispetto ai dischi del
pool oro di HDP. Grazie alla maggiore capacità disponibile, il pool argento di HDP dispone di sei volumi di dynamic
provisioning.

I LUN mappati da Silver DP-Vol1, Silver DP-Vol2, Silver DP-Vol3, Silver DP-Vol4, Silver DP-Vol5 e Silver DP-Vol6
sono destinati allo storage di livello 2 nel provider virtual data center argento.

Pool bronzo di HDP
La figura 10 mostra il pool bronzo di HDP, con sei blocchi di parità che utilizzano dischi SAS RAID 5 (7D+1P) 300 GB
15K in sei volumi di dynamic provisioning da 1,8 TB (Bronze DP-Vol), per un totale di 10,8 TB. Questi volumi di
dynamic provisioning sono presentati come sei LUN nei confronti degli host ESX nel cluster di risorse.

I blocchi di parità sono stati creati mediante Hitachi Universal Volume Manager.

L'architettura di riferimento utilizza la funzionalità Hitachi Dynamic Provisioning messa a disposizione non da Hitachi
Adaptable Modular Storage 2100, bensì da Hitachi Virtual Storage Platform.

I LUN mappati da Bronze DP-Vol1, Bronze DP-Vol2, Bronze DP-Vol3, Bronze DP-Vol4, Bronze DP-Vol5 e Bronze
DP-Vol6 sono destinati allo storage di livello 3 nel provider virtual data center bronzo.

Gruppo percorsi esterni
La tabella 10 mostra la configurazione utilizzata per il collegamento di uno storage esterno da Hitachi Adaptable
Modular Storage 2100 a Hitachi Virtual Storage Platform.

                                                                                                                          22
Tabella 10. Configurazione gruppo percorsi esterni

                                       Numero di                                 Controllo del     Lunghezza della
Modello di storage                                          Modalità cache
                                       percorsi                                  flusso in entrata coda dei dati
Hitachi Adaptable Modular Storage 2100          2           Disabilitata         Disabilitato             32

Nell'architettura di riferimento è stata disabilitata la modalità cache per una maggiore facilità di gestione. Di
seguito si riportano i risultati derivanti dalla disabilitazione o abilitazione della modalità cache:

■ Se la modalità cache è abilitata, viene utilizzata la cache di Hitachi Virtual Storage Platform che segnala
  all'host il completamento delle operazioni di I/O ed esegue il trasferimento asincrono sul sistema di storage
  esterno.

■ La modalità cache disabilitata comporta l'elaborazione sincrona dei dati delle operazioni di I/O. Hitachi Virtual
  Storage Platform segnala all'host il completamento di un'operazione di I/O solo dopo l'esecuzione della
  scrittura sincronica dei dati sullo storage esterno da parte di Hitachi Virtual Storage Platform.

L'abilitazione della modalità cache migliora i tempi di risposta. La disabilitazione della modalità cache consente di
gestire più agevolmente i dispositivi logici esterni, ma comporta l'incremento del tempo di latenza.

Per migliorare la latenza si consiglia pertanto di abilitare la cache. Dopo aver abilitato la cache, dedicare una
partizione della cache ai dispositivi logici esterni, in modo date che questi ultimi non condividano le stesse
partizioni della cache dei dispositivi logici interni. Lo storage esterno potrebbe non raggiungere gli stessi livelli di
prestazioni di Hitachi Virtual Storage Platform. Il trasferimento dei dati allo storage esterno potrebbe pertanto
risultare più lento, con un incremento dell'utilizzo della cache e conseguenze per i dispositivi logici interni.

Nell'utilizzo delle partizioni della cache prestare particolare attenzione al dimensionamento e al
ridimensionamento, in funzione della variazione del volume esterno e del carico di lavoro.

Nell'architettura di riferimento è stato disabilitato il controllo del flusso in entrata per una maggiore facilità di
gestione. Il controllo del flusso in entrata determina la modalità di accettazione dei dati di I/O da parte dell'host
ESX quando un volume esterno è bloccato o non è disponibile. Di seguito si riportano i risultati derivanti dalla
disabilitazione o abilitazione del controllo del flusso in entrata:

■ Se si disabilita il controllo del flusso in entrata, è ammessa la scrittura dei dati di I/O sulla cache da parte
  dell'host ESX durante un'operazione di retry, anche quando non è possibile un'operazione di scrittura sullo
  storage esterno. La scrittura continua finché la cache è disponibile e i dati presenti nella cache vengono
  trasmessi al volume esterno non appena quest'ultimo diventa disponibile.

■ L'abilitazione del controllo del flusso in entrata blocca i dati di I/O dall'host ESX alla cache quando il volume
  esterno è bloccato o non è disponibile.

Se la cache è disabilitata e quindi non viene utilizzata, è opportuno disabilitare anche il controllo del flusso in
entrata e viceversa.

Dal momento che la cache è disabilitata in questa soluzione, è stato disabilitato anche il controllo del flusso in
entrata. In Hitachi Virtual Storage Platform non viene utilizzata la cache.

Prestazioni e scalabilità
Questa sezione prende in esame le prestazioni e la scalabilità dell'architettura di riferimento VMware vCloud
Director.

Per l'esecuzione dei test è stato utilizzato un carico di lavoro misto, composto da messaggi e-mail, pagine web e
OLTP. Il carico di lavoro è stato raggruppato in un sistema tile-based per misurare le prestazioni e la scalabilità
dell'applicazione. Ogni tile contiene carichi di lavoro misti che impegnano risorse critiche di calcolo e di storage.
Questi carichi di lavoro possono rappresentare un ambiente VMware vSphere con finalità generali.

                                                                                                                           23
Ogni tile comprende le seguenti macchine virtuali elencate nella tabella 11.

Tabella 11. Macchine virtuali per ogni tile.
                  Mail Server        Olio Web          Olio           DVD Store 2      DVD Store 2       Standby
                  (Exchange          Server            Database       Database         Web Server
                  2007)                                Server         Server
Quantità          1                  1                 1              1                3                 1
CPU               4 vCPU             4 vCPU            2 vCPU         4 vCPU           2 vCPU            1 vCPU
Memoria           8192 MB            6144 MB           2048 MB        4096 MB          2048 MB           512 MB

Test eseguiti su un totale di 6 tile tra 2 host ESX nel cluster di risorse. Sono state impiegate 48 macchine virtuali,
con 126 CPU virtuali e 159 GB di memoria virtuale configurata. Ogni tile è controllato da un unico client e ciascun
client del tile è controllato da un client primario. I client girano su altri host, esternamente agli host ESX destinati
all'elaborazione del carico di lavoro delle macchine virtuali. La tabella 12 indica la distribuzione dei tile.

Tabella 12. Distribuzione dei tile

                  Tile 1             Tile 2          Tile 3           Tile 4           Tile 5                 Tile 6
Host ESX          2                  3               2                3                2                      3
Pool di risorse   Organization       Organization    Organization     Organization     Organization           Organization
                  virtual data       virtual data    virtual data     virtual data     virtual data           virtual data
                  center             center          center           center           center                 center
                  oro                oro             argento          argento          bronzo                 bronzo
Storage           Datastore          Datastore       Datastore        Datastore        Datastore              Datastore
                  oro (livello 1)    oro (livello 1) argento (livello argento (livello bronzo (livello        bronzo (livello
                                                     2)               2)               3)                     3)
Poiché sono stati utilizzati solo due host ESX, il pool di dynamic provisioning per ogni organization        virtual data
center è stato ridimensionato in base a tale configurazione.

La tabella 13 riporta la configurazione di storage dei datastore.

 Tabella 13. Configurazione di storage dei datastore

                             Datastore oro              Datastore argento         Datastore bronzo
                             (livello 1)                (livello 2)               (livello 3)

Tipo di disco                146 GB 15K SAS             300 GB 10K SAS           300 GB 15K SAS
Blocchi di parità in HDP     2 RAID 5 (7D+1P)           2 RAID 5 (7D+1P)         2 RAID 5 (7D+1P)
Numero di LUN                1                          1                        1

Per simulare i carichi di lavoro di ogni organization virtual data center sono stati attribuiti 2 tile a ogni pool di
risorse dell'organization virtual data center stesso, oltre al datastore mappato per ogni virtual data center. In
questo modo si garantisce che le macchine virtuali in ogni tile saranno impegnate dalle risorse allocate per ogni
organization virtual data center. I test hanno misurato prestazioni in termini di calcolo, storage e applicazioni.

I carichi di lavoro sono stati eseguiti in due diverse occasioni e utilizzando due diverse configurazioni del pool di
allocazione delle risorse di VMware vCloud, con e senza overcommit.

                                                                                                                           24
La tabella 14 mostra il pool di allocazione in cui le risorse sono impegnate al 100% per le allocazioni delle risorse
 di CPU e memoria. L'uso delle risorse non supera il 100% delle risorse di CPU e di memoria.

 Tabella 14. Pool di allocazione senza overcommit

                     Organizzazione di livello oro Organizzazione di livello           Organizzazione di livello
                                                       argento                         bronzo
CPU                  100% di 27 GHz                    100% di 21 GHz                  100% di 17 GHz
Memoria              100% di 46 GB                     100% di 44 GB                   100% di 41 GB
La tabella 15 mostra la configurazione del pool di allocazione con overcommit.

Tabella 15. Pool di allocazione con overcommit
                     Organizzazione di livello oro Organizzazione di livello           Organizzazione di livello
                                                   argento                             bronzo
CPU                  39% di 67,75 GHz              31% di 67,75 GHz                    25% di 67,75 GHz
Memoria              34% di 134 GB                 33% di 134 GB                       31% di 134 GB

 Le massime risorse disponibili per ogni organizzazione sono pari a 67,75 GHz per la CPU e 134 GB per la
 memoria. Tali valori vengono ottenuti con l'uso di due soli host ESX nel cluster di risorse. La percentuale delle
 risorse di CPU e di memoria garantite per ogni organizzazione è risultata equivalente a quella della tabella 15,
 tuttavia con la possibilità di superare la propria allocazione, fino a raggiungere il valore massimo di 67,75 GHz per
 la CPU e 134 GB per la memoria.

 I virtual data center e la memoria delle macchine virtuali sono stati testati nelle due configurazioni del pool di
 allocazione eseguendo due tile per ogni organizzazione. La memoria totale configurata per le macchine virtuali per
 2 tile è di 54 GB. È disponibile una sovrallocazione di circa 8 GB per l'organizzazione oro, 10 GB per
 l'organizzazione argento e 13 GB per l'organizzazione bronzo.

 Il pool di allocazione senza overcommit non dispone di sufficienti risorse di memoria per far fronte alla richiesta
 totale. Il pool di allocazione con overcommit può ammettere l'allocazione della memoria configurata per le
 macchine virtuali nel caso in cui venga superata la percentuale prenotata, tuttavia le risorse oltre la percentuale
 prenotata non sono garantite.

                                                                                                                         25
Prestazioni di calcolo
Sono state rilevate le prestazioni delle risorse di calcolo sia per i pool di allocazione con overcommit che senza
overcommit.

La figura 11 mostra l'utilizzo della CPU e della memoria del pool di allocazione senza overcommit per
ogni organization virtual data center.

Figura 11

Nel pool di allocazione senza overcommit, le risorse medie utilizzate dal virtual data center di ciascuna
organizzazione si avvicinano molto all'allocazione riportata nella tabella 14, ma non superano mai l'allocazione
del 100%. Poiché si è verificata una sovrallocazione della memoria delle macchine virtuali, è avvenuto un
recupero della memoria tramite ballooning. Come previsto, tra i tre organization virtual data center il valore più
basso di ballooning della memoria si riscontra per il centro oro.

La figura 12 mostra l'utilizzo della CPU e della memoria del pool di allocazione con overcommit per ogni
organization virtual data center.

                                                                                                                     26
Figura 12

La figura 12 mostra l'utilizzo della CPU e della memoria degli organization virtual data center nel pool di
allocazione con overcommit, come descritto nella tabella 15. In questa configurazione, al virtual data center di
ogni organizzazione è consentito di superare la percentuale di risorse assegnate nel caso in cui siano
disponibili altre risorse non impegnate.

                                                                                                                   27
La figura 13 mostra, per ESX, l'utilizzo della CPU e della memoria del pool di allocazione senza overcommit
per ogni organizzazione.

Figura 13

La figura 13 mostra, per ESX, l'utilizzo medio della CPU e della memoria del pool di allocazione senza
overcommit. Alcune risorse di CPU e di memoria sono ancora disponibili e non utilizzate.

                                                                                                              28
La figura 14 mostra, per ESX, l'utilizzo della CPU e della memoria del pool con overcommit per ogni

Figura 14

La figura 14 mostra, per ESX, l'utilizzo medio della CPU e della memoria del pool di allocazione con overcommit. .
L'utilizzo di funzioni come swap e ballooning è diminuito sensibilmente grazie alla modifica dinamica dalla
configurazione del pool di allocazione delle risorse, per il quale è ora ammesso l'overcommit. È questo il
vantaggio di una configurazione che consente l'overcommit delle risorse. Gli host ESX sono in grado di garantire
l'effettiva disponibilità delle risorse prenotate. Il pool di allocazione con overcommit consente l'utilizzo di maggiori
risorse hardware.

Questi risultati indicano che l'impiego di un pool di allocazione di risorse di CPU e di memoria di maggiori
dimensioni può incrementare l'utilizzo dell'hardware, pur assegnando solo una determinata percentuale del pool
delle risorse a ogni organization virtual data center.

Prestazioni di storage
Questa sezione prende in esame le prestazioni di storage dell'architettura di riferimento, che sono state analizzate
con l'overcommit del pool di allocazione sia abilitato che disabilitato.

Prestazioni di storage di ESX
Le prestazioni di storage, come riportato da ESX, sono state analizzate per il datastore VMFS di ogni
organizzazione. Il test è stato eseguito per il pool di allocazione sia con overcommit, sia senza questa
funzionalità.

La figura 15 mostra il valore IOPS per ESX del pool di allocazione senza overcommit per organizzazione.

                                                                                                                           29
Figura 15

La figura 15 mostra il valore IOPS per ogni host ESX e ogni datastore utilizzato da ciascun organization virtual
data center in un pool di allocazione senza overcommit. La distribuzione I/O tra gli host è piuttosto equa.

La figura 16 mostra il valore IOPS per ESX del pool di allocazione con overcommit per organizzazione.

Figura 16
La figura 16 mostra il valore IOPS per ogni host ESX e ogni datastore utilizzato da ciascun organization virtual
data center in un pool di allocazione con overcommit. La distribuzione I/O tra tutti gli host è piuttosto equa.

Dal confronto tra il pool di allocazione senza overcommit e quello con overcommit emerge che quest'ultimo
genera più IOPS a causa del maggior numero di risorse di calcolo disponibili per ogni organization virtual data
center.

                                                                                                                   30
Prestazioni di Virtual Storage Platform
L'analisi prende in esame in particolare modo il pool di allocazione con overcommit proprio perché genera più
IOPS e sottopone il sistema a maggiori sollecitazioni.
La figura 17 mostra il valore IOPS per ogni dispositivo logico nel pool di allocazione con overcommit di Hitachi
Virtual Storage Platform.

Figura 17

La figura 17 mostra il valore IOPS prodotto dal dispositivo logico per ogni datastore del pool di allocazione con
overcommit. Il valore IOPS qui riportato è quasi identico a quello combinato dei due host ESX indicati nella figura
16; ne consegue che, in termini di I/O, esiste un overhead molto ridotto tra l'host ESX e Hitachi Virtual Storage
Platform.

                                                                                                                      31
Puoi anche leggere