Desktop Destiny

november 2014
Desktop Destiny
e – Book
De belangrijkste IT-workspace whitepapers van onze businesspartners:
P O W E R E D
B Y
Beste lezer,
De traditionele IT-werkplek is de afgelopen jaren radicaal veranderd. De volledig
gestandaardiseerde werkplek waarin alles door de IT-afdeling aangeboden en beheerd wordt
bestaat bijna niet meer. De IT-werkplek is een virtuele workspace geworden waarin
‘mobiliteit’ en ‘cloud’ steeds meer de boventoon voeren.
Dit exclusieve Desktop Destiny e-book verrijkt u met relevante ontwikkelingen omtrent deze
nieuwe IT-workspace. Login Consultants en zijn business partners van Desktop Destiny
hebben hun ervaringen gebundeld en trends op het gebied van onder andere virtualisatie,
mobility, VDI, SBC en DaaS in kaart gebracht.
Met dit e-book krijgt u een indicatie van wat u kunt verwachten op Desktop Destiny: het
innovatie & strategie event die bijdraagt aan uw werkplekstrategie. De onderwerpen die
behandeld worden in dit e-book, zullen tijdens de vele sessies uitgebreid de aandacht van
onze business partners krijgen.
Wat is uw #DesktopDestiny? Kom erachter op 19 november.
Inhoudsopgave
Hoofdstuk 1 – AppSense: Wat u moet weten voordat u aan virtualisatie begint
Hoofdstuk 2 – Login Consultants: VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Hoofdstuk 3 – Login VSI: No more VDI Performance Problems
Hoofdstuk 4 – Nutanix: Virtual Desktop Infrastructure and Healthcare
Hoofdstuk 5 – Citrix: Enterprise mobility – trends 2014
Hoofdstuk 6 – VMware: Using DaaS to Create the Ideal Desktop User Experience - Without a PC
Hoofdstuk 7 – Matrix42: Mobile ITSM Is More Important than Ever!
Hoofdstuk 8 – Global Knowledge: vTerminology: A Guide to Key Virtualization Terminology
Hoofdstuk 9 – Telindus: Software defined: the game changer
Hoofdstuk 10 – Atlantis & Dell: Hyperscale VDI
#DesktopDestiny
AppSense
Wat u moet weten voordat u aan virtualisatie begint
Rapport over kennisleidersc
chap
door Forreste
er Consulting in
n
opdracht van AppSense
W
Wat u moett wete
en
vo
oorda
at u a
aan
virtualisatie
e beg
gint
Wa
aarom g
gebruikkerserva
aring en
n een
flexxibele w
werkstijl belang
grijk zijn
n voor
implemen
ntatie
Juli 2014
Inh
houd
Mana
agement Samenvatting ................................................................................ 1
Tech
hnologie mo
oet ruimte bie
eden aan veranderende werkstijlen ............... 2
Virtu
ualisatie beg
gint met kostten - Maar eindigt bij de gebruikerse
ervaring . 4
Begiin aan Virtua
alisatie met h
het eind in g
gedachten ........................................ 6
Bela
angrijkste aanbevelingen
n .............................................................................. 9
Bijlage A: Metho
odologie .................................................................................... 10
ullend materriaal ....................................................................... 10
Bijlage B: Aanvu
vens ..................................................................... 11
Bijlage C: Demografie/Gegev
n
...................................................................................... 12
Bijlage D: Eind notities
OV
VER FORRES
STER CONS
SULTING
Forrester Consu
ulting biedt onafhankelijke
e en objectievve onderzoekksconsultancyy,
zod
dat leiders su
ucces hebben
n binnen hun organisatie. De diensten van Forreste
er
Co
onsulting varië
ëren van kortte strategiebijjeenkomsten
n tot op maat gemaakte
pro
ojecten en bre
engen u rech
htstreeks in co
ontact met on
nderzoeksanalisten die
desskundig inziccht hebben in uw specifiekke zakelijke uitdagingen. G
Ga voor meerr
info
ormatie naar forrester.com
m/consulting.
© 2014, Forrester Ressearch, Inc. Alle rechten voorbeh
houden. Ongeoo
orloofde reproductie is ten streng
gste
verbod
den. Informatie is gebaseerd op de best beschikkbare bronnen. Meningen
M
weerspiegelen het oorrdeel op
®
®
dat mo
oment en zijn on
nderhevig aan ve
erandering. Forre
ester , Technographics , Forresster Wave, RoleV
View,
TechR
Radar en Total E
Economic Impactt zijn handelsme
erken van Forresster Research, In
nc. Alle andere
hande
elsmerken zijn he
et eigendom van
n hun respectieve
e bedrijven. Ga voor meer inform
matie naar
www.fforrester.com. W
WI-216275
1
Ma
anageme
entsame
envatting
g
›
G
Gebruikerserrvaring is de
e sleutel tot s
succes. Om
v
virtualisatie
to
ot een success te maken, m
moeten gebru
uikers
h acceptere
het
en. Gebruikerrs zullen deskktop- en
a
applicatievirtu
ualisatie hoog
gstwaarschijn
nlijk omarmen
n als
d verbinding
de
g snel en de computeromg
c
geving vertrou
uwd is,
in
nhoud en app
plicaties eenvvoudig vanuitt vorige
o
omgevingen
kkunnen worden overgebra
acht en proble
emen
v klanten beter zijn op te
van
e lossen dan voorheen.
›
D
De virtualisattie zelf is me
eestal geen p
maar
probleem, m
v
vereist
een g
goede planniing en goede
e hulpmidde
elen.
In
nvesteren in de juiste hulp
pmiddelen en
n trainen van
g
gebruikers
is belangrijk vo
oor een geslaa
agde
im
mplementatie
e.
Orga
anisaties besluiten virtuele
e desktops en
n applicaties te
imple
ementeren, omdat
o
ze verw
wachten dat daardoor hun
n
koste
en dalen. Hoewel de kosttenbesparing belangrijk is,,
ontdekken ze datt desktop- en
n applicatievirrtualisatie hun
n
eft. De manie
er van werken
n van
bedrrijf nog meer te bieden hee
werkknemers word
dt opnieuw vo
ormgegeven.
In ee
en tijd waarin
n werkstijlen veranderen
v
en werknemerrs in
open
nbare ruimtess, onderweg, thuis en op e
eigen devicess
moe
eten kunnen w
werken, kan vvirtualisatie een flexibiliteitt
bieden waarmee de werknem
merstevredenh
heid, de mobiliteit,
de p
productiviteit e
en zelfs het fiinancieel rend
dement kunn
nen
word
den geoptima
aliseerd. Deze
e voordelen d
doen zich alle
een
voorr als virtualisa
atieoplossinge
en op de juiste manier wo
orden
geïm
mplementeerd
d.
In mei en juni van
n 2014 gaf Ap
ppSense Forrrester Consu
ulting
de o
opdracht om vvirtualisatie-im
mplementatie
e te evalueren
n.
Om deze ontwikkkeling nader tte verkennen, ontwikkelde
e
Forre
ester een hyp
pothese waarmee de stellling werd gete
est
dat d
de ervaring en productivite
eit van eindge
ebruikers en niet
de kosten het uite
eindelijke voo
ordeel zijn vo
oor organisatie
es
n virtualisatie
e investeren.
die in
Aan de hand van
n diepgaand o
onderzoek on
nder 300 ITman
nagers en -be
eheerders die
e verantwoord
delijk zijn voo
or de
virtuele desktop e
en/of virtuele applicaties, concludeerde
c
e
Forre
ester dat dezze bedrijven h
hier baat bij h
hadden wat betreft
de w
werknemers, d
de IT-afdeling
g en de finan
nciële resultatten.
Forre
ester conclud
deerde ook dat een aantal aanbevolen
n
werkkwijzen moet worden gevo
olgd om een hoog
slagiingspercenta
age te behalen en veelvoo
orkomende
obstakels en uitdagingen in ve
erband met d
deze
ementatie we
eg te nemen.
imple
BEL
LANGRIJKST
TE BEVINDIN
NGEN:
Uit h
het onderzoekk van Forrestter kwamen vverschillende
belangrijke bevindingen naar voren:
›
IT--managers denken
d
dat ze
z virtualisattie
im
mplementeren om kosten
n te beheren
n. Als het op d
de
im
mplementatie aankomt, rich
hten de meesste IT-manag
gers
zicch op kostenvvermindering
g.
›
Ze
e ontdekken echter dat virtualisatie
v
e krachtig
een
g
an
ntwoord kan zijn op vera
anderende w
werkstijlen. In
n een
tijd
dperk van mo
obiele werkne
emers en BYO
OD (bring yo
our
ow
wn device) is virtualisatie e
een krachtig hulpmiddel
h
om dit
vo
oor werkneme
ers mogelijk tte maken.
2
Tec
chnolog
gie moet ruimte b
bieden a
aan
verranderen
nde werkstijlen
AFBEELDIN
NG 1
Flexibele w
werkstijlen ziitten in de lifft
De huidige
h
generratie werknem
mers verweze
enlijkt een
revo
olutie op het g
gebied van we
erkstijlen. Ze staan altijd sstil bij
nieuw
we en betere
e manieren va
an werken; hoe ze minderr tijd
kwijtt kunnen zijn aan minder b
belangrijke za
aken en meer tijd
kunn
nen besteden
n aan zaken d
die er wel toe
e doen. Het
resultaat:
›
›
›
›
De
e werklocatie
e verandert drastisch. D
De huidige
ge
eneratie werkknemers wil te
echnologieën
n waarmee ze
e op
elkke gewenste plek kan werrken, zoals th
huis, in openb
bare
ruimtes en op w
weg naar hett werk (zie afb
beelding 1). G
Gaf in
20
012 nog 11% van de were
eldwijde kenniswerkers aa
an in
op
penbare ruimttes te werken
n, in 2013 wa
as dat al 27%. De
tecchnologiestra
ategie van elkk bedrijf moett ten doel heb
bben
om
m mobiele we
erknemers hie
ertoe de ruim
mte te geven.i
Ca
arrièregerich
hte werknem
mers vinden ttechnologie
be
elangrijk voo
or het uitvoe
eren van hun
n werk. De
hu
uidige genera
atie werkneme
ers wil over d
de beste
tecchnologie beschikken bij d
de uitvoering van het werkk.
So
ommigen zijn zelfs bereid om mee te b
betalen aan
de
evices en dien
nsten die nod
dig zijn voor h
het uitvoeren van
hu
un werk. Van de werknemers die van zzichzelf zegge
en
da
at ze aan hun
n carrière werrken, zei 42%
% bereid te zijn om
fin
nancieel bij te
e dragen aan technologiscche aankopen
n
vo
oor het werk. Als deze werrknemers nie
et tevreden
wo
orden gesteld
d, gaan ze BY
YOD-technolo
ogie gebruike
en
(ziie afbeelding 2).
Be
etrokken werknemers zijjn tevredene
er met IT.
Be
etrokken werkknemers zijn werknemerss die tijd en
en
nergie steken in het succe
es van uw bed
drijf, die lange
er
loyyaal zijn aan het bedrijf wa
aar ze werken en bereid zzijn
om
m hun werkge
ever bij anderren aan te be
evelen.ii Zij zijjn uw
be
este werknem
mers. Anders dan men zou
u verwachten
n,
vra
agen betrokkken werknemers minder va
an de IT-afde
eling
iii
en
n zijn ze tevre
edener. Maa
ar vergis u nie
et: deze
we
erknemers ha
anteren hoge
e normen en zzullen wat u h
hen
nie
et biedt, aanvvullen met BY
YOD-technolo
ogie.
Ze
e hebben pas
ssie voor wa
at ze doen. B
Betrokken
we
erknemers sp
pannen zich vvolledig in en nemen zelfss
vriijwillig werk m
mee naar huiss. 77% van de
so
oftwareontwikkkelaars zei b
bijvoorbeeld d
dat ze in hun
eig
gen tijd aan code
c
werken, vanwege hu
un enthousiassme
vo
oor programm
meren, om hun vaardighed
den op peil te
e
ho
ouden of als h
hobby. U wilt deze betrokkken werknem
mers
tevvreden houde
en, en ze niet verlammen met moeilijk te
Bassis: 5519 kenniswerkers wereldw
wijd
†Ba
asis: 9766 kenniswerkers wereld
dwijd
Bro
on: Workforce Fo
orrsights, K3 201
13, K3 2010
gebruiken, du
g
ure technolog
gieën die niet goed werken
n op
h eigen devvices.
hun
Viirtualisattie-impleementatiees moeteen
beetrokken
n werknem
mers niet
teegenwerk
ken. In pllaats daaarvan
m
moeten zee flexibelee werkstiijlen
m
mogelijk m
maken, zo
odat werrknemerss op
ellke gewen
nste plek
k, elk gew
wenst
tijjdstip en
n elk geweenst deviices kunn
nen
w
werken zo
onder datt dit ten k
koste gaa
at
va
an de geb
bruikerseervaring.
WA
AT VRAGEN BETROKKE
EN WERKNE
EMERS VAN U?
Hoe kunt u deze
e betrokken w
werknemers vvan wie de w
werkstijl
verrandert, tevre
eden stellen? Wat verwach
hten ze van u
u? Met
uw
w technologiesstrategie help
pt u ze aan:
›
B
Betere toega
ang tot inform
matie. Techn
nologie moet
w
werknemers
zzo goed mogelijk toegang
g geven tot
in
nformatie die
e ze nodig heb
eer ze die nod
dig
bben, wanne
h
hebben.
Voorr werknemerss die zich met klanten
b
bezighouden,
, kan de hele klantervaring
g afhangen vvan het
fe
eit of een werknemer al dan niet de juiiste informatie
e kan
v
verschaffen.
3
›
Hu
ulpmiddelen
n om klanten
n te bedienen
n. Werkneme
ers
mo
oeten ook toe
egang hebbe
en tot belangrrijke applicatie
es en
syystemen om in
nformatie die
e ze ontvange
en te kunnen
toe
epassen en p
problemen va
an klanten te kunnen oplossen.
›
Aa
anpassing aa
an veranderrende omsta
andigheden.
W
Werknemers sttellen het ookk op prijs als ze weten datt de
tecchnologie die
e ze bij de uitvvoering van h
hun werk
ge
ebruiken niet veroudert do
oor verandere
ende
ma
arktomstandigheden of tijd
dens het reizzen.
›
Fle
exibiliteit en
n autonomie.. Tot slot stelllen werknemers
he
et op prijs als ze enige inbreng hebben in welke
tecchnologie ze kunnen gebrruiken. Ze willlen flexibele
hu
ulpmiddelen e
en toestemmiing om zelf te
e bepalen hoe
e en
wa
aar ze werken
n.
AFBEELDING
A
G2
T
Technologie
moet mogelijkheden crreëren voor
b
betrokken
we
erknemers
WAT
T HEBBEN W
WERKNEMERS ECHT VA
AN U NODIG
G?
EEN
N UITSTEKEN
NDE GEBRU
UIKERSERVA
ARING
Voorr het oplossen van deze p
problemen, ku
unnen
orga
anisaties zich tot desktop- en applicatie
e-virtualisatie
wend
den. Om te b
begrijpen wat de virtualisattie-implemen
ntatie
inhoudt, hielden w
we een onderzoek onder 300 IT-mana
agers
en -b
beheerders d
die verantwoo
ordelijk zijn vo
oor de virtuele
deskktop en/of virttuele applicatties.
De respondenten
r
n noteerden voor
v
welke uittdagingen zij
kwam
men te staan
n tijdens de im
mplementatie. ‘Weerstand van
gebrruikers’, ‘tevre
edenheid van
n gebruikers’ en ‘training van
v
gebrruikers’ werde
en allemaal genoemd,
g
som
ms zelfs
mee
erdere keren. ‘Ze vonden h
het verschrikkkelijk’, schree
ef
een IT-manager vvan een prod
ductiebedrijf. Iemand ande
ers
had
d er maar één
n woord voorr over: ‘strijdlu
ustig’, waaruiit kan
worden opgema
aakt dat gebrruikers snel geïrriteerd of b
boos
werden en de discussie aan gingen.
Wa
at is de reden
n van de prob
blemen die met desktop- e
en
app
plicatievirtualisatie gepaarrd gaan? Vaa
ak ligt het anttwoord
gebruikerservvaring. De ge
bij g
ebruikerserva
aring omvat
perrcepties en ge
edrag als gevvolg van een bepaalde
com
mputeroplosssing en meet hoe bekwaam iemand is met
de hulpmiddelen
n die ter bescchikking staan. In het geva
al van
plementaties o
omvat de geb
bruikerservarring:
virttualisatie-imp
›
S
Snelle en sta
abiele toegan
ng. De algehele prestatiess
m
moeten
soepe
el verlopen willen
w
gebruike
ers virtuele
d
desktops
en a
applicaties om
marmen. Alss uitdagingen waar
z voor stond
ze
den, noemden
n de deelnem
mende IT-man
nagers
r
regelmatig
‘sn
nelheid’ en ‘p
prestaties’.
›
V
Vertrouwdhe
eid. De produ
uctiviteit van g
gebruikers en
n hun
v
vertrouwen
in
n de oplossing
g nemen af a
als de
c
computeromg
geving niet ve
ertrouwd en relatief
r
stabiel is. ITm
managers
noe
emden ‘tijd om vertrouwen van gebruikkers te
w
winnen’
en ‘le
eerproces’ alss uitdagingen
n die met deze
e
k
kwestie
te ma
aken hadden..
›
O
Overdraagba
aarheid. Bij vvirtualisatie-im
mplementatiess
m
moeten
ouderre middelen ((bestanden, g
gegevens) en
n
a
applicaties
na
aar een nieuw
we omgeving worden
g
gemigreerd,
z
zodat
gebruikkers zich op h
hun gemak vo
oelen.
IT
T-managers noemden ‘inttegratie’ en ‘m
migratie’ als d
de
u
uitdagingen
d
die hun verwa
achtingen ove
ertroffen tijdens de
im
mplementatie
e.
›
S
Succes bij kllanten. Virtue
ele desktops en applicatie
es
m
moeten
werkn
nemers helpe
en hun doelen te
v
verwezenlijke
en. Als uw we
erknemers ee
en geweldige
e
ervaring
voor uw klanten willen
w
creëren
n, moeten ze
b
beschikken
ovver hulpmidd
delen waarme
ee ze hun takken
e
efficiënt
kunne
en uitvoeren.. In die zin is de
g
gebruikerserv
varing van gro
ote invloed op
p de klantervvaring.
4
Afbeelding 3.
De interesse
e in virtualis
satie blijft to
oenemen
Wo
oord van
n de dag: ‘Strijdlu
ustig.’
Beeschrijvin
ng: Gebru
uikers zij
ijn snel
geïïrriteerd
d of boos en gaan de
disscussie aan.
Reelevantie: Beschriijving do
oor een
resspondentt die bij eeen detaiilhandel
weerkt van de reactiies van g
gebruikerrs
tijd
dens de iimplemen
ntatie,
wa
aarschijn
nlijk vanw
wege een
n slechte
geb
bruikersservaring
g.
Afbeelding 4.
IT-managers
s richten zic
ch in eerste instantie op
p de
kosten om v
virtualisatie te bepleiten
n
De virtualis
satie beg
gint bij d
de koste
en,
aar eindigt met de
d
ma
geb
bruikers
servaring
g
Lowering costs
Better security
Increasing manageabilityy, including patching
Im
mproving our ability to resto
ore functionality and…
Providing fleexible remote access
Supporting employees to w
work from anywhere
Im
mproving compliance
Reducing PC energy con
nsumption expenses
Enaabling employees to use theeir personal PCs as a…
Supporting use of Ap
pple Mac computers
Supportin
ng access for tablets
Other reason
Don't know
We vroegen
v
IT-m
managers watt hun redenen
n waren om
deskktop- en appliicatievirtualisatie te implem
menteren. Ze
e
noem
mden allerlei redenen die in een paar ccategorieën
kunn
nen worden in
ngedeeld:
›
Ko
ostenvermin
ndering. De b
belangrijkste drijfveer is
ko
ostenvermindering. 33% Van
V de IT-managers noem
mde
e drijfveer vo
de
eze reden alss voornaamste
oor hun
virrtualisatiewerrk. Hoewel ditt veruit de be
elangrijkste
drijfveer is, vind
den veel ondernemingen het lastig om in
de
e planningsfase betrouwba
are informatie
e in te winnen
n
ovver operatione
ele kosten.iv
›
IT--prestaties verbeteren.
v
IT-managers noemden oo
ok
en
nkele IT-gerellateerde drijfvveren, zoals betere
b
beveiliging,
be
etere beheerb
baarheid, noo
odherstel en ondersteunin
o
ng
vo
oor Macs en ttablets (zie affbeelding 4).
›
Werknemers m
meerwaarde
e bieden. Slecchts enkele IT
Tanagers bescchouwden virrtualisatie ookk als meerwa
aarde
ma
vo
oor werkneme
ers, waarbij 10% flexibele, externe toeg
gang
en
n 8% het uitvo
oeren van we
erkzaamhede
en vanaf elke
loccatie als motiivatie opgaf.
0%
33
3%
13%
%
12%
11%
10%
8%
5%
3%
2%
1%
1%
1%
1%
10%
20
0%
30%
40%
VIR
RTUALISATIE BIEDT WE
ERKNEMERS
S VEEL MEE
ER
VO
OORDELEN D
DAN GEDAC
CHT
Hoewel IT-mana
agers voorna
amelijk voor virtualisatiev
imp
plementatie kkozen vanweg
ge kostenverrmindering en
n
bettere IT-presta
aties, vertoon
nden de resultaten iets hee
el
and
ders. Het oorrspronkelijke argument ein
ndigde niet
bovvenaan in de resultaten vo
oor hun bedriijven:
›
D
De productiv
viteit van ein
ndgebruikers
s nam aanzie
enlijk
toe. Het belan
ngrijkste resu
ultaat van virttualisatieim
mplementatie
es? Met 51% is dat verhoo
ogde producttiviteit
o
onder
werkne
emers, terwijl ze op afstand op verschillende
d
devices
werke
en (zie afbee
elding 5). Slecchts 18% noe
emde
d scenario als oorspronke
dit
elijke drijfvee
er. Indien goed
g
geïmplemente
eerd, kan virttualisatie de b
behoeften van
fllexibele werkknemers onde
ersteunen.
5
›
›
Virtualisatie zo
orgde vaak voor
v
meer
erknemerste
evredenheid. Een grote g
groep ITwe
ma
anagers (39%
%) zei dat de tevredenheid
d bij
ein
ndgebruikerss met de computeromgevin
ng toenam, w
wat
ind
druist tegen e
enkele vooroo
ordelen ten a
aanzien van de
d
ge
ebruikerserva
aring bij virtua
alisatie. 34% zzei dat
we
erknemers de
e mogelijkheid kregen om efficiënter te
e
we
erken op hun eigen device
es, waardoorr ook de BYO
ODstrrategie wordtt ondersteund
d. In beide ge
evallen was d
dit
gu
unstig voor de
e werknemers
rs.
Afbeelding 5.
Virtualisatie
e komt niet a
alleen de IT--afdeling, ma
aar
ook werkne
emers ten go
oede
Inccreased productivity wh
hile working remotely
fro
om end users (access frrom multiple devices)
Faster incident resolution or fewer desktop‐
ncidents
related in
51%
46%
%
Faster disaster recovery
41%
Faster boot‐up orr access to a Windows
desktop environment
Increased end user satisfaction with the
desktop compu
uting environment
Ability to work more effectively with
personallyy owned devices
Err zijn natuurllijk ook tradiitionele IT-vo
oordelen.
On
nderneminge
en zagen ook regelmatig d
de IT-gerelate
eerde
ressultaten waar ze naar op zoek waren. Volgens 46%
%
leidde de imple
ementatie tot een snellere
inccidentoplossing, maar waren ook een ssneller
no
oodherstel (41
1%), een sne
ellere opstart van de Wind
dowsbu
ureaubladomg
geving (40%)) en een bete
ere beveiliging
g
(29
9%) het gevo
olg.
40%
39%
34%
Fewer data breachees and better security
29%
Other
1%
None of the above – w
we have not seen any productivvity gains
2%
Don't know
1%
0%
10%
20%
30%
40%
60%
50%
Korttom: In veel gevallen
g
bete
ekent virtualissatie een winwinssituatie voor zowel
z
werkne
emers als de IT-afdeling.
Afbeelding 6.
Organisatie
es meten hett succes van
n virtualisatiie aan
de hand van
n de werkne
emerstevredenheid
DE R
RESULTATE
EN VAN VIRT
TUALISATIE
E METEN
Uiteiindelijk zien b
bedrijven die virtualisatie a
adopteren in dat
de e
echte waarde van de imple
ementaties he
et creëren va
an
mog
gelijkheden vo
oor werkneme
ers is. Ze imp
plementeren
e meten, zoa
als:
verschillende maatstaven om het succes te
›
›
›
›
End user ssatisfaction
Inc
cidenten voo
or de IT-help
pdesk. De be
elangen van d
de ITafd
deling spelen
n ook mee. 54
4% zei dat op
perationele ko
osten
vo
oor het Windo
ows-bureaubllad en de app
plicaties word
den
me
eegewogen b
bij de succescriteria.
De
esktopbehee
er en gerelatteerde opera
ationele kostten.
Ko
osten blijven e
een grote rol spelen. 52%
% noemde kossten
alss de belangrijjkste maatsta
af voor succe
es.
54%
Windows deesktop and…
54%
D
Desktop manageement and…
Ma
aatstaven vo
oor de eindg
gebruikerstev
vredenheid.
Uiteindelijk draait het allema
aal om wat w
werknemers vvinden
va
an de hulpmid
ddelen die ze
e aangereikt krijgen.
k
Volge
ens
60
0% van de IT--managers iss dit een belangrijke maatsstaf
vo
oor succes (ziie afbeelding 6). Hierbij ko
omen enquêttes
on
nder werknem
mers, focusgrroepen en een opendeurb
beleid
wa
at betreft feed
dback goed van
v pas.
Ma
aatstaven vo
oor de eindg
gebruikerserrvaring. En
hie
ermee verban
nd houdend zzei 54% dat m
maatstaven voor
v
ein
ndgebruikersservaring, zoa
als de opstartttijd van
ap
pplicaties, ren
ndersnelhede
en en andere
pre
estatiemeting
gen, ook esse
entiële succe
esfactoren zijn
n.
%
60%
End user expeerience and…
52%
Mean timee to resolve…
35%
Number of deskttop‐related…
0%
27%
%
20%
40
0%
60%
80%
VIR
RTUALISATIE BEVORDE
ERT DE PRO
ODUCTIVITEIT EN
KL
LANTERVAR
RING – ALS HET
H
GOED G
GEBEURT
Een
n goede virtu
ualisatie-imple
ementatie zorgt voor
waardeontwikke
eling, doordatt werknemerss nu dingen kkunnen
doe
en die eerderr niet mogelijkk waren. Hierronder staan twee
voo
orbeelden van bedrijven in
n de:
›
L
Lucht- en ruiimtevaart. Ee
en lucht- en
r
ruimtevaartfab
brikant wilde dat werknem
mers in het ve
eld en
in
n de fabriek o
over betere h
hulpmiddelen dan de besta
aande,
s
statische
pdf-bestanden ko
onden beschikken. Door zze
A
Apple
iPads m
met virtuele d
desktops te ge
even, bood h
het
b
bedrijf
hen de
e mogelijkheid
d om een vlie
egtuig virtuee
el te
d
demonteren
vvoordat ze ditt ook daadwe
erkelijk gingen
n
6
do
oen. Deze inn
novatie had m
minder fouten en een hoge
ere
pro
oductiviteit to
ot gevolg, waa
ardoor nalooptijden worde
en
vo
oorkomen waarin werknem
mers op de w
werkvloer het w
werk
mo
oeten neerleg
ggen om info
ormatie in te w
winnen bij de
ing
genieurs.
›
Ge
ezondheidszzorg. Een zie
ekenhuis impllementeerde een
virrtuele desktop
p in plaats va
an traditionele
e laptops. Arttsen
zijn zeer mobie
ele werkneme
ers en moeten zowel in de
e
ka
amers van pa
atiënten als in hun kantoorr en thuis toeg
gang
he
ebben tot med
dische dossie
ers. Dankzij virtualisatie
v
he
ebben artsen de vrijheid om zich te verrplaatsen, terw
wijl
de
e computerom
mgeving vertrrouwd blijft. Hierdoor
H
hoevven
ze
e niet steeds te
t wennen aa
an een nieuw
w apparaat. D
De
pro
oductiviteit na
am toe en de
e klantervaring verbeterde
e voor
pa
atiënten.
›
VO
OORKOM PR
ROBLEMEN D
DOOR VOOR
RUIT TE
PLA
ANNEN
Me
et de juiste ve
erwachtingen kunt u enkele valkuilen
verrmijden waar anderen mee
e te maken kkregen. Voorkkom
derrgelijke geme
eenschappelijjke probleme
en door de
imp
plementatie sstrategisch aa
an te pakken::
›
Begin aan virtualis
satie met het ein
nd
g
ten
in gedacht
De voordelen
v
voo
or gebruikerss, de IT-afdeling en de win
nst
zijn helder.
h
Maar virtualisatie iis geen eenvo
oudig process.
Volg
gens de respo
ondenten van
n ons onderzo
oek is het
belangrijk om ale
ert te blijven:
›
›
Ru
uim een kwa
art overschrijdt het budg
get. Hoewel 61%
6
aa
angaf dat het budget preciies toereikend
d was voor de
im
mplementatie, overschreed
d 28% het bud
dget. 8% had
d
miinder nodig d
dan begroot. W
Wat kan een reden zijn? V
Voor
ve
erschillende u
use cases gellden ook sterrk uiteenlopen
nde
ko
ostenmodellen
n. Callcentermedewerkerss,
be
eurshandelare
en en artsen die in een zie
ekenhuis rondes
lop
pen, stellen a
allemaal ande
ere eisen aan
n een virtueel
de
esktop- of app
plicatiesystee
em dan techn
nici,
ve
erkoopvertege
enwoordigerss of grafische
e vormgeverss.
An
ndere zakelijkke behoeften, zoals onderrsteuning voo
or
vid
deoconferentties, dicteerso
oftware en
mo
obiliteitsplatfo
ormen, leiden
n tot andere kkeuzes wat betreft
ha
ardware- en prestatiemoge
p
elijkheden en
n op hun beurrt tot
ee
en verschil in operationele
e kosten. Som
ms worden de
eze
facctoren niet vo
olledig meege
enomen in de
e planning.
Va
anwege felle
e weerstand vooraf kan s
slechts driek
kwart
va
an de geplan
nde gebruike
ers worden omgezet.
o
De
resspondenten noteerden
n
bijjvoorbeeld ‘ko
oppige gebru
uikers
die
e weigerden over te schakkelen’ en ‘gee
en adoptie do
oor
ein
ndgebruikerss’ als kopzorg
gen bij de imp
plementatie. M
Maar
de IT-manag
lie
efst 22% van d
gers moest de
e migratie naa
ar
virrtuele desktop
ps in ieder ge
eval voor enkkele gebruikers
terrugdraaien.
H
Het is lastige
er dan u denkt. Verwachtt net als bij alle
c
complexe
mig
graties het on
nverwachte. D
De responden
nten
n
noemden
de ccomplexe migratie van ap
pplicaties,
o
onvoltooide
trraining van ge
ebruikers die opnieuw mo
oest
p
plaatsvinden
en problemen met de netw
werksnelheid
d
v
vanwege
de e
externe serve
ers voor deskktopvirtualisattie als
o
obstakels
die ze niet hadden voorzien.
A
Applicatiepre
estaties vorm
men de groo
otste uitdaging.
V
Voor
zowel de
esktop- als applicatievirtua
alisatie vorme
en de
a
applicatiepres
staties volgen
ns IT-manage
ers de grootste
u
uitdaging
van de implemen
ntatie (zie afb
beelding 7). De
D
d
desktop
die ooit
o binnen ha
andbereik van
n de gebruike
er was
e geen vertrragingsproble
en
emen kenden
n, bevindt zich
h nu
o misschien wel 4000 km
op
m afstand. Hie
erdoor kunnen de
p
prestaties
afn
nemen of is de
e desktop he
elemaal niet
b
beschikbaar
a
als de netwerrkverbinding sslecht is.
Oplossing: Invvesteer in nie
O
euwe hulpmid
ddelen en een
n
nieuwe
infrasttructuur om d
de overgang mogelijk te maken.
m
4
40%
van de IT
T-managers noemde deze
e aanbevolen
n
w
werkwijze
op de vraag watt ze anders zzouden doen als ze
d virtualisatie
de
e opnieuw moesten imple
ementeren (ziie
a
afbeelding
8)..
›
O
Overprovisio
oning is gebrruikelijk. Ove
erprovisioning,
d
d.w.z.
meer im
mages maken
n, zodat versschillende
g
gebruikerspro
ofielen mogelijk zijn, is ookk een uitdagin
ng die
h
hoog
scoort. De
D serverdich
htheid (er zijn
n niet zo veel
g
gebruikers
op
p een server a
als verwacht)) vormt evene
eens
e struikelblo
een
ok. In beide g
gevallen kan een betere
p
planning
voorraf een uitkom
mst bieden.
Oplossing: Na
O
aast investere
en in nieuwe hulpmiddelen en
e nieuwe in
een
nfrastructuur, is een anderre mogelijke
o
oplossing
het inhuren van een partner die de
im
mplementatie
e beheert. Ee
en kwart van de IT-manag
gers
h dit achterraf gezien gra
had
aag gedaan.
›
G
Gebruikersac
cceptatie ve
ergt geduld e
en inspannin
ng.
M
Maar
liefst 75
5% van de IT--managers no
oemde
g
gebruikersacc
ceptatie als e
een moeilijk te
e overwinnen
n
o
obstructie
tijde
ens de imple
ementatie. 22% kreeg te maken
m
m gebruikerrs die alles te
met
eruggedraaid wilden hebbe
en.
7
He
et opbouwen van vertrouw
wen en kenniss onder
we
erknemers is een belangriijke succesfa
actor voor
virrtualisatie-imp
plementatieprojecten.
Op
plossing: inve
esteer in mee
er voorlichting
g. Ruim een d
derde
va
an de IT-mana
agers zei datt ze dit zou do
oen als ze de
e
im
mplementatie kon overdoen
n. Investeer in hulpmiddellen
die
e de beste ge
ebruikerserva
aring creëren. Dit omvat
tecchnologieën die gebruikerrs een vertrou
uwde omgeving
ku
unnen bieden, zoals behee
er van de geb
bruikersomge
eving
en
n hulpmiddele
en voor contro
ole en optima
ale prestatie vvan
ap
pplicaties.
›
Orrganisatorisc
che uitdagin
ngen vereise
en een nieuw
we
structuur. Imp
plementatieprrojecten word
den maar al te
e
va
aak door elk te
eam afzonde
erlijk uitgevoe
erd, zonder
on
nderlinge ove
erdracht van kkennis. Deze teams houde
en
ge
ewoonlijk gee
en rekening met
m gebruikerrservaring.
W
Wanneer deskttopteams hett clientvirtualisatieproject
leiden, staan ze
e gewoonlijk wel stil bij de
e ervaring en
toe
egang voor e
eindgebruikerrs en bij hoe ze
z de virtuele
e
de
esktops in wijd
dverspreide geografieën
g
kkunnen behe
eren.
W
Wat ze meesta
al niet in overw
weging neme
en, zijn kritiekke
da
atacenterkwesties, zoals h
hoe de serverrcapaciteit wo
ordt
be
ewaakt en uitg
gebreid, hoe netwerksegm
menten moeten
wo
orden geroute
eerd voor zw
wervende gebruikers en de
e
no
oodzaak van het maken va
an back-ups en herstel va
an
ge
egevens.
Op
plossing: Stel een speciaa
al virtualisatie
eteam samen
n als
ovverkoepeling vvan bestaand
de server-, ne
etwerk- en
op
pslagteams. B
Bijna de helft van de IT-ma
anagers wen
nst
da
at hij/zij dit ha
ad gedaan. W
Waarom? Voo
or clientvirtualisatie
is samenwerkin
ng tussen alle
e teams en gebruik van allle
b
een
tecchnologieën noodzakelijk.. U kunt het best
fun
nctieoverschrrijdend virtua
alisatieteam samenstellen om
ervvoor te zorge
en dat de focu
us op de overeengekomen
do
oelen blijft ligg
gen: De priorriteiten vastste
ellen, de use
ca
ases en archittectuur vaststellen, het pro
oject draaiende
ho
ouden, samen
nwerking stim
muleren, belangrijke besluiten
ne
emen op het gebied
g
van platformen, hu
ulpmiddelen e
en
pro
ocessen en ccommunicere
en met belang
ghebbenden en
leidinggevende
en.
Ui
Uitdaging
g: “Het lu
ukt niet om
eiindgebru
uikers zov
ver te kriijgen datt ze
dee oplossing uitpro
oberen. In eerstee
in
nstantie was
w de m
medewerk
king hoo
og,
m
maar slech
hts wein
nig
beedrijfson
nderdelen
n wilden middeleen
beeschikba
aar stellen
n om een
n degelijk
ke
teest mogellijk te ma
aken, wa
aardoor eeen
geeslaagdee migratiie extreem
m lastig
w
werd.”
— IT-leider bij e
een financiële
e dienstverlen
ner
Afbeelding 7.
Applicatieprestaties vo
ormen de gro
ootste uitdaging
bij de imple
ementatie
80%
79%
72%
75%
75%
73%
65%
70%
70%
68%
75%
67%
70%
63%
Application speeed/performance
Overprovisioningg (making more…
User acceptance testing
A
Assigning privileges//policy for users
Licensing ccosts (giving out…
Seerver density (not ass many users on…
Lo
og‐in performance (ttaking longer to…
0%
% 20% 40% 60% 80% 1
100%
Applicatiion
Deskto
op
8
Uittdaging: “De exteerne serv
vers
zorrgden vo
oor probllemen met de
intternetsneelheid. Met
M namee bij het
uittvoeren v
van meerr geavan
nceerde
mo
odelleerssoftware die in eeen extern
n
da
atacenterr was ond
dergebra
acht.”
— IT
T-leider bij ee
en financiële d
dienstverlene
er
Afbeelding 8.
A
A ze het op
Als
pnieuw kond
den doen, zo
ouden veel
m
managers
ee
en virtualisattieteam sam
menstellen
Creeate a dedicated virtuallization team as an
o
overlay on existing servver, network and
storage teaams
48%
%
Invesst in newer tools/infrastructure to handle
the transitio
on
40%
34%
Invest in more education
Hire a partner to
o help manage the
deplo
oyment
Other
24
4%
6%
0%
% 10% 20% 30
0% 40% 50% 6
60%
KANS VAN S
SLAGEN IS G
GROOT
DE K
Ondanks deze be
eproevingen, geven de me
eeste ITman
nagers aan da
at de impleme
entatie uiteindelijk is gelukkt:
›
70
0% is tevrede
en met het fiinanciële ren
ndement. He
et
fin
nanciële rendement op de investering w
wordt alom
ge
eprezen. 24%
% zei ‘zeer tevvreden’ te zijn
n en nog eens
46
6% is ‘tevrede
en’, alles bij e
elkaar 70%. B
Bij 22% is de
be
eoordeling ‘ne
eutraal’, terwiijl slechts 8%
% teleurgesteld
d is
in het financiële
e resultaat va
an de implem
mentatie.
›
Ap
pplicaties zijjn responsie
ef. Ondanks d
de problemen
n met
de
e applicatiesn
nelheid in het begin, zei 40
0% dat de
sn
nelheid en rea
actietijd van a
applicaties sin
nds de
im
mplementatie vvan de virtue
ele desktops wat
w is verbete
erd.
38
8% gaf aan da
at deze hetze
elfde zijn als bij de nietge
evirtualiseerde computeromgeving.
›
A
Aantal gebru
uikers dat zic
ch aanmeldtt, stijgt (soms). Het
u
ultieme
kenmerk van werkknemerstevre
edenheid is he
et
g
gebruik.
Resp
pondenten ga
aven aan dat het aantal
g
gebruikers
da
at zich aanme
eldde met 25%
% steeg, en 5
55%
b
bleef
stabiel. Daar staat te
egenover dat 16% van de
g
gebruikers
zicch minder vaa
ak aanmeldde en 4% zich
h
z
zelden
aanme
eldde. Uit dezze gegevens valt op te ma
aken
d het toegen
dat
nomen gebru
uik per saldo opweegt tege
en het
a
aantal
afmeld
dingen. Hieruiit blijkt maar weer
w
dat u ku
unt
s
slagen,
maar dat u daartoe
e enkele aanbevolen
w
werkwijzen
m
moet
volgen.
9
B
Belangrij
jkste aan
nbevelin
ngen
Uit een analysse van de die
U
epgaande ond
derzoeken va
an Forrester o
onder IT-man
nagers die ve
erantwoordelijjk waren voor de
desktop- en ap
pplicatievirtua
alisatie kwam
men meerdere
e belangrijke constateringen naar vore
en:
.
›
De gebru
uikerservaring moet uw
w voornaams
ste doelstelling zijn. Zoalls de meeste IT-managerss uiteindelijk
ogelijkheden voor werkne
ontdekke
en, bestaat de
e waarde van
n virtualisatie uit betere mo
emers en niett primair uit
kostenve
ermindering. Stel
S use case
es voor werkn
nemers vooro
op bij het opsstellen van he
et plan. Beknibbel niet op de
gebruike
erservaring alss deze hierdo
oor in het ged
ding komt. He
et inwisselen van de produ
uctiviteit van de organisattie
als geheel voor gering
ge winst op h
het gebied va
an IT-efficiëntie is verkeerd
de zuinigheid. Laat de
bruikbaa
arheidseisen d
de architectuur bepalen en voer dan pa
as een analyyse van de op
perationele ko
osten uit.
›
Investee
er in betere h
hulpmiddele
en. Selecteer hulpmiddelen met de geb
bruikerservariing in gedach
hten, die de
applicatie
eprestaties bevorderen, zoals snellere netwerken, g
gedeelde GP
PU’s en WAN-optimalisatie
e. De basis iss
nog stee
eds belangrijkk. Plan de serrverdichtheid niet te krap e
en investeer iin hulpmiddelen die het be
eheren van
profielen, bevoegdhed
den en beleid
dsregels verg
gemakkelijken
n. Investeer ttot slot in geb
bieden die de
gebruike
ersacceptatie versnellen: a
applicatie- en gegevenspe
ersistentie, me
eer technolog
gieën voor he
et beheer van
n
rechten vvoor het insta
alleren van so
oftware en ze
elfservice voo
or werknemerrs.
›
Stel een overkoepelend team sa
amen voor de
d implementatie. Dit team
m moet ten m
minste uit een
n product- of
manager
of
-e
igenaar,
een
architect
en
mmamanager
r
bestaan,
me
et
vaardighed
den
op het
servicem
een program
gebied van desktops, servers, netw
werken en op
pslag. Als u op
o maat gemaakte ontwikkelwerkzaam
mheden plant,,
dient u een uitvoering
gsmanager se
erieus in overrweging te ne
emen. Stel de
e kernteamleden verantwo
oordelijk voorr de
n in alle fasen
n van het project, de afstem
mming met de doelstelling
gen van
kwaliteit van hun werkkzaamheden
evenden en b
belanghebben
nden en het vvoldoen aan projectmijlpal
p
len en -verpliichtingen.
leidingge
›
Zoek een
n partner vo
oor voorlichtting en hulp.. Als u gebruikers voorlich
ht en ze gebru
uik laat make
en van de
hulpmidd
delen die u he
ebt gekozen, nemen de gebruikersaccceptatie en fle
exibele werksstijlen in uw organisatie toe
e.
Zoek een
n partner voo
or de commun
nicatie, voorliichting en pro
omotie als uw
w bedrijf dit ze
elf niet kan ve
erzorgen.
10
Bijlage A: Methodiiek
In he
et kader van d
dit onderzoekk hield Forresster een onlin
ne enquête onder 300 IT-m
managers en
n -beheerderss die
vera
antwoordelijk zijn voor de vvirtuele deskttop- en/of virttuele applicattieomgevinge
en van bedrijvven met meer dan 1000
werkknemers in de
e Verenigde S
Staten, het Verenigd
V
Koninkrijk en Duiitsland. De de
eelnemers moesten vrage
en beantwoorrden
overr hun ervaring
g met het imp
plementeren van
v de virtua
alisatie, hoe ze het success meten, wat ze
z graag and
ders hadden willen
w
doen
n en op welke
e manier hun
n organisatie g
gebaat is bij d
de virtualisatie. Het onderrzoek begon in maart 2014
4 en werd afg
gerond
in mei 2014.
Bijlage B: Aanvulle
A
end matteriaal
GER
RELATEERD
D ONDERZOE
EK VAN FOR
RRESTER
‘Build Digital Worrkspace Delivvery Systemss To Give Em
mployees The Right Tools For Their Job
b’, Forrester Research,
R
Inc., 17
april 2014.
nchmarking T
Technology's Effect On Em
mployee Enga
agement’, 30 juli 2013.
‘Ben
‘Hab
bitat For Enga
agement: Unlleash Workfo
orce Potentiall With Agile E
Enablement’, Forrester Re
esearch, 10 m
mei 2013.
‘Hossted Virtual Desktops Verssus Physical PCs: Undersstanding The Operational C
Cost Differen
nces’, 3 janua
ari 2013.
11
Bijlage C: Demogrrafie/geg
gevens
AFBEELDING
A
G9
S
Samenstellin
ng van de on
nderzoekspo
opulatie
12
Bijlage D: Eindnote
en
i
Lee
es ook het rap
pport ‘Habitatt For Engage
ement: Unleassh Workforce
e Potential W
With Agile Ena
ablement’, Forrester Resea
arch,
10 m
mei 2013.
ii
Lee
es het rapporrt ‘Benchmarkking Technolo
ogy's Effect O
On Employee
e Engagemen
nt’, 30 juli 201
13.
iii
Lee
es het rapporrt ‘Habitat Fo
or Engagemen
nt: Unleash Workforce
W
Po
otential With A
Agile Enablem
ment’, Forresster Research
h, 10
mei 2013.
iv
Lee
ps Versus Phyysical PCs: U
Understanding
g The Operattional Cost D
Differences’, 3
es het rapport ‘Hosted Virrtual Desktop
januari 2013.
#DesktopDestiny
Login Consultants
VDI en SBC; complexiteit en kwetsbaarheid in de
beheerpraktijk
Login Consultants
VDI en SBC; complexiteit
en kwetsbaarheid in de
beheerpraktijk
e-book
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Eigendom en Garantie
De informatie, concepten en ideeën beschreven in dit document zijn eigendom van Login Consultants. Zonder beperking van de rechten uit
hoofde van het auteursrecht, mag geen enkel deel van dit document worden verveelvoudigd, opgeslagen of ingevoerd in een
geautomatiseerd gegevensbestand of gedistribueerd in enige vorm of op enige wijze (elektronisch, mechanisch, door fotokopieën,
opnamen, of anderszins), zonder de uitdrukkelijke schriftelijke toestemming van Login Consultants. Elke product beschrijving of verklaring
in dit document zijn alleen ter identificatie gebruikt en kunnen niet worden opgevat als een garantie van bepaalde eigenschappen of garantie
of waarborg van een ander type.
Login Consultants stelt zich niet aansprakelijk, expliciet of impliciet, voor de documentatie. Alle informatie in dit document, inclusief URL's
en andere verwijzingen naar websites, is onderhevig aan verandering zonder kennisgeving. Eventuele voorbeeldcode beschreven in dit
document wordt door Login Consultants alleen voor illustratieve doeleinden gebruikt. Deze voorbeelden zijn niet onder alle
omstandigheden grondig getest. Login Consultants kan derhalve geen betrouwbaarheid, bruikbaarheid of functionaliteit garanderen van
deze programma’s of code.
Alle in dit document genoemde merk- en productnamen, zijn handelsmerken van de respectievelijke eigenaren en worden als zodanig
erkend.
© 2013 Login Consultants. Alle rechten gereserveerd.
Datum: 21 augustus 2013
1
Inhoudsopgave
Introductie ........................................................................................................................................................................................................ 1
Aanleiding ................................................................................................................................................................................................. 1
Over Login Consultants ....................................................................................................................................................................... 2
Vijf praktijkervaringen met VDI- en SBC-beheer ............................................................................................................................. 3
1.
Een centrale werkplek is echt anders ................................................................................................................................. 3
2.
De technologische stack is complex ................................................................................................................................... 4
3.
Onderschatting van het belang van capaciteits-management ............................................................................... 4
4.
Het change proces als faalfactor .......................................................................................................................................... 5
5.
Kracht in concept, kwetsbaarheid in management ...................................................................................................... 6
Vijf maal perspectief op verbetering .................................................................................................................................................... 8
1.
Een centrale werkplek is echt anders: neem ontvlechten serieus .......................................................................... 8
2.
De technologische stack is complex: regie en overzicht is key ............................................................................... 9
3.
Onderschatting van het belang van capaciteits-management: monitor en valideer .................................... 9
4.
Het change proces als faalfactor: automatiseer OTAP .............................................................................................10
5.
Kracht in concept, kwetsbaarheid in management: breng echte dynamiek en flexibiliteit in beheer ..10
Conclusie ........................................................................................................................................................................................................12
Meer informatie ....................................................................................................................................................................................13
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Introductie
De zegeningen van VDI (Virtual Desktop Infrastructure) en SBC (Server Based Computing) zijn
bekend. Veel bedrijven en instellingen omarmen deze technologieën om met behulp van
virtualisatie de Windows-desktop en -applicaties te ontkoppelen van de fysieke werkplek en
deze gecentraliseerd te beheren.
Toch worstelen organisaties met de complexiteit van de onderliggende technologieën die de
gecentraliseerde werkplek mogelijk maken. Vaak leidt deze complexiteit tot versnippering van
beheer en gebrek aan regie, problemen bij het managen van wijzigingen, teleurstellende
gebruikerservaring en een reëel risico op uitval. Dit risico wordt dikwijls onderschat, waardoor
lang niet het maximale rendement gehaald wordt uit de investeringen.
Wat veroorzaakt de complexiteit en kwetsbaarheid en in welke richting kunnen de oplossingen
gevonden worden? Dit white paper presenteert de ervaringen uit de rijke praktijk van Login
Consultants en maakt de balans op van meer dan tien jaar implementaties en beheer van VDIen SBC-omgevingen. Niet alleen de uitdagingen van het beheer worden besproken, met name
ook de belangrijkste lessen, succes- én faalfactoren worden verder uitgelicht.
Dit white paper is interessant voor organisaties die:

de stap naar VDI of SBC willen maken;

aan het migreren zijn en hun beheer gaan organiseren;

hun VDI of SBC omgeving beter willen laten functioneren en renderen.
Aanleiding
VDI heeft al ruim 5 jaar en SBC al meer dan 15 jaar een plek bij de IT-afdelingen van MKBorganisaties tot internationaal opererende ondernemingen:

zowel VDI als SBC passen in centralisatie- en consolidatietrajecten;

daarbij is het bij beide concepten mogelijk om snel, eenvoudig, veilig en onafhankelijk
van locatie, netwerk en apparaat te werken met Windows en bedrijfsapplicaties;

beide concepten centraliseren desktopbeheer en helpen daarmee de IT-kosten te
verlagen.
Deze voordelen voor de gebruiker en het bedrijf zijn overduidelijk en staan over het algemeen
niet ter discussie.
VDI en SBC lijken op elkaar en bieden veel dezelfde functionele als technische voordelen ten
opzichte van een traditionele werkplek. Alleen met VDI is het mogelijk een persoonlijke desktop
aan te bieden, terwijl met SBC dit altijd een gedeelde en sterk gestandaardiseerde desktop is op
basis van Windows server. In dit white paper noemen wij beide concepten in één adem; de
beheerproblematiek is immers grotendeels gelijk.
Datum: 21 augustus 2013
1
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
In de voorbije jaren heeft de praktijk bij organisaties in Nederland geleerd dat de complexiteit
van VDI en SBC omgevingen zich kan laten gelden en dat dit vaak (te) laat onderkend wordt.
Analyse van de VDI- en SBC-beheerproblematiek in de Nederlandse markt leidt tot enkele
pijnlijke vaststellingen:

De implementatie van een VDI- of SBC-omgeving en de daar uit volgende
beheerinspanning wordt onderschat.

Het ontbreekt vaak aan regie over het beheer van de technologie-stack.

Capaciteitsbeheer ontbreekt of schiet te kort.

De impact van wijzigingen blijkt vaak groter dan verwacht.
Wanneer deze problematiek onderschat wordt leidt dit snel tot productiviteitsverlies, extra
kosten, imagoschade voor de beheerafdeling en de oorspronkelijke verwachtingen worden niet
waargemaakt. Alleen wanneer de beheerstrategie zowel technisch als organisatorisch afgestemd
wordt op de unieke eigenschappen van VDI en SBC, is het mogelijk deze verwachtingen waar te
maken.
Over Login Consultants
Login Consultants is een onafhankelijke internationale IT-dienstverlener gericht op End User
Computing. We helpen onze klanten graag de juiste balans te vinden tussen beheerbare IT en
een flexibele gebruikersomgeving. We streven daarbij naar innovatieve en unieke oplossingen
die toekomstige veranderingen eenvoudig maken. Ons succes komt voort uit de
integratiekwaliteit van onze oplossingen, een intelligente migratie aanpak en de beheerbaarheid
van de oplossing nadat deze geïmplementeerd is.
Login Consultants heeft een ervaren team van ruim 150 specialisten in Nederland, België en
Duitsland. Onze consultants zijn geaccrediteerd door Microsoft, Citrix en VMware en worden
regelmatig gevraagd als spreker op nationale en internationale congressen. Onze consultants
zijn actief op meerdere blogs en als expert betrokken bij diverse gedrukte en online IT-media.
Datum: 21 augustus 2013
2
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Vijf praktijkervaringen met VDI- en
SBC-beheer
Talloze bedrijven en instellingen hebben strategisch voor VDI/SBC gekozen. Ook in de
beheerfase, na de bouw en implementatie, zijn zij ervan overtuigd dat het de juiste keuze is
geweest. Toch doen zich ook twijfels, vragen en ook serieuze problemen voor op verschillende
terreinen;
1.
Een centrale werkplek is echt anders.
2.
De technologische stack is complex.
3.
Onderschatting van het belang van capaciteitsmanagement.
4.
Het change proces als faalfactor.
5.
Kracht in concept, kwetsbaarheid in management.
1. Een centrale werkplek is echt anders
In veel organisaties wordt bij een transitie naar een VDI-/SBC-omgeving de traditionele werkplek
één-op-één overgezet met dezelfde opbouw en manier van beheer. Wanneer de
desktopbeheerder zonder VDI- of SBC-ervaring na oplevering de verantwoordelijkheid moet
nemen voor de centrale werkplek, zonder dat de inrichting en onderhoud aangepast is, zal dit
tot structurele problemen leiden.
In vergelijking met conventionele PC’s en laptops, vraagt de gecentraliseerde desktop een zeer
hoge standaardisatiegraad. Zeker in een gedeelde SBC- of VDI-desktop (de zogenaamde
‘stateless’ of ‘shared’ VDI desktop) wordt een grote mate van consolidatie in het
applicatielandschap noodzakelijk en wordt elk configuratiedetail belangrijk.
Met de introductie van VDI of SBC wordt er vaak ook gemigreerd naar een nieuwe versie van
Windows, wat de complexiteit verder vergroot. Het gevolg is dat applicaties die voorheen nooit
bijzonder veel aandacht van beheer vroegen, dat in het nieuwe model wel doen.
Een ogenschijnlijk klein maar essentieel verschil in gecentraliseerde desktopomgevingen: het is
normaal dat gebruikers meerdere keren aangelogd zijn. Bijvoorbeeld op de PC én de virtuele
desktop, of op verschillende applicatieservers wanneer gewerkt wordt met SBC. Het snel kunnen
wisselen van werkplek en de snelheid van aanloggen wordt dan ook in vergelijking met een
klassiek PC-/laptopmodel veel belangrijker en vraagt om andere inrichting.
Organisaties die in hun werkplekomgeving de samenhang van de applicaties, data, profiel en OS
niet herdefiniëren, roepen onherroepelijk beheerproblemen over zich af. De praktijk leert ook
dat de beheer-tooling voor de traditionele werkplek veroudert is of nooit echt ontwikkeld is voor
het beheer van VDI en SBC. De nieuwe omgeving wordt dan onnodig complex en hangt –
oneerbiedig gezegd – met ‘plakband en elastiek’ aan elkaar.
Het meest ongelukkige voorbeeld is toch de P-to-V (Physical to Virtual) migratiestrategie die in
sommige VDI-projecten gekozen wordt. Hierbij wordt er letterlijk een één-op-één kopie van de
bestaande werkplek gemaakt en daarna gevirtualiseerd. Deze strategie is nooit op grote schaal
succesvol geweest en heeft, voor zover bekend, nog nooit tot duidelijke beheervoordelen geleid.
Datum: 21 augustus 2013
3
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Een centrale en gevirtualiseerde werkplek vraagt nadrukkelijk om een andere aanpak en
inrichting. Wanneer dit onderschat wordt zal uiteindelijk de nieuwe omgeving niet noodzakelijk
beter te beheren zijn dan de vorige omgeving, waardoor vooraf gestelde verwachtingen vaak
uitblijven.
2. De technologische stack is complex
De technologie-stack – het geheel aan hardware en software elementen en het beheer van
Windows, applicaties, storage, virtualisatietechnologieën, het netwerk en clients – is vele malen
complexer dan bij de klassieke desktop. Een groot aantal technologielagen is immers gestapeld
om de oplossing mogelijk te maken. Zo ontstaat een complex en ook potentieel kwetsbaar
geheel, waarin de keten zo sterk is als de zwakste schakel. In de praktijk is dit duidelijk merkbaar
voor gebruikers én beheerders. Helaas wordt dit meestal te laat onderkend.
Wanneer de technologie-stack niet volledig in beeld is,
wordt de samenhang van functionele en beheeraspecten
over het hoofd gezien. Uiteindelijk leidt een gebrek aan
overzicht al snel tot extra kwetsbaarheden zoals slechte
performance en instabiliteit.
Daarbij komt dat de organisatie bij het beheer en bij
troubleshootings-trajecten doorgaans te maken heeft met
verschillende leveranciers of afdelingen. De consequentie
van deze complexe multi-vendor technologie-stack is dat
verandering en vernieuwing doorgaans lastig te sturen zijn.
Elk onderdeel van de stack heeft immers zijn eigen ‘mores’.
De versnippering van de verschillende change-processen –
dikwijls vanuit historische verhoudingen ook nog eens
belegd bij verschillende afdelingen – maakt het lastig
bestuurbaar.
Veel IT-organisaties hebben dan ook moeite om de gehele
technologie-stack daadkrachtig te besturen. Wanneer het
inhoudelijke overzicht ontbreekt wordt de regie hierover al
snel als erg complex ervaren. Het resultaat is dat de
verschillende afdelingen of leveranciers naar elkaar blijven
wijzen, terwijl de oorzaak van het probleem soms ‘in het
midden ligt’.
3. Onderschatting van het belang van capaciteitsmanagement
Bij organisaties die VDI of SBC (gaan) toepassen, is er veel onduidelijkheid over de capaciteit van
rekencentra en wat er nodig is om uit te breiden. Vaak wordt een aanname gedaan in de
ontwerpfase van een project. Pas wanneer de uitrol in volle gang is worden deze inschattingen
in productie getoetst, simpelweg door het opschalen van de omgeving met gebruikers. Daarna
wordt aangenomen dat de capaciteitseisen niet meer veranderden. Gebruikerservaring en
capaciteit zijn nieuwe thema’s die beheerders weinig tegenkwamen in de traditionele
desktopwereld.
Datum: 21 augustus 2013
4
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Het ontbreken van capaciteitsmanagement leidt evenwel tot negatieve gebruikerservaringen of
grootschalig uitval. De impact van changes kan enorm zijn, zo bewijzen de testen van het
onafhankelijke onderzoeksplatform Project VRC (ProjectVRC.com). Uit onderzoeksresultaten is
bijvoorbeeld gebleken dat een migratie van Office 2007 of 2010 naar Office 2013 minimaal 20
procent extra capaciteit vraagt van de infrastructuur.
Changes hebben altijd potentieel impact op de capaciteit en de performance van de ITinfrastructuur. Een verandering die de snelheid van de desktop drastisch verlaagt, kom je het
liefst op het spoor vóór invoering en niet achteraf, wanneer gebruikers ‘moord en brand’
schreeuwen.
Toch krijgt capaciteitsmanagement in VDI- of SBC-omgevingen vrij weinig aandacht. In
traditionele desktopomgevingen is deze vraag nauwelijks aan de orde. In de VDI- of SBComgevingen is dit nieuw voor de beheerder en wordt capaciteitsbeheer en validatie als complex
ervaren. Het resultaat is dat beheer minder zicht heeft op de capaciteit, terwijl performance en
capaciteitsproblemen meestal meerdere gebruikers tegelijk treft en een grote rol speelt in een
lage acceptatie van de centrale werkplek.
4. Het change proces als faalfactor
Wie een kwalitatief goede wijziging wil doorvoeren in een productie-omgeving, dient een aantal
stappen te doorlopen:
1.
creëren van de wijziging of package in een ontwikkelomgeving (O);
2.
technisch testen in de testomgeving door IT beheer (T);
3.
gebruikersvalidatie in een aparte acceptatieomgeving (A);
4.
in productie nemen (P).
Dit wordt ook wel het OTAP-proces genoemd. Dit OTAP-proces essentieel om de kwaliteit van
wijzingen te garanderen. Helaas komt het nog steeds vaak voor dat er geen duidelijk OTAPproces beschikbaar is en dat wijzigingen zelfs rechtstreeks in productie uitgevoerd worden.
Een belangrijke voorwaarde voor een efficiënt OTAP-proces is dat de ontwikkel-, test-,
acceptatie- en productieomgeving uniform geconfigureerd zijn. In de realiteit komt dit maar
zeer zelden voor. Dit geldt zeker in een centrale desktop-omgeving waar doorgaans erg veel
verschillende applicaties en instellingen op één platform geconfigureerd moeten worden en wat
het onderhoud van OTAP-omgevingen aanzienlijk compliceert.
Datum: 21 augustus 2013
5
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Wanneer de ontwikkel-, test- en acceptatieomgeving voor VDI en SBC niet identiek zijn,
veroorzaakt dit een pingpong-effect in het change proces, waarbij een wijziging telkens van O
en T naar A gaat. En terug, wanneer de wijziging niet voldoet. Hierdoor vertraagt de realisatie
van de wijziging aanzienlijk en loopt de totale beheerinspanning op.
Door de standaardmanier waarop test- en acceptatieomgevingen zijn ingericht, kost het ook
doorgaans moeite om parallel meerdere wijzigingen te kunnen faciliteren. Een beheerder wil van
nature maar één change tegelijk uitvoeren om het overzicht te behouden, zeker in een centrale
desktopomgeving waar het slecht functionerend OTAP-proces te veel inspanning kost.
Het vermogen om te wijzigen zou de primaire eigenschap moeten zijn van elke gecentraliseerde
desktopomgeving. Dit lijkt vanzelfsprekend, maar is dat in de realiteit zeker niet. In de
ontwerpfase wordt doorgaans veel aandacht besteedt hoe alle infrastructuur-componenten
geïntegreerd en geconfigureerd moeten worden. Een concrete uitwerking hoe wijzigingen
uitgevoerd kunnen worden is echter zelden voorhanden. Met regelmaat is ook onduidelijk hoe
het OTAP-proces eruitziet en vooral ook welke strategie gehanteerd wordt om de ontwikkel-,
test- en acceptatieomgeving representatief te houden aan de productieomgeving.
5. Kracht in concept, kwetsbaarheid in management
VDI en SBC worden als oplossing geroemd omdat deze het desktopbeheer verregaand
centraliseert in het rekencentrum. De Windows desktop wordt met behulp van serverinfrastructuur centraal aangeboden. De combinatie van typisch serverbeheer (focus op
beschikbaarheid) en desktopbeheer (focus op changes) in één omgeving heeft een aantal
duidelijke consequenties.
De vele samenhangende (geïntegreerde) delen van het geheel waren in de traditionele IT het
domein van verschillende afdelingen. De centralisatie van de Windows-desktop in het
rekencentrum resulteert vaak in een constante ‘tsunami’ van wijzigingsverzoeken op één
platform, gedreven door gebruikers en applicatiebeheerders. De impact van ogenschijnlijk kleine
wijzigingen is daarmee aanzienlijk groter in een gedeelde desktopomgeving. Daarnaast dient de
omgeving 24/7 beschikbaar te zijn, altijd in productie en wijzigingen mogen het ‘verkeer’ niet
ophouden. Daarmee is de logistiek van changes aanzienlijk complexer geworden in vergelijking
met het doorvoeren van een wijziging op een PC.
Organisaties die aanlopen tegen de moeizame change-praktijk van hun VDI- of SBCtechnologie-stack, ondervinden de nadelige consequenties op verschillende terreinen:

Changes nemen te veel tijd in beslag. Het proces om wijzigingen uit de voeren kan veel
energie vragen en is veelal een zaak van trial & error. Hier wordt het verschil zichtbaar
tussen de beheerwerelden van server (‘change is een uitzondering’) en desktop
(‘change is voortdurend aan de orde’).

Vaak is het pas mogelijk changes uit te voeren buiten productie-uren. Het resultaat
hiervan is dat overwerk voor IT-beheer de norm wordt.

Bij uitrol van de wijzigingen is de (potentiële) negatieve impact van wijzigingen dikwijls
veel groter dan in een traditionele desktopomgeving. De gevolgen van problematische
wijzigingen zijn in de hele organisatie voelbaar en leiden zelfs tot uitval,
inkomstenderving en imagoschade. Zo is niet alleen het risico van problemen in de
complexe stack groter, de gevolgen zijn potentieel pijnlijker.

Het analyseren van de door changes ontstane problemen en het herstel ervan kan
beheerders voor grote uitdagingen plaatsen.
Datum: 21 augustus 2013
6
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Gelukkig zien IT-afdelingen steeds meer de noodzaak om handwerk zo veel mogelijk uit te
bannen. Immers: wie er niet in slaagt changes geautomatiseerd door te voeren, is gedoemd tot
overwerk in de afgesproken periode van gepland onderhoud.
Anders gezegd: beheerders die dit ‘spel’ goed in de vingers hebben, zijn van grote waarde voor
de continuïteit van de IT-omgeving; wie het niet onder de knie heeft, stelt de organisatie bloot
aan grote, verstrekkende gevolgen.
Een succesfactor van VDI of SBC is dat de beheerstructuur er nadrukkelijk op moet worden
toegesneden. Met name in grotere organisaties laat die structuur zich – zo blijkt uit de praktijk
– maar moeizaam aanpassen. En juist wanneer deze kwetsbaarheid in management voelbaar
wordt, leidt dit tot ‘bevriezing’ van de totaaloplossing: er wordt veel te langzaam of zelfs
helemaal niet meer geïnnoveerd.
Datum: 21 augustus 2013
7
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Vijf maal perspectief op
verbetering
We realiseren ons dat de vijf benoemde aandachtspunten een kritisch beeld schetsen van VDIen SBC-beheer. Dit is controversieel: de schone belofte van de virtuele desktop in het
rekencentrum is de efficiëntie van gecentraliseerd beheer.
Dat is niet onze doelstelling. Sterker nog, ervaring heeft geleerd dat het bewustzijn rondom deze
beheerproblematiek en de juiste beheerinrichting, zowel technisch als organisatorisch, deze
uitdagingen effectief kan adresseren.
Telkens weer zien we wat het effect is van de juiste beheerstrategie. Het vermogen om te
wijzigen neemt soms met wel 400 procent toe. Changes worden niet alleen sneller uitgevoerd,
de kwaliteit en de performance van de omgeving is veel beter gegarandeerd. Het verschil in
kwaliteit en snelheid van changes is direct merkbaar voor de organisatie en gebruikers.
Opvallend is dat de juiste beheerstrategie niet alleen tot een imagoverbetering van IT-beheer
leidt, vaak zien we ook een toename in de vraag naar nieuwe IT-projecten door de groei in
vertrouwen. Met de tastbare verbetering in efficiëntie wordt de IT-afdeling meer dan ooit als
een bekwame partner door de rest van de organisatie gezien.
Hoewel de waarde van de gecentraliseerde desktop onomstotelijk vast staat, zijn er concrete
valkuilen en risico’s in het beheer van VDI- en SBC-omgevingen zichtbaar. In welke richtingen
zijn dan de remedies te vinden?
1. Een centrale werkplek is echt anders: neem ontvlechten
serieus
Organisaties die transformeren van een traditionele PC-omgeving naar een VDI- of SBComgeving, moeten erbij stilstaan dat de elementen van de nieuwe werkplekomgeving
ontvlochten dienen te worden. Waar in de PC elementen zoals het OS, de applicaties en het
gebruikersprofiel aan elkaar kleven, moeten deze in de nieuwe omgeving nadrukkelijk
onafhankelijk van elkaar komen te staan. Dit minimaliseert ook de impact van wijzigingen. Zowel
‘applicatievirtualisatie’ als ‘profielvirtualisatie’ zijn dan ook onmisbare ingrediënten geworden
om het profiel en applicaties te ontvlechten van het OS.
Daarnaast wordt het belangrijk een nieuwe ‘desktop-image’ te bouwen voor de inrichting van
de centrale desktop. Te vaak wordt één-op-één alle software van de PC overgenomen. Stel twee
essentiële vragen die belangrijk zijn bij de bouw van een nieuw desktop image:
1.
Is alles in het nieuwe image wel echt noodzakelijk voor de nieuwe omgeving?
2.
Welke impact heeft het op performance?
In VDI-marketing wordt vaak de belofte gedaan dat alles in één desktop-image past en daarom
eenvoudig te beheren is. Voor organisaties met een grote diversiteit in desktopgebruik en
applicaties is dit vaak niet realistisch. De inrichting van meerdere desktop-images is dan
onvermijdelijk en begrijpelijk. Wel is het van groot belang het onderhoud van meerdere images
te automatiseren: de verleiding van handmatig image onderhoud is groot en zal op korte termijn
tot tijdrovend beheer en inconsistenties in gebruikservaring leiden.
Datum: 21 augustus 2013
8
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Besteed aandacht aan authenticatie, de profielstrategie, het aanlogscript en policies. De wereld
van VDI en SBC is echt anders, zonder herinrichting wordt het aanloggen structureel langzaam
en verliest de virtuele werkplek één van zijn belangrijkste charmes voor eindgebruikers. Maak er
een hoofdzaak van om het aanloggen (en uitloggen) altijd snel te laten verlopen; de
gebruikersacceptatie is dan aanzienlijk hoger, zeker wanneer er veel van werkplek gewisseld
wordt.
2. De technologische stack is complex: regie en overzicht is
key
Er zijn drie processen zichtbaar binnen het beheer van VDI en SBC waarbij overzicht op de
complete technologie stack essentieel is om de juiste keuzes te kunnen maken:

onderhoud op architectuur & functionaliteit;

dagelijks beheer en uitvoering van changes;

incidenten, problemen en support.
Het verdient de aanbeveling een (virtueel) VDI- of SBC-team samen te stellen dat in alle drie
processen betrokken en primair aanspreekpunt is. Om dit team goed te laten functioneren is het
van essentieel belang dat zij de samenhang van de componenten overziet en naar het grotere
geheel kan kijken. Wanneer dit team de impact op functionaliteit, performance en beheer
overziet is het mogelijk de juiste keuzes te maken. Alleen dit voorkomt de pijnlijke ‘de operatie
is gelukt, maar de patiënt is overleden’ situaties.
Het team is bij voorkeur multi-skilled, zodat het functioneren over en door de disciplines
gegarandeerd kan worden. Dit VDI of SBC team moet tenslotte ook eindverantwoordelijkheid
gegeven worden voor het functioneren van de gehele stack.
3. Onderschatting van het belang van capaciteitsmanagement: monitor en valideer
Organisaties investeren in actieve monitoring om real-time de performance inzichtelijk te maken.
De waarde van performance monitoring is ontegenzeggelijk groot, zeker in VDI- of SBComgevingen waar performance-problemen gelijk merkbaar zijn voor eindgebruikers. Er is wel
één uitdaging van performance monitoring: wanneer ‘de lampen op rood’ gaan is het te laat,
het probleem doet zich immers al voor.
Maak naast het gebruikelijke monitoring ook performance-validatie een vast onderdeel van het
wijzigingsproces. Belangrijk is dat op een snelle en eenvoudige manier metingen herhaald
kunnen worden. Dit geeft vooraf inzicht in de mogelijke impact op de capaciteit van de
omgeving en voorkomt het reële risico van grootschalig uitval bij wijzigingen.
Er zijn tools beschikbaar waarmee proactief performance-validatie uitgevoerd kan worden.
Hiermee kan vooraf de impact van belangrijke wijzigingen worden gesimuleerd. De
performance-validatie maakt ook duidelijk hoe de gebruikerservaring zal zijn en wat de impact
is op de infrastructuur. De inzet van deze performance-validatie-tools voorkomt grote
problemen en onnodige kosten.
Datum: 21 augustus 2013
9
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
4. Het change proces als faalfactor: automatiseer OTAP
Door het realiseren van een goede test- en acceptatieomgeving neemt de voorspelbaarheid van
de changes aanmerkelijk toe. Dit kweekt vertrouwen bij de beheerder om meerdere changes
tegelijk uit te voeren en voorkomt dat betrokken partijen op elkaar wachten om de diverse
stappen in het change proces uit te voeren.
Investeren in een goed werkende test- en acceptatieomgeving verdient zichzelf terug, omdat de
problemen in de productiepraktijk tot wel 95 procent terug te brengen zijn. Gelukkig zijn de
kosten voor OTAP door virtualisatie, zeker op hardware niveau, tegenwoordig aanzienlijk lager.
De verleiding is groot om vooral geld, tijd en effort te investeren in de initiële bouw van de
OTAP-omgevingen. Maar de echte succesfactor van OTAP is: hardop nadenken hoe op lange
termijn het onderhoud van de OTAP-omgevingen uitgevoerd wordt en hoe deze representatief
blijven voor de productieomgeving. Een pragmatische en gedetailleerde uitwerking van het
OTAP-proces is de sleutel tot succes.
Automatiseer de bouw en het onderhoud van de ontwikkel-, test- en acceptatieomgeving om
ze op lange termijn uniform te houden. Doe dit op dezelfde wijze zoals in de productieomgeving
de bouw en het onderhoud geautomatiseerd is. Juist door dezelfde automatisering te gebruiken
als in productie, zal de handmatige beheerinspanning voor de ontwikkel-, test- en
acceptatieomgevingen minimaal zijn.
Bereid changes als bouwstenen voor zodat ze makkelijk geïmporteerd kunnen worden in test-,
acceptatie- en productieomgevingen. Hoe minder handwerk hier voor noodzakelijk is, hoe
sneller changes doorgevoerd worden zonder de typerende handmatige ‘vergissingen’. Het is
dan ook mogelijk een revisie/tracking systeem voor wijzigingen in te richten, zoals deze
bijvoorbeeld
in
applicatieontwikkelomgevingen
gebruikt
worden.
Dergelijke
tooling
vereenvoudigt de logistiek van het OTAP-proces aanzienlijk en geeft zowel historisch als realtime inzicht in welke fase wijzigingen zich bevinden. Deze transparantie in het wijzigingsproces
is essentieel om de productiviteit van de beheerafdeling te verhogen.
5. Kracht in concept, kwetsbaarheid in management: breng
echte dynamiek en flexibiliteit in beheer
Het is al eerder gezegd: het vermogen om te veranderen moet de primaire eigenschap zijn van
elke gecentraliseerde desktopomgeving. Dit zou het uitgangspunt voor elke serieuze VDI- of
SBC-omgeving moeten zijn.
Om dit te bewerkstelligen zijn een aantal essentiële beheerstrategieën al genoemd: de
ontvlechting van de desktop, het samenstellen van een team met overzicht, een efficiënt OTAPproces en de inrichting van capaciteitsmanagement.
Het is duidelijk: automatisering maakt een fundamenteel verschil. Maar rücksichtslos alles
automatiseren kan ook gevaarlijk zijn. Het is dan eenvoudig te verdrinken in complexiteit. De
essentie van een effectieve automatiseringsstrategie is te focussen op waar IT-beheer regelmatig
(dagelijks, wekelijks en maandelijks) gelijke foutgevoelige processen doorloopt.
Slimme workflow automatisering zal een fundamenteel verschil maken, zeker in VDI- of SBComgevingen waar veel dynamiek wordt gevraagd. Al snel wordt hierbij aan de inrichting van
cloud-managementsoftware gedacht: veel van deze managementproducten maakt de
automatisering van onderliggende virtuele infrastructuur mogelijk. Dit is op zich een prima
streven, maar in de praktijk zal de automatisering van de gecentraliseerde desktop verder
moeten gaan om wijzigingen te faciliteren. Juist voor het inhoudelijke beheer van desktop,
Datum: 21 augustus 2013
10
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
applicaties en de persoonlijke Windows omgeving van gebruikers is meer nodig. Voorbeelden
hiervan zijn:

Intelligente workflow/maintenance automatisering voor wijzigingen, waardoor de
juiste capaciteit beschikbaar blijft voor de organisatie, 24/7.

De essentie van deze ‘intelligentie’ is dat dergelijke workflow automatisering ook om
kan gaan met fouten en onverwachte situaties. Dit voorkomt dat workflow
automatisering de situatie verergert door problemen nietsontziend verder te
automatiseren.

De automatisering zorgt voor de efficiënte distributie van grootschalige wijzigingen
zonder dat de onderliggende infrastructuur overbelast raakt.

Door een geautomatiseerde 24/7 ‘change window’ kunnen goed geteste changes
voortdurend worden doorgevoerd zonder een structurele noodzaak voor overwerk
door de beheerafdeling.
De behoefte aan dynamiek gaat verder dan alleen snel en kwalitatief te kunnen wijzigen. Zowel
VDI- als SBC-infrastructuren staan dicht bij de eindgebruiker. En juist de wereld van end-usercomputing is in een radicaal tempo aan het veranderen met trends als: consumerization, Bring
Your Own, the Post-PC era, tablets, Android en IOS, mobile workstyles, de personal cloud en nog
veel meer. Bedrijven en instellingen ervaren een groeiende druk om te veranderen en te
innoveren. Innovatiebehoefte is een constante geworden!
De tijd van grootschalige migraties die elke 5 tot 7 jaar terugkeren op de werkplek is aan het
verdwijnen. De impact is te groot en de verandering is te laat: voordat je het weet zijn de
behoeftes weer veranderd.
Daarbij komt kijken dat organisaties jaarlijks betalen voor het upgrade recht van de brokeroplossing die centraal staat in elke VDI- of SBC-omgeving. Voorbeelden hiervan zijn Microsoft
RDS, VMware View of Citrix XenDesktop & XenApp. En juist deze producten worden intensief
geïnnoveerd, vaak om gebruikservaring te optimaliseren en betere ondersteuning van end-usercomputing trends.
Met de juiste beheerstrategie, waarin zowel organisatie als techniek geoptimaliseerd is voor de
centrale werkplek, kan constante innovatie eenvoudig gefaciliteerd worden. Bijvoorbeeld het
simpelweg upgraden van een infrastructuurcomponent wordt zo veel eenvoudiger.
Echte IT-dynamiek is de combinatie van een state-of-mind, de juiste beheerstrategie, een
efficiënte organisatie en slimme automatisering.
Datum: 21 augustus 2013
11
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Conclusie
De beheerbelofte van VDI en SBC kan alleen ingelost worden wanneer de beheerstrategie hier
op aangepast wordt. De waarheid van VDI- en SBC-beheer is dat het zeker daadkrachtiger wordt,
maar niet eenvoudiger. Tastbare beheervoordelen zijn alleen te realiseren met een
geïntegreerde visie en bewustwording van de valkuilen van gecentraliseerd desktopbeheer.
Dan rest de vraag: zelf doen of uitbesteden? Voor deze keuze staan veel organisaties.
Organisaties sluiten bij het uitbesteden van het beheer van hun IT-omgeving een contract waarin
staat dat de capaciteit en functionaliteit voor de komende jaren stabiel blijft. Later betalen ze
daar de prijs voor, bijvoorbeeld wanneer de implementatie van een nieuwe versie van Office
onverwacht zwaardere eisen stelt aan de IT-omgeving. Er moeten dan hoge extra kosten worden
gemaakt om dezelfde performance te garanderen.
Beter is het om een beheervorm te kiezen, die dynamiek en flexibiliteit de ruimte geeft. Een
methode van beheer die innovatie mogelijk maakt. De wereld van de eindgebruiker is immers
snel aan het veranderen. De groei van het aantal changes die vanuit het perspectief van de
organisatie nodig zijn, wordt verder opgestuwd vanuit de kant van de gebruikers.
Daarnaast verwachten organisaties dat de IT-afdeling sneller kan inspringen op de steeds
veranderende vraag van de business. Zeker in het huidige economische klimaat en de structurele
veranderingen rondom end-user-computing bestaat er een grote drang tot optimalisatie, in
gebruikerservaring, performance en kosten.
Of u het beheer van de SBC- of VDI-omgeving zelf doet of een outsourcingspartner zoekt: stel
daarbij in ieder geval de volgende kritische vragen:

Wat is de visie rondom de inrichting van de centrale desktop?

Hoe wordt de kwaliteit van wijzigingen gegarandeerd?

Hoe worden de OTAP-omgevingen ingericht en onderhouden?

Hoe verloopt het OTAP-proces?

Wat wordt geautomatiseerd en wat wordt handmatig uitgevoerd?

Wie bewaakt het totaaloverzicht op de oplossing?

Bij wie moet ik zijn als er een probleem zich voordoet en wat is zijn/haar scope?

Hoe is de capaciteit van de omgeving bepaald?

Wordt de capaciteit gemonitord en wordt dit structureel gevalideerd?

Hoe is het maintenance window ingericht?

Wat is de impact van onderhoud en changes op beschikbaarheid?

In welke interval zijn wijzigingen door te voeren?

Wat is de doorlooptijd van een wijziging?

Wat is de visie op het onderhoud en innovatie van de infrastructuurcomponenten?

Hoe blijven we aangesloten bij de behoeftes van gebruikers op lange termijn?
Datum: 21 augustus 2013
12
VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk
Meer informatie
Login Consultants is een gespecialiseerde implementatie- en outsourcingspartner voor iedereen
die meer uit zijn VDI- of SBC-oplossing wil halen. Of u het nu zelf wil doen of outsourcen: stel
ons dezelfde kritische vragen en deel uw behoeftes. Wij denken graag met u mee.
Voor meer informatie over dit white paper of onze diensten kunt u contact opnemen met ons:
Login Consultants Nederland BV
De Entree 11-13
1101 BH Amsterdam
Tel: +31 20 342 0280
[email protected]
www.loginconsultants.nl
Datum: 21 augustus 2013
13
#DesktopDestiny
Login VSI
No more VDI performance problems
White Paper
No more VDI performance
problems
Why a structured use of load testing in desktop
virtualization is crucial for your (business) health
No more VDI performance problems
Disclosure and Warranty
The information, concepts, and ideas contained in this document are the property of Login VSI. Without limiting the rights under copyright,
no part of this document may be reproduced, stored in or introduced into a retrieval system, or transmitted in any form or by any means
(electronic, mechanical, photocopying, recording, or otherwise), or for any purpose, without the express written permission of Login VSI. Any
product descriptions or representations in this document are for identification purposes only and are not to be construed as a warranty of
specific properties or guarantee or warranty of any other type.
Login VSI shall assume no liability, either explicit or implied, for the documentation. Information in this document, including URL and other
Internet Web site references, is subject to change without notice.
All sample code described in this document is provided by Login VSI for illustrative purposes only. These examples have not been thoroughly
tested under all conditions. Login VSI, therefore, cannot guarantee or imply reliability, serviceability, or functionality of these program or code
examples. All brand names and product names used in this document are trademarks of their respective holders and are recognized as such.
© 2013 Login VSI. All rights reserved.
1
No more VDI performance problems
Why you should read this white paper
More and more organizations are migrating their employees to centralized Windows-based desktop
environments, where multiple users share centralized resources like servers, storage and software.
The most compelling business drivers organizations mention for this move towards ‘virtual desktop’
environments, are security, flexibility, easier user management, and where possible, cost reduction.
A structured approach towards testing in every phase, both in project and production, combined with
the best tools available in the industry today, will help organizations that are using virtualized desktop
environments, to enjoy well-performing centralized desktop infrastructures at the lowest cost possible.
We see two cases in which the value of testing will easily be demonstrated:

In the early project stages the main value of testing is to
build the best possible infrastructures at the lowest cost
possible. Testing all different options provides the
objective data needed to help make educated decisions.

In the latter project, and production stages, testing helps
to avoid the risk of an user infrastructure slowdown or
even a total failure. Integrating testing as a standard and
ongoing business practice into the virtual desktop product
life cycle is key to avoid costs and irritations of potential
problem solving and business interruptions.
The indirect value of testing makes the direct capital investments (think time, team, tools) needed to
execute testing, sometimes hard to justify. The goal of this white paper is to help all involved to better
understand, and to be able to explain, the business case behind virtual desktop infrastructure testing.
Who should read this white paper
This white paper is intended for everybody:

Working in an end-user organization or consultancy organization and involved in, or responsible for
designing, building, and managing centralized Windows-based virtual desktop infrastructures.

Using VDI or Server Based Computing environments like Citrix XenDesktop, Citrix XenApp, VMware
Horizon View and Microsoft Remote Desktop Services (RDS), formerly known as Microsoft Terminal
Services, or any other virtual desktop environment.

Looking to understand, or wanting to explain, the business case behind VDI testing.
2
No more VDI performance problems
1. In centralized user environments
performance is the crucial factor
The challenge IT departments responsible for hosted desktops face is to offer their virtual desktop
users the same functionality as they were used to in their ‘old’ fat client environments, at the same (or
even better) performance levels.
Because of the centralized processing of functionality and the central storage of data, the speed and
capacity of the central servers are a key success factor for these environments.
“A bad desktop performance is the number one end-user annoyance in virtual desktop environments”
Desktop performance problems have a very negative
impact on the organization and its people:

Employees will be not be able, or at least be very
unmotivated, to work (frustrated users)

IT staff responsible for managing the systems will get a
lot of pressure (stressed IT-staff)

The performance problems users experience may
seriously disrupt the day-to-day business

Performance problems may result in very upset
customers that will be motivated to leave you

In well-known organizations, system failure can
seriously damage the organizations reputation
A structured approach towards testing in every phase, both in project and production , combined with
the best tools available in the industry today, will help organizations that are using virtualized desktop
environments, to enjoy well-performing centralized desktop infrastructures at the lowest cost possible.
The risks of not testing quantified
The risks avoided with VDI testing – in terms lost productivity, time to repair and restart, and the
effects on third parties such as clients and partners - can add up to hundreds of thousands of dollars.
An example may help quantify the potential costs involved. Imagine a company with eight million US
dollar in revenue, 100 virtual desktop users and 2 IT-staff to support the virtual desktop infrastructure.
The financial damage at a 1% performance loss may be quantified for each group affected, as follows:

Frustrated users may cost the company about $ 40.000 a year as a result of a 1% performance
reduction (100 users at an average salary cost of $ 40.000 a year). Stressed IT-staff responsible for
the virtual desktop infrastructure (average salary cost of $ 60.000 a year) will add to the damage.

If as a result of business interruptions, 1% of upset customers decide to leave and look for another
vendor, the lost revenue equals $ 80.000. And if 1% of potential new customers decide to choose
for another company due to reputation loss, the revenue damage rises with another $ 80.000.
The longer term damages to loyalty and reputations will even be bigger.
3
No more VDI performance problems
2. Testing in transformation projects helps
to optimize spend
In the early project stages the main value of testing is to help build the best possible infrastructures at
the lowest cost possible, by providing the objective data needed to help make educated decisions.
There are many options to consider in both software (e.g. which broker, hypervisor, antivirus solution)
and hardware (e.g. which server, CPU, storage solution). And all vendors will make the claims that will
fit them best. This generates the need for an objective approach and a serious benchmarking of all
potential options, to make sure the wrong options are avoided and the best options are considered.
Start with reading the available vendor test reports
A best practice is to start reading all the test reports, validated designs and reference architectures
that the vendors publish based on the industry standard benchmarking tool Login VSI. The standard
out-of-the-box simulated user workloads (light for a task worker, medium for a knowledge worker and
heavy for a power user) make comparisons between the claims of different vendors possible.
Login VSI makes it possible to compare apples to apples in this complex and fast-changing market
place. All papers based on Login VSI test data are available for free at: www.loginvsi.com/whitepapers .
Test different infrastructure options in your own environment
Where the white papers give a good overview of the capabilities of the different software and
hardware options in clean lab environments, the actual performance and scalability of the different
options may be different in your own production environment, where other influences will play a role.
Testing under production load reveals all potential flaws in a vendor proposed infrastructure and helps
not only to choose the best performing, but even more important, the most cost-effective solution.
Perform Proof of Concepts with the intended production user numbers
Ideally you would want to perform your Proof of Concepts with the intended production user numbers.
There are many examples of VDI infrastructure tests using small numbers of real users that performed
well initially, but later on experienced fundamental performance and capacity issues when production
roll-out was scaled up.
As tests with real users are often expensive and hard to organize, it is the tendency to keep the test
group small. Load testing tools like Login VSI allow for easy to execute, cost-effective real-world full
production load tests that will reveal and validate the true capacity of the proposed infrastructure.
Business case: objective benchmarking helps international bank to optimize infrastructure choices
A large international bank used Login VSI to compare Intel and AMD processors. Where one was faster
but also more expensive, the test-data allowed for a fair comparison based on costs per VM. The same
bank also used Login VSI to objectively choose the best hypervisor for their environment out of Citrix,
VMware and Quest and to compare the performance impact of server side versus client side rendering.
4
No more VDI performance problems
3. Testing in production helps to avoid
failure and associated costs
In the later project and production stages testing is the way to avoid user infrastructure slowdown or
failure including the resulting costs and irritations of problem solving and business interruptions.
Organizations that experience this type of problems are seeking for a way to solve them. Organizations
that are quite happy with the current performance are looking for ways to make sure it stays that way.
The many real life business cases throughout this paper not only demonstrate the value of testing to
prevent problems, but also the fact that these problems can happen to anyone, and may happen more
often that you want.
Every update, upgrade or any other change may have a very negative effect on your virtual desktops. It
pays to be prepared for these scenarios, as prevention is always better than cure.
Business case: testing helps to stay out of trouble, how to avoid 20% performance loss
Lab tests show that the upgrade from Microsoft Office 2010 to Office 2013 results in a 20% reduction in
performance. Most upgrades in software applications mean more functionality and a richer user
environment. So a degradation of performance, or the need for more infrastructure, is inherent. For this
reason it must be a standard procedure to test all software upgrades upfront to measure the exact
impact, and necessary extra hardware resources, before implementation into production. Any untested
upgrade may result in unhappy users, IT-staff stress, and business productivity losses. This is obviously
true for larger but also for smaller production environments (of 50 to 100 desktop users).
Business case: insufficient testing puts 25% of workforce out of business
A European fundraiser for healthcare research relies on a Server Based Computing environment based
on Citrix XenApp, to provide a productive desktop environment for 600 telephone fundraisers. The
intended update to the PVS image was tested by a subset of 60 real users. This small scale test with real
users did not reveal any performance problems and the update was rolled out into production. The next
day 150 of the 600 staff were unable to work for a number of days causing serious loss of income.
Management was very upset and ordered VDI testing to be fully integrated into the business continuity
processes. All VDI related infrastructure changes are now tested full-scale with Login VSI before being
implemented, and monthly stress tests are executed to prepare for other unforeseen potential issues.
Business case: large government agency avoids disaster roll-out to 5000 users
A large Dutch government agency was moving towards 15,000 virtual desktop users. They negotiated a
fixed price deal, including all hardware needed, with a large service provider. When the first block of
hardware for 5,000 users was implemented based on sizing estimations, the customer decided to
validate the infrastructure before starting roll-out to the production end-users. The scalability tests with
Login VSI showed that the infrastructure installed could only support 3,500 users. The numbers were
used to negotiate a larger environment with the service provider, and a great disaster was prevented.
5
No more VDI performance problems
4. Traditional testing suites made testing
expensive and awkward
Testing with traditional testing environments used to
involve a very tangible capital investment in large testsoftware suites and specialized test-hardware.
The traditional test process involved weeks or
sometimes months to install the test software and
again lots of time to build and perform the actual tests.
Professional testing engineers were needed to install
the test environment, to build and run the tests, and to
read and understand the performance test-results.
So even if organizations were mature enough to
recognize the risks of not-testing, the costs (in time,
money and hassle) of the use of traditional testing
environments were still so high that many organizations opted to ‘just see what happens’. A strategy
with sometimes disastrous results…
Business case: Fortune 100 health care company avoids disaster roll-out to 2000 users
A Fortune 100 US health insurance company, used Login VSI to safely migrate to a new storage
platform to better support their hosted desktop environment. Conventional tests by the different
vendors of the separate components (storage, server, hypervisor) all showed all good performance. But
tests of the complete infrastructure (all servers instead of a single server) with Login VSI hinted at
possible problems. Further research showed a significant error in the storage configuration that would
have caused serious performance problems when this system was rolled-out to all intended 2000 users.
Business case: How testing before production helped a US law firm IT-director to keep his job
For a successful migration project from fat clients to a centralized user environment providing a good
user experience is key. After the original capacity planning based on assessments and best practices the
IT director decided to validate the environment by load testing with Login VSI before going production.
The tests showed that the planned infrastructure for 300 users, was only able to support 78 users.
Logon times exploded from 12-20 seconds to 200-500 seconds. The tests also revealed serious mistakes
in the way the storage and servers were configured. The original intention was to start the roll-out of
the new virtual desktop environment to senior staff of the law firm. The testing with Login VSI not only
prevented serious business disruptions at the law firm, but also an abrupt end to an IT directors career.
6
No more VDI performance problems
5. Login VSI makes VDI performance
testing easy and cost effective
Login VSI simulates out of the box workloads and does not require any additional infrastructure. Login
VSI was designed by experienced VDI and SBC specialists, who created a tool that was easy to
implement and easy to use, based on their own wishes and needs. Because Login VSI can be deployed
very quickly it allows you to profit from the benefits of testing in every phase of your desktop
virtualization project.
Login VSI is designed for easy installation
Where traditional test environments used to take up to
four weeks to be installed and started, Login VSI can be
installed and ready for use in less than four hours.
Login VSI makes test creation and execution easy
The industry standard workloads make starting a test
easy and quick. The flow-based interface makes test
building and execution easy for non-test professionals.
Login VSI produces easy to understand results
The index VSImax, indicating the maximum number of
virtual users that can be served by the tested
infrastructure with an acceptable performance, is easy
to understand, making scalability comparisons between different tests comprehensive for all.
An investment in Login VSI pays for itself
Where traditional testing environments were very costly to buy, and to maintain, Login VSI introduces
very competitive pricing models, based on a one time purchase of the software and yearly
maintenance.
Login VSI makes testing virtual desktop environments available and cost-effective for all
By lowering the costs (in time and money) of VDI testing dramatically, Login VSI makes VDI
performance testing accessible to all. This way we help organizations to reach the intended benefits of
virtual desktops, without the risks and dangers of performance problems.
A structured approach towards testing with Login VSI lets leading organizations in the world to build
more flexible user environments, increasing their organization’s productivity, while reducing costs.
7
No more VDI performance problems
6. Investing in VDI performance testing:
CAPEX and OPEX
In financial management two terms are used to describe investments in IT (or other business costs).

Capital Expenditures (CAPEX) refers to the original investments made in innovation projects. In IT
this means all the costs needed to buy (hardware and software) and build a new infrastructure.
Typically these type of costs are the responsibility of project managers.

Operational Expenditures (OPEX) refers to the returning costs of products, systems or
organizations. In IT this means the yearly operational costs for the management and maintenance
of an IT infrastructure. Costs include people, support and maintenance contracts and more.
Typically these type of costs are the responsibility of (e.g. virtual desktop-) infrastructure managers.
If we expand on the numbers used earlier in this paper, we can use the following calculations as
examples that can be used and adapted for your own organization’s situation.
Relative investment of Login VSI as Capital Expenditure
CAPEX
per User
Typical VDI infrastructure cost (1)
$
1.500
Typical Login VSI license cost (2)
$
56
Relative
Investment
3,7 %
(1) Source: Sample configuration in ‘Toolkit: Hosted Virtual Desktop Infrastructure Planner’, December 2012. By Federica Troni
and Nathan Hill, Gartner.
(2) Smallest Login VSI perpetual license + 1st year support
The relative investment needed to purchase the load testing tool Login VSI is less than 4% of an
average virtual desktop infrastructure (hardware plus software) investment. If Login VSI helps to make
better and safer infrastructure decisions this can easily save you 4% of your total costs. Login VSI also
helps to avoid serious production disturbances that can severely damage your business. As described in
section 1 of this white paper, a 1% performance loss can add up to (a few) hundred thousand dollars in
financial damage.
Relative investment and ROI of Login VSI as Operational Expenditure
OPEX
per User
Total salary cost of a knowledge worker (1)
$
40.000
Typical Login VSI license cost (2)
$
18
Relative
Investment
0,045 %
ROI in
hours/days
<1 hour..
(1) With a working year of 230 days, this makes a cost per working hour of 22usd.
(2) 250 users, 5 year write off, 20% support
The relative investment needed to include testing in your day-to-day business practice is less than a
0,5% of an end-users yearly salary cost. If testing saves each user 1 hour of trouble a year, the
investment in a tool like Login VSI is already repaid. Every extra hour of trouble avoided increases the
ROI dramatically.
8
No more VDI performance problems
7. The business case for VDI performance
testing: a model to use
Benchmarking different infrastructure options in the project phase, helps you:

Compare and select the best performing products (and avoid technical problems)

Compare and select the most cost-effective products (which helps to save costs)

Make choices based on objective tests (which helps to avoid discussions afterwards)

Compare old and new environments (which helps to build sound business-cases)
Capacity planning and production readiness in the project phase, helps you:

Validate sizing estimations and calculations (and avoid over-, or under-spending)

Make a budget based on facts (and avoid financial disappointments later)

Test the entire infrastructure before going production (and avoid performance issues)
Load testing and stress testing in the production phase, helps you:

Determine your systems maximum user load (which helps to support planned growth)

Prepare for non-standard peak-usage scenarios (which helps to prepare for unplanned loads)

Get an objective baseline measure of performance (and reduce expensive production problems)
Testing the impact of every change in your VDI production environment helps you:

Avoid unexpected performance problems (and avoid problems instead of fixing them)

Test potential improvements upfront (and improve your infrastructure without risk)

Safeguard the ‘health’ of your environment (and therefore reduce problems in production)
9
No more VDI performance problems
8. About Login VSI
Login Virtual Session Indexer (Login VSI) is the industry standard performance and load testing tool for
virtualized desktop environments like VDI and Server Based Computing. Login VSI can be used to test
the performance and scalability of VMware Horizon View, Citrix XenDesktop and XenApp, Microsoft
Remote Desktop Services (Terminal Services) or any other Windows based virtual desktop solution.
Login VSI is a good choice for benchmarking and Proof of Concepts

100% vendor independent and 100% objective

out of the box standard workloads make product comparisons easy

Login VSI is used by all leading VDI-related technology vendors
Login VSI is a good choice for capacity planning and production readiness

easy to use through out-of-the-box workloads (where sufficient)

precise through easy workload customization (where needed)

used for sizing by SE’s of Cisco, HP, Citrix, VMware and many more
Login VSI is a good choice for load testing, stress testing and baseline

different standard workloads are available for different scenarios

Login VSI allows for (close to) simultaneous logons or workloads

workload content and phasing can be adapted to reflect real-life usage
Login VSI is a good choice for change impact prediction

ease of use allows for testing each intended change before production

large end-user organizations use Login VSI as a part of their DTAP street

perpetual licenses provide value for money and lifetime protection
more information about Login VSI, or a free trial, please visit www.loginvsi.com.
Benefits of Login VSI for the organization:
Benefits of Login VSI for the IT manager:

No frustrated desktop users

Maintained management support

No costly business interruptions

More successful VDI projects

No stressed desktop managers

Happy end users, less complaints

No frustrated customers

You add to the companies health

Avoid damage to reputation

And you may get the corner office
10
No more VDI performance problems
Appendix 1
Recognizing the risks of not testing: Questions you can ask yourself
Why invest in Benchmarking different infrastructure options
When evaluating new SBC or VDI products, are you interested in how they perform in your
environment? Do you trust the claims vendors make about this? Would you trust real-life results
better? Especially tested in your own environment? How would it help you if you had an easy to
implement, easy to use tool to compare them on their performance and scalability? Have you or
someone else ever made a wrong choice here? What are the consequences of a wrong choice.. for the
users, for you, for the company, in terms of time, money, hassle, frustration? If you could test different
products in a real-life but simulated environment before selection would this be of value? What would
be the biggest benefit for the company? How could this make your life and the life of your datacenter
staff better?
Why invest in capacity planning and production readiness
Do you plan to move from fat to thin clients? Is there growth expected in number of users. How do you
test how much servers and storage you need to maintain a good user experience? How much do new
servers cost? How bad is it if you bought too much capacity? How would this affect your budget, your
credibility? How bad is it if you bought too little? What would be the biggest risk? What consequences?
Did this ever happen? What happened then? How could it help you if you could simulate the workloads
of your users to determine the capacity of one server, so you can determine how many you need? How
could this help to prevent problems, save costs in hardware/ software/ datacenter space, power?
Why invest in load testing, stress testing and baseline
Do usage-peaks occur sometimes? Are they predictable (like logon-storms)? Are you 100% sure your
new system is powerful enough to survive usage-peaks. Is there growth in the company? Can you
handle the extra number of users? Do you know the maximum capacity of your system? How could
knowing this help you? What would be the biggest problem if the system slowed down during a peak?
What would be the consequences in time and money, for you, other users, other departments, and the
company? What would be the biggest benefit to know the maximum load of your current system?
Why invest in change impact prediction
How important is performance? Do you ever experience issues here? Do users complain about
performance? Do you know what causes these problems? Do you ever experience performance loss
after installing a new version, update, upgrade, patch? What was the last time this happened? What
happened? How much time was lost? Who suffered? What is the effect on the motivation of the users?
What do they do when this happens? What is the effect on the business? How often does this happen?
What would be the costs of this in time and money? What is the chance this happens again? Would it
help if you could predict the effect on performance of all changes on beforehand? What would be the
biggest advantage for you if you could predict the impact on performance of every change? What
would be the biggest benefit for the company? How much money or time could you save?
11
No more VDI performance problems
Appendix 2
6 Recommendations and Best Practices to avoid performance problems
1. Read the relevant test reports, validated designs and reference architectures that infrastructure
vendors have published, based on the industry standard tool Login VSI (see www.loginvsi.com).
2. Test all infrastructure options proposed by the different vendors, in your own business environment.
3. Test hosted desktop infrastructures sized on calculations and best practices before going production.
4. Test all intended infrastructure changes before implementation for possible performance impact.
5. Test with the real production number of users. Subsets not always reveal all potential problems.
6. Test the entire infrastructure. Testing components or single servers, may not reveal all problems.
Best Use Scenarios for Hosted Virtual Desktops, Mark A. Margevicius, Gartner
“Problems with HVDs include scalability and application performance. Many organizations that
have successfully deployed HVD in test/pilot mode experience scalability issues as the number
of users grows. Simple pilots of 50 to 200 users are common and are, for the most part,
successful. These pilot users are typically task-based, have the same software requirements,
are LAN attached, and can be managed with traditional tools and techniques. However, as the
number of users increase, so does the complexity. Organizations that create static VMs for
each of their users are confronted with numerous PC images, exploding storage requirements,
unique configurations for nonstandard users and general management complexity.”
12
#DesktopDestiny
Nutanix
Virtual Desktop Infrastructure and Healthcare
Nutanix White Paper
Virtual Desktop Infrastructure and
Healthcare
Virtual Desktop Infrastructure (VDI) continues to build momentum as a potentially
transformative technology in terms of increasing IT efficiency. VDI can be particularly
beneficial for the health care industry by better enabling health care institutions to
meet the requirements for quality, speed and privacy in regard to patient care and
data. This paper evaluates the usage of VDI in health care.
©2014 All Rights Reserved, Nutanix Corporation
1
Copyright 2014 Nutanix, Inc.
Nutanix, Inc.
1740 Technology Drive, Suite 100
San Jose, CA 95110
All rights reserved. This product is protected by U.S. and international
copyright and intellectual property laws.
Nutanix is a trademark of Nutanix, Inc. in the United States and/or
other jurisdictions. All other marks and names mentioned herein may
be trademarks of their respective companies.
©2014 All Rights Reserved, Nutanix Corporation
2
Table of Contents
1.! Introduction .................................................................................................... 4!
2.! The Evolution to Virtual Desktop Infrastructure ............................................. 5!
3.! VDI Benefits for health care ........................................................................... 7!
4.! Reducing IT Costs with VDI and Nutanix ..................................................... 11!
5.! Why a Strategic Approach to VDI is Imperative ........................................... 17!
6.! Conclusion ................................................................................................... 19!
©2014 All Rights Reserved, Nutanix Corporation
3
1. Introduction
Virtual Desktop Infrastructure (VDI) continues to build momentum as a potentially
transformative technology in terms of increasing IT efficiency. VDI can be particularly
beneficial for the health care industry by better enabling health care institutions to
meet the requirements for quality, speed and privacy in regard to patient care and
data. This paper evaluates the usage of VDI in health care including:
•
What is VDI and how does it differ from Server-based computing (SBC)?
•
VDI benefits for health care
o
Improved Clinical Efficiency
o
Improved IT Efficiency
o
Improved Security of PHI
•
Reducing IT costs with VDI and Nutanix
•
The challenge with traditional storage
•
Enabling VDI ROI with Nutanix
•
Why a strategic approach to VDI is imperative
©2014 All Rights Reserved, Nutanix Corporation
4
2. The Evolution to Virtual Desktop Infrastructure
Many health care organizations are familiar with Citrix Presentation Server and/or
Microsoft Terminal Server (now called RDS), which they use as part of a server-based
computing (SBC) deployment. SBC allows multiple users to share the same Windows
Server (RDS) operating system. Alternatively, VDI allows each user to run a separate
Windows OS (for example Windows 7 or Windows 8) desktop session.
Both VDI and SBC are similar in that they intelligently separate the personality of the
user from the applications and abstract both from the OS. They enable a model of
personal computing where the information belongs to the user and the device
becomes a “choice” whether a PC, laptop, thin client, Mac, iPad, iPhone or Android
tablet. Users can securely establish a session from anywhere that they can get to a
browser. The session remains exclusively in the data center where it is secure,
managed, backed up and replicated off-site for disaster recovery purposes.
While Citrix created server-based computing almost 20 years ago, it has primarily
been utilized for application delivery. Difficulties in resolving application
incompatibilities, providing users with a familiar “look-and-feel” desktop, session lock
down, printing, and administrative requirements have kept SBC from wide-scale
adoption despite the cost advantages. Virtual Desktop Infrastructure (VDI), on the
other hand, started around 2006, and increasingly captured the interest of IT
professionals and business leaders already familiar with server virtualization. IT is
generally more receptive to the simplicity of the virtual desktop concept than to the
idea of enterprise SBC.
Gartner refers to the concept of VDI as Hosted Virtual Desktops (HVD) while IDC calls
it Centralized Virtual Desktops (CVD). The VDI industry has huge momentum and now
includes not only VMware and Citrix, but also Microsoft, Red Hat, Quest (Dell) and
many smaller niche players along with a rapidly growing ecosystem including
organizations such as Unidesk, Liquidware and AppSense.
SBC enables the use of thin clients, while VDI enables the use of either thin clients or
zero clients. Zero clients are manufactured today by companies such as LG, Samsung,
EVGA, Dell, and HP. Zero clients have no local OS at all, and are therefore particularly
easy to support.
Both thin clients and zero clients are fairly inexpensive and have no moving parts,
local drives or fan noise. The devices are configured simply by plugging them in,
enabling simple replacements in the event one fails. They eliminate the requirement
for upgrading PCs or laptops on a regular basis as well as the necessity for users to
double as desktop administrators. User productivity is enhanced while IT support
time is reduced.
©2014 All Rights Reserved, Nutanix Corporation
5
Both SBC and VDI can reduce anti-virus costs, slash power consumption (by using
terminals) and reduce downtime while users await new upgrades or help desk
support. They empower users – giving them a new level of flexibility and agility. They
facilitate acquisitions by enabling quick assimilation of new organizations into the
existing desktop infrastructure while still allowing them to run their existing
environments in parallel. They enable fast set-up of remote facilities and reduce time
to market by accelerating application provisioning.
Unlike SBC, the ability for users to work on a rich Windows 7 or Windows 8 desktop is
one of the most compelling aspects of VDI along with no worry about application
incompatibilities due to running on a specialized version of Windows Server (RDS).
Other advantages include enhanced security posture, fault tolerance, superior loadbalancing, easier backups, lack of DLL conflicts and a potential pristine desktop every
time a user logs in. VDI administrators do not need to be specialists in RDS or server
registry hacks, and can utilize standard Windows printing.
One of VDI’s most attractive capabilities is the ability to for health care workers who
use multiple devices in order to work from home, outpatient facilities or even from
multiple rooms. VDI offers a much more attractive alternative where users simply and
securely log onto their virtual desktop from any device from anywhere and are
consistently presented with an identical user interface.
©2014 All Rights Reserved, Nutanix Corporation
6
3. VDI Benefits for health care
Unlike many businesses and organizations that might only have a handful of
applications to support, health care facilities have scores or even hundreds. Increasing
regulations in health care make information control more important than ever while
expensive staff necessitates IT systems enabling as efficient use of their time as
possible. The prevalence of outpatient services, industry consolidation and the push
for Accountable Care require faster, simpler, affordable, and more secure
deployments.
The high cost of health care professionals means that increasing productivity through
VDI may have even a more significant economic impact than any infrastructure-based
cost reductions. And while infrastructure-based costs can represent immediate
savings, VDI deployments in health care facilities are poised to enjoy a myriad of
benefits in terms increased efficiencies and data security enhancements.
Improved Clinical Efficiency
•
Improved Mobility. VDI truly lets mobile workers access their desktops efficiently
and securely from anywhere they can get to a browser. In the world of ever
expanding Accountable Care Organizations, industry consolidation and
consultative partnerships the ability to deploy desktops in a matter of minutes
saves time, money and improves access to critical patient data. With a web
browser and user credentials end users, regardless of their location, have secure
access to all desktop tools and available patient information.
•
Follow-me Desktops. Clinical staffs tend to log into desktops frequently – 50
times in a shift is not uncommon. It typically takes around three minutes or longer
to boot up a standard desktop with data and applications. Utilizing Virtual
Desktops clinical staff can both log on and disconnect from sessions very quickly,
reducing access time by around 50%. Consistent desktops also eliminate the
confusion of user interface changes when sharing or rotating between multiple
workstations or device types.
•
Reduced Downtime. Failed devices are easily replaced and running in a matter of
minutes without the need of rebuilding local drivers and connections to additional
end point devices. The ability to quickly return care stations to working status
improves the ability to keep utilization of expensive assets like the operation room,
MR & CT areas at high levels.
•
Access. Ubiquitous access to health care applications will translate into
productivity and patient care improvements, which can yield to significant
benefits. Easier, universal and secure access to EHR, PACS, labs and centralized
©2014 All Rights Reserved, Nutanix Corporation
7
applications will empower end users at the point of care on any device.
Eliminating the need for specific task dedicated workstations; virtual desktops will
remove the need for multiple logins on different devices and merge the remote
silos of clinical data onto a common platform.
•
Rapid scaling capabilities. The rapidly changing health care market forces the
need to maintain flexible and adaptable operating environments. With the vast
amount of changes in health care today providers need to remain flexible. Unlike
PCs and laptops, which must be ordered, configured and provisioned – virtual
desktops can be deployed in minutes. Health care facilities consequently gain
much faster access to desktops required when acquiring new facilities, joining care
networks or simply adding new applications.
Improved IT Efficiency
•
Improved backup. Since all the virtual desktops reside in the data center, they are
backed up regularly without requiring expensive local backup software on
individual PCs and laptops. VDI also enables backing up the full desktop image
meaning that it can be redeployed in a matter of minutes rather than the much
longer period of time it can take to reimage a physical desktop. Third-party
applications by companies such as Unidesk and AppSense give users the ability to
roll back their own desktops without requiring IT administrative assistance should
they need to recover deleted files.
•
Superior disaster recovery. While organizations may spend a great deal of
money implementing data center DR plans, they often forget about the client side
of the equation. Even the most sophisticated data center DR plans are rendered
ineffective if users can’t access the client-server software they need in order to
connect to their applications at the recovery site. And if their data is sitting on the
hard drives of PCs or laptops in the affected building, their ability to fully recover
can be seriously compromised. Virtual desktops eliminate all of these issues since
they are continuously replicated to the DR facility along with the virtual servers. In
the event of a disaster, users just need to get to a browser on any device from any
location, and they can easily and instantly gain secure access to their applications
and data at the recovery site.
•
Superior desktop management capabilities. Pushdown software applications
are no longer required for effective desktop management. Indeed, virtual
desktops provide the most efficient and effective desktop management possible
by separating the desktops from the underlying hardware and associated issues
that defective or incompatible hardware can cause. Dozens of desktop images no
longer need to be maintained and deployed. Additionally, virtualizing the
applications themselves adds yet another layer of abstraction and helps prevent
application freezes due to DLL and registry conflicts.
©2014 All Rights Reserved, Nutanix Corporation
8
•
Increased IT staff productivity. The IT staff no longer needs to maintain and
deploy a vast array of desktop images. Virtual desktop snapshots (backups),
management and administration are conducted as part of an overall virtual
infrastructure environment utilizing optimized toolsets for the tasks. A failed PC or
laptop is no longer a crisis or even really an inconvenience since a user can simply
plug in another device and be back at work. Remote clinics no longer require
emergency visits to replace failed servers or tape backup units. The IT staff’s
ability to more effectively add hardware, troubleshoot remotely and even budget
is all significantly enhanced.
•
Improved software license compliance and cost control. A VDI environment
puts IT in control of all software since it all runs on the virtualization hosts. IT can
easily track usage trends and help minimize licensing costs. More importantly, IT is
now better able to both identify best practices in terms of optimal software as well
as emphasize the elimination of redundant and overlapping software packages.
•
Superior user support. In most organizations there are users who seem to have a
dark cloud over them when it comes to PCs or laptops. Their power supplies burn
out, corrupting their desktops. They lose critical files even though they’re sure
they’ve saved them. They inexplicably run slower or freeze up entirely every 3 or 4
weeks, but IT is never able to replicate the issues. These types of problems are
dramatically reduced when an organization implements a cohesive virtual desktop
strategy. The hardware based challenges are eliminated and IT now has the ability
to quickly monitor, test, replicate and recover virtual desktops as needed.
•
Less downtime. User downtime is slashed in two ways. On the data center side,
the virtual desktops now benefit from the same advantage that virtual servers have
in very rapid recovery in the event of failure. As with servers, they can even utilize
real-time clustering (using VMware Fault Tolerance) if needed. On the client side,
downtime caused by hardware issues or incompatibilities is eliminated entirely
while lock-ups due to DLL conflicts or malware are significantly reduced.
Downtime is also no longer required for PC/laptop upgrades or refreshes.
•
User device proliferation. Users are increasingly demanding effective utilization
of non-traditional devices such as iPads, Smart Phones and Android tablets. VDI
enables IT to provide Windows 7 based desktops to these users complete with all
of the authentication, security, reliability and management required as part of the
organization’s governance policies.
Improved Security of PHI
•
Enhanced logical security. When users have access to their physical PCs or
laptops, they are easily able to infect their devices with viruses, spyware or other
malware. With The Advisory Board Company estimates that list the black market
©2014 All Rights Reserved, Nutanix Corporation
9
price for an Electronic Medical Record at $50, theft of patient data is on the rise.
Combined with painful HIPAA Omnibus fines – of up to $1,500,000 - and crippling
damage to brand goodwill, mitigating data breach is paramount in health care.
VDI limits the ability of end users to modify devices and centralizes control to help
prevent against network based data breaches.
•
Enhanced physical security. A February 10, 2011 issue of Health care Informatics
reported that two-thirds of all protected health care information breaches were
due to theft of laptops and other portable devices. Centralizing data in a VDI
deployment removes secure information from these endpoint devices and
eliminates the need for purchasing and managing local firewalls and encryption
software. Strategically implemented lost or stolen devices do not contain PHI in a
VDI deployment and in the event of theft; VDI will increase the likelihood of
determining a low probability of compromise.
•
Enhanced regulatory compliance. The ability to monitor every virtual machine in
a central location makes it easier to prevent patient privacy issues and to comply
with regulations concerning PHI. Eliminating the always-on workstation, end users
are required to provide credentials when accessing a workstation. Not only can
access be restricted, but also in a VDI deployment, desktop permissions can limit
access to approved functionality only.
•
Improved patching. The ability to automatically and centrally patch monthly or
weekly software updates enhances the capability to immediately and universally
deploy at risk security updates. Compare VDI patching to the existing labor
intensive and incomplete method of patching to hundreds if not thousands of
physical end devices and the cost and compliance savings are enormous. Even if
achieving a high success rate with current deployment methods, the time and
effort spent to guarantee and document compliance is a challenge not worth
risking. VDI can centralize, standardize and simplify patch application.
©2014 All Rights Reserved, Nutanix Corporation
10
4. Reducing IT Costs with VDI and Nutanix
It’s been a commonly accepted industry maxim that virtual desktops might improve
management, enhance user productivity, facilitate BYOD, enable superior DR, and so
on – but forget about saving money.
Virtualizing servers is fairly predictable for most organizations. IT can use various tools
to gauge the number of likely candidates up front, and purchase the required
infrastructure to enable an orderly transition to a virtualized environment. Users
should, hopefully, not be impacted other than by improved performance and less or
eliminated downtime from server maintenance or failures.
Virtualizing desktops is far more challenging than virtualizing servers. Applications or
usage patterns can easily change over time requiring unexpected resources. And a
health care VDI initiative typically includes hundreds or thousands of users – each with
their own expectations, application requirements and perceptions. Consider the
workload generated by a standard clinical EMR user, versus a user in Radiology
processing advanced CT images. Every user and therefor every workload in a VDI
deployment is unique.
Virtual desktops utilize write-heavy workloads with random 4K IO packets. This makes
achieving consistent performance difficult: IOPS requirements can swing wildly
depending upon usage patterns, time of day and type of applications being accessed.
Boot storms, anti-virus scans and patch update cycles can all put sudden loads on the
infrastructure and impact general performance.
Users tend to be adverse to change in even the best of cases. If their performance
varies under VDI – even if only during occasional boot or write storms, they often
become quite vocal and can slow or kill a virtual desktop initiative. Ironically, it is
better to have consistently sub-par virtual desktop performance rather than randomly
fluctuate between sub-par and good.
Other variables can also affect virtual acceptance. Many laptop users, for example,
may be happy to exchange their devices for a virtual desktop that follows them
around – particularly between offices or between their homes and offices. But other
laptop users may require or simply demand a truly mobile device.
As a result of the uncertainty regarding both the ultimate VDI user population and
performance requirements, Health care institutions generally deploy a virtual desktop
environment over a number of years, making adjustments as appropriate. IT
commonly migrates users to virtual desktops during their normal PC or laptop refresh
cycles by either locking down their devices to act like thin-client terminals, or
replacing them with thin-client or zero-client devices.
©2014 All Rights Reserved, Nutanix Corporation
11
Implementing virtual desktops over time for an ultimately unknown population does
not mesh well with traditional storage infrastructures. Organizations face either
purchasing storage arrays up-front with far more capacity than required, or risk forklift
upgrades down the road. The initial capacity must be adequate to handle any future
growth in the user population, new applications or other unanticipated resource
requirements, as well as spikes in intermittent resource utilization.
The Challenge with Traditional Storage
Most organizations, not unexpectedly, do a poor job of estimating the storage
requirements up-front. A recent Gartner study of 19 organizations that deployed
either VMware View or Citrix XenDesktop showed that 17 of the 19 spent more on
storage than expected, and that storage, on average, accounted for 40% - 60% of the
entire VDI budget. A Gartner analyst commented that the only reason two of the
organizations managed to stay within their storage budget was that they purchased so
much of it up-front.
High initial storage cost combined with the difficulty in forecasting the parameters of a
VDI deployment in terms of users and resource requirements years down the road
tends to create project inertia. Adding to the consternation is the obvious
disadvantage of consuming the excess storage capacity at a future date when it will be
markedly inferior in comparison to new technologies.
A virtual data center also changes the dynamics of the traditional stovepipe IT
organizational model whereby the server, network and storage teams can no longer
work effectively in silos. VDI requires further collaboration with desktop and
application teams. A 2011 InfoWorld article stated that IT collaboration was the #1
obstacle to VDI adoption.
Virtualization customers have demanded solutions that reduce management
complexity, enhance collaboration, and that help eliminate inevitable finger pointing
from different manufacturers of storage and servers. The datacenter manufacturers
have responded. All the leading players have a version of what they refer to as a
“converged infrastructure” that combines compute, storage and network resources
either as products or as reference architectures.
But calling these solutions “converged” is a misnomer. A better description would be
“adjacent infrastructure” since the underlying compute and storage tiers must still be
managed separately, and they still require an intermediate network to move data
continuously between them. While these pre-packaged compute + storage solutions
can substantially reduce the time required to implement the back-end VDI
infrastructure, they can also exacerbate the difficulties organization face in moving
ahead with VDI. Now IT must purchase not just the storage, but in some cases much of
the server resources, up front as well.
©2014 All Rights Reserved, Nutanix Corporation
12
Enabling VDI ROI with Nutanix
Google pioneered the web-scale infrastructure in the cloud provider space, and it is
now utilized by every leading cloud provider. Web-scale enables consolidation, linear
scalability, fractional consumption and an abstraction of the intelligence from
traditional hardware arrays into software-defined storage. The compute and storage
tiers combine into a single consolidated infrastructure.
Nutanix brought this model to the enterprise by leveraging the hypervisor to virtualize
the storage controllers themselves. Since every server is a virtual storage controller,
the crippling boot and write storms common with traditional storage arrays are
eliminated. The local disk combined with integrated flash and auto-tiering of
workloads provides for a consistent user experience and, consequently, much greater
user acceptance of the virtual desktop environment.
The Nutanix Virtual Compute Platform installs in under an hour, and is managed by
the virtualization administrators through the virtualization platform console,
eliminating the requirement for storage and compute administer collaboration. Unlike
traditional arrays, storage administrators do not continually field requests from the
desktop team for more LUNs or IOPs.
Most importantly, Nutanix enables the VDI environment to expand one server at a
time. The much lower initial investment enables a quick payback period. And the
overall spend is also reduced since Moore’s Law ensures declining costs relative to
VM density.
Utilizing Nutanix, health care institutions can inevitably fund their entire VDI projects
including infrastructure, licensing and services – with just their normal refresh budgets
for PCs and laptops. In fact, they almost certainly will have plenty of budget left over.
The example below is based on one of Nutanix’s health care clients, a California
County, who virtualized 2,560 PCs and laptops over 5 years at the rate of 606 virtual
desktops created the first three years, and then 521 the last two years (to match the
refresh rate of 5 years for PCs and 3 years for laptops).
Existing PCs and laptops are locked down as thin-clients, and kept for 3 years after
their normal refresh cycle, then replaced with 22” LG integrated zero-client monitors.
The LGs are purchased for new users. Microsoft SA costs $50/user/yr. and VDA
$100/user/yr.
Utilizing Nutanix rather than the conventional storage and converged infrastructure
solutions provides a projected 5-year positive cash flow of $247,902 vs. a initial
investment of $595,843 which equates to an ROI of 42% and a 10.9 month payback.
©2014 All Rights Reserved, Nutanix Corporation
13
Including projected 5-year IT staff savings of $2,372,348 from migrating to virtual
desktops brings the ROI up to 298% and reduces the payback period to 9.6 months.
While each organization tends to have unique aspects of its environment to consider
when evaluating projected cash flows from implementing VDI, some of the common
ones are as follows:
PC Costs: PC costs are calculated both for expected new PC purchases each year as
well as for expected upgrades to existing PCs. PC costs should reflect not only the
cost of the units, but also the relevant associated costs including: tax, shipping,
cabling, set-up and configuration. In the County health care example above, this cost
was calculated at $750.
Laptop Costs: Only the laptops that can be virtualized should be considered as part
of the cash flow analysis. These include laptops that can effectively utilize off-line VDI,
and those laptops that are given to employees to work between the home and office.
In the later case, the laptops can often be eliminated and the employees instead given
a virtual desktop that is easily accessible from wherever they can get to a browser. As
with PCs, laptop costs should incorporate all relevant tax, shipping, etc. as well as
monitor and docking station if applicable. The total cost in the example above was
calculated at $1,815 including monitor and docking station.
PC/Laptop Disposal Cost: The health care organization in the example above had
$100 disposal costs for disposing of old PCs and laptops including degaussing drives.
This is fairly typical.
©2014 All Rights Reserved, Nutanix Corporation
14
Client Devices: Under the virtualization scenario, costs are calculated for expected
new devices for new users. Many organizations choose to purchase lower cost thinclient or zero client devices which also require less power and support and in many
cases can provide an improved user experience due to faster boot-up, less space
requirements and no fan noise.
IT Staff Costs: Associated IT staff costs with securing, managing, and backing up and
supporting both physical desktops and their virtual equivalents. These include tasks
such as help desk support, OS/application patching, desktop imaging/reimaging,
user administration, hardware configuration, and application provisioning and
upgrades. On the virtualization side, the appropriate increased cost, if any, for
managing the virtual desktop infrastructure component of the private cloud. An IDC
study says that it takes 12.2 hours, on average, to support a physical desktop per year
and 5.2 hours to support a virtual desktop.
Remote Clinic Costs: In many cases under VDI, the physical servers and related
network infrastructures can be eliminated from smaller remote offices and the users
instead run their desktops as virtual machines from the corporate data center. In
these situations, the costs for the remote office servers, backup equipment, UPS,
maintenance contracts, staff support, etc. can be calculated and contrasted against
the much lower operating costs for consolidating the physical desktops to virtual
machines in the data center. The County did not have any remote health care facilities.
Microsoft Licensing Costs: Under a virtualization scenario, there may be increased
annual Microsoft licensing costs for Virtual Desktop Access (VDA) licenses if the
organization does not purchase Microsoft Software Assurance (SA) or utilizes thin
clients or zero clients or other non-Windows devices. The organization in the example
above utilized Microsoft SA. As it began replacing PCs/Laptops with zero-client
devices, the VDA license costs were accrued. Note that there now is a way around this
licensing if using Windows Server Datacenter Edition to make the virtual desktops. In
fact, under this scenario licensing can even be lower than with PCs/laptops. The
caveat is that all of the applications need to be Windows Server compatible.
Other Potential Cost Savings: While not part of the County’s savings, organizations
can also potentially benefit from the following areas:
•
PC & Laptop maintenance cost
•
PC & laptop power cost
•
The cost for maintaining and upgrading desktop management software.
©2014 All Rights Reserved, Nutanix Corporation
15
•
Desktop backup software cost
•
Encryption licensing cost
•
VPN cost
•
Office space cost saved from having more employees work from home
Investment Costs
On the investment side, common variables to consider include:
•
Nutanix Virtual Compute Platform
•
Virtualization licensing (server and client)
•
Profile Management software licensing (if applicable)
•
Thin or zero clients (if applicable)
•
Professional services for VDI design and implementation
©2014 All Rights Reserved, Nutanix Corporation
16
5. Why a Strategic Approach to VDI is Imperative
Most health care organizations treat physical desktops as a silo with separate IT staff
dedicated to platform management, administration and maintenance. While the high
costs of running a physical architecture make this stovetop approach pragmatic, it is
no longer necessary when adopting a virtualized architecture. Virtual desktops
become just another set of workloads running in the data center alongside the server
VMs. They are administered with the same management console and benefit from the
same virtual capabilities of snapshots, fault tolerance, DR replication, etc.
Hospitals planning their VDI environments have an opportunity to incorporate virtual
desktops as an integrated component of an overall virtualized data center. This
strategic approach makes sense on many levels. A Bain & Company survey showed
that hospital CIOs ranked IT interoperability as the most important strategic issue they
face. Strategically virtualizing the desktops as part of the data center enables
transformation into a private cloud with automated self-provisioning including
metering, monitoring and chargeback.
The increasing familiarity of IT staffs with server virtualization frequently emboldens
them with the confidence to deploy a VDI solution; applying to the desktop the
lessons learned from their server virtualization efforts. This approach, though,
inevitably leads to trouble when expanded to an enterprise initiative. Wildly varying
usage patterns, for example, can quickly oversubscribe memory and disk IOPs –
creating widespread havoc among users. Anti-virus scanning configured for a
traditional physical environment can quickly bring VDI performance to its knees. Lack
of consideration of more demanding network capabilities or differing security
requirements can cause VDI to fail. And disregard of the all-important user
perceptions can torpedo what would otherwise have been a very promising virtual
desktop deployment.
Desktop virtualization demands a strategic approach incorporating the prerequisite
assessment, planning, pilots, and managed execution required for a successful
enterprise project. Objectives, including projected costs and savings, should be
identified prior to starting the design. The planning and proof-of-concept phases can
then be initiated within the context of providing a virtual desktop architecture
optimized to meet the organization's objectives.
A key objective for a VDI implementation should be to provide a very positive user
experience from the first pilot all the way through the production roll-out. Carefully
planned deployments should generate a positive buzz among users, leading to an
enthusiastic acceptance of virtual desktops.
©2014 All Rights Reserved, Nutanix Corporation
17
The architecture requirements largely determine the VDI components such as
hypervisor platform, application virtualization, client devices, personalization
capabilities, and many, many other considerations. While Nutanix is a solution for all
virtual workloads, not just desktops – it is particularly remarkable in VDI in comparison
to traditional servers and storage:
•
Enables a consistent high-performance user experience by utilizing virtualized
storage controllers and perfectly linear scalability.
•
Enables a VDI project to get off the ground with a low cost initial pilot solution
that can then be expanded one node at a time as warranted.
•
Slashes the overall cost of the VDI project and incorporates advancements in
flash, CPU, memory and disk as the virtual desktop initiative rolls out.
•
Eliminates the requirement for storage administration and for collaboration
between compute/virtualization and storage teams.
•
Dramatically simplifies the VDI infrastructure.
•
Slashes datacenter requirements for space, power and cooling.
•
Dramatically reduces the risk of the VDI initiative.
©2014 All Rights Reserved, Nutanix Corporation
18
6. Conclusion
The proliferation of PCs and laptops during the past 40 years has led to an extremely
complex computing environment with disparate and often non-interoperable
databases, software applications and equipment. This complexity is increasing still
further as users demand access to their health care applications via iPads, smart
phones and Android based tablets from multiple locations. Black market demand for
health records, and new regulated security requirements, demand renewed attention
to securing vulnerable physical endpoint devices. VDI, when built upon a Nutanix
architecture, can serve as a unifying platform that simplifies the environment,
eliminates technology islands and secures PHI all while reducing overall costs. The
Nutanix VDI solution enables IT to ensure both enterprise-wide productivity and
efficiency while providing users with a superior computing experience.
©2014 All Rights Reserved, Nutanix Corporation
19
#DesktopDestiny
Citrix
Enterprise mobility - trends 2014
Whitepaper
Enterprise mobility trends 2014
Haal meer uit enterprise mobility management
De onderneming van tegenwoordig is snel aan het veranderen. Het
samenkomen van cloud, mobility, social networking en het internet, door
analistenbureau Gartner “Nexus of Forces” genoemd, zorgt ervoor dat de
meeste middelgrote en grote ondernemingen hun mobiele strategieën
opnieuw onder de loep nemen. Medewerkers nemen hun eigen devices
mee, downloaden hun eigen apps en creëren hun eigen IT.
citrix.nl
Whitepaper
Enterprise mobility - trends 2014
Er zijn drie belangrijke mobiele trends waar grote ondernemingen op
moeten reageren - trends die uiteindelijk de manier zullen veranderen
waarop medewerkers hun taken uitvoeren, waar gegevens en apps
opgeslagen en gebruikt worden en hoe productiviteit en
samenwerking gemeten worden. Deze drie trends omvatten:
• Beleid - veel organisaties stellen beleidsregels op voor mobiliteit als een middel om de toestroom van
persoonlijke devices (BYOD) en de problemen met consumerisatie te beheersen.
• Mobiele apps - smartphones en tablets zijn de drijfkracht achter apps binnen de grote onderneming.
Momenteel zijn dit nog consumentgerichte apps, maar veel grote ondernemingen kijken naar
manieren om de desktop mobiel beschikbaar te maken.
• Beveiliging - organisaties kijken naar manieren om de beveiligingseisen te handhaven.
De vijf fases van mobility
De iPhone van Apple heeft veel veranderd voor enterprise mobility en bracht de huidige discussies op
gang rondom mobiele apps, beveiliging, BYOD, consumerisatie en de methoden om deze
veranderingen in te zetten. De belangrijke trends op het gebied van beleid (BYOD/consumerisatie,
regelgevingen, beveiliging), mobiele apps en focus op beveiliging begonnen in 2007 toen iPhones de
enterprisemarkt veroverden en de veel veiligere en beter beheersbare BlackBerry-devices vervingen. Dit
was de start van wat Citrix® “De vijf fases van mobility” noemt (zie afbeelding 1).
2007
MDM
2013
2015
2016
2018
EMM
Mobile
Workspaces
Mobiele
partners
Unified
Enterprise
Platform
Afbeelding 1: De vijf fases van mobility
De vijf fases van mobility beslaan de recente
geschiedenis van enterprise mobility, waaronder
mobile device management (MDM) en enterprise
mobility management (EMM).
De volgende fase, die eigenlijk pas in 2015 begint
voor de grote onderneming, is wat wij ‘mobile
workspaces’ noemen. Klanten die hun organisaties
transformeren met Citrix Mobile Workspaceoplossingen, laten zien hoe virtualisatie-,
citrix.nl
networking- en cloudservices-technologieën nieuwe
manieren creëren om beter te kunnen werken.
Werknemers dienen toegang te krijgen tot een
draagbare, altijd actieve, altijd verbonden
werkomgeving die ze met zich mee kunnen nemen,
ongeacht de locatie, ongeacht het soort device en
ongeacht de verbinding die zij op dat moment
gebruiken. Vervolgens zullen organisaties met hun
partners en klanten samenwerken en ze helpen hun
mobilitytraject te voltooien. Uiteindelijk, rond 2018,
2
Whitepaper
Enterprise mobility - trends 2014
zullen organisaties op zoek gaan naar een manier
om hun mobiele platformen te verenigen en
medewerkers, partners en klanten te ondersteunen
in iets wat wij een Unified Enterprise Platform
noemen. Citrix springt nu al in op deze evolutie,
beginnend met zijn belangrijkste competenties in
MDM en EMM, en zal verder de mobiele behoeften
van de internationale onderneming op het gebied
van cloudservices, mobiele applicaties en
beveiligingsoplossingen gaan ondersteunen.
Mobiel beleid voor ondernemingen
Een van de eerste belangrijke initiatieven is het
ontwikkelen van beleid voor hoe mobility gebruikt
gaat worden binnen de onderneming. Het
mobiele beleid van de onderneming dient deze
drie gebieden te omvatten:
Maar ondernemingen moeten nu al beginnen met
het bepalen van hun belangrijkste initiatieven op
basis van huidige en toekomstige mobilitytrends.
Zoals gezegd, zijn de belangrijkste trends dit jaar:
beleid, mobiele apps en beveiliging. Laten we elke
trend eens nader bekijken.
Enterprise mobility - trends 2014
Ondernemingen dienen een strategie te ontwikkelen
die het beheerproces van de
ondernemingslevenscyclus volgt (zie afbeelding 2).
Afbeelding 2: Ondernemingsproces voor de mobiele
levencyclus
Dit geeft ondernemingen een begin- en eindpunt bij
het ontwikkelen van de strategie. Elke stap moet
worden bepaald en er moet een strategie komen voor
hoe deze stap bewerkstelligd wordt in de
onderneming, en door wie. Deze stappen moeten zijn
afgestemd op de belangrijkste trends voor enterprise
mobility, waarvan er hier drie behandeld worden.
citrix.nl
• Gebruikers bepalen - het beleid dient de
verschillende gebruikerssegmenten te bepalen.
Hoewel beleid soms alle gebruikers omvat, kan
het afwijken afhankelijk van de
gebruikersvereisten.
• Hardware, software en services - beleid dient
aan te geven welke typen hardware, software
(besturingssysteem, applicaties) en wireless
services ondersteund worden.
• Beveiligingsniveaus - beleid dient duidelijk te
maken wat de beveiligingsbehoeften zijn van de
onderneming, welke beveiligingsvoorzieningen
gebruikt worden en de details rondom
dataverlies, authenticatie- en
versleutelingsrichtlijnen, richtlijnen voor
beveiligingsprocedures, inclusief de procedure
bij een verloren device.
• Kosten - beleid moet in detail de
verantwoording van de kosten, de richtlijnen
voor uitgaven, etc. aangeven.
• Regelgeving - richtlijnen moeten ook aansluiten
bij de eisen van plaatselijke regelgeving. Het
gebruiken van een telefoon, bijvoorbeeld, is op
een aantal locaties verboden. Het beste advies is
om van de gebruikers te vereisen dat ze zich
houden aan de lokale wetgeving.
Hoewel de meeste organisaties wel een soort van
beleid hebben, beslaat dat meestal niet de grote
gebieden van IT zoals beveiliging, netwerken en hardware. Het is beter om één, gecombineerd beleid te
hebben dan vele afzonderlijk beleidsregels. Dat betekent niet meteen dan het beleid omvangrijk moet zijn.
Probeer het beleid beperkt te houden tot maximaal
vijf pagina’s zodat de gebruiker het ook daadwerkelijk
zal lezen. Maak het verkrijgen van een nieuwe device
of service afhankelijk van het akkoord gaan met het
beleid. De meeste MDM-producten ondersteunen
beleidsinspanningen en kunnen ook de instemming
3
Whitepaper
met het beleid, evenals de locatie en de datum waarop het beleid gelezen is door de gebruiker vastleggen.
Identificatie en beheer van de mobiele applicatie
De meeste organisaties ontwikkelen nu actief hun
strategie voor mobiele applicaties. Hoewel de
meeste organisaties al wireless e-mail
ondersteunen, willen ze zeker extra ondersteuning
gaan uitrollen voor bedrijfsapplicaties - waarvan er
veel gebruikt worden op laptops en desktops. Veel
organisaties hebben echter moeite met het
prioriteren en mobiliseren van hun applicaties.
Welke apps moeten ondernemingen mobiliseren?
Het antwoord van veel ondernemingen is “Geen
idee” of “Alles”. Alles is een heel slecht maar
gemakkelijk antwoord. Ondernemingen willen de
huidige computingplatformen vervangen door een
mobiele tegenhanger en denken dat ze daarom
alles van de desktop/laptop moeten overzetten
naar een smartphone/tablet. Dat is geen goed idee.
Sommige mensen weten niet wat mobiel gemaakt
moet worden omdat ze niet dichtbij de business
staan. Ze richten zich op horizontale apps zoals
e-mail of de agenda, maar lopen de kans bedrijfsen gebruikerspecifieke apps te missen die de
bedrijfsprocessen ondersteunen. Het startpunt voor
ondernemingen is gewoonlijk de wens om de
productiviteit of omzet te vergroten. Dit zijn goede
doelstellingen, maar om deze te bereiken moet een
onderneming gebruikersvereisten vaststellen en
deze linken aan persoonlijke, branche of zakelijke
doelen. Hoe doen we dat?
Denk eerst na over de doelen van de onderneming.
Dit kunnen gebruikers-, afdelings- of zakelijke doelen
zijn. Deze doelen helpen bij het vaststellen van het
mobiele proces. Stop vervolgens met denken over
apps. Bij slimmer denken gaat het om het mobiel
maken van de data die vereist zijn voor de business,
om de kosten te verminderen en de productiviteit,
samenwerking of omzet te vergroten. Apps komen
op een tweede plaats. Ze zijn belangrijk voor het
opvragen en beveiligen van gegevens, maar geen
topprioriteit. Denk vervolgens na over uw gebruikers.
Niet iedereen is echt mobiel uitgerust voor de
gewone werkdag. Natuurlijk werken veel mensen
buiten kantooruren of ze willen gemakkelijkere
toegang tot e-mail onderweg, maar wie zijn de echte
citrix.nl
Enterprise mobility - trends 2014
mobiele medewerkers binnen uw organisatie? En
denk hierbij niet alleen aan de medewerkers op de
weg of leidinggevenden, hoe zit het met de mensen
in uw gebouwen of op uw terrein die misschien nooit
achter hun bureau zitten? Denk over zowel het
vergroten als het sparen van uw inkomsten. De
businesscase helpt u bij het vaststellen welke
gebruikers en data gemobiliseerd moeten worden.
Nu het aantal devices en applicaties binnen de
onderneming groeit, moet IT zich richten op
automatisering van die applicatiegroei en
hulpmiddelen vinden om die te ondersteunen. De
adoptie van mobile application management (MAM)
groeit snel omdat het de onderneming helpt bij het
creëren, beveiligen, uitgeven, beheren en analyseren
van mobiele, zakelijke applicaties. Tegenwoordig
gebruiken de meeste EMM-oplossingen MAM als
onderdeel van hun oplossing door datacontainers te
ondersteunen die de bedrijfsdata kunnen beveiligen
en beleid kunnen implementeren (zie de sectie
“Mobiele datacontainers hebben zo hun voordelen”).
In het afgelopen jaar is het idee van
applicatiecontainers populair geworden. Met het
gebruik van appcontainers kunnen apps gedwongen
worden om het ondernemingsbeleid te
ondersteunen (d.w.z. verplaatsing van data, knippen/
kopiëren/plakken, versleutelingsstandaarden, etc.).
Dit ondersteunt een matig tot hoog niveau van
beveiliging (hardwarebeveiliging is niet beschikbaar).
Organisaties kunnen snel (binnen enkele minuten)
bestaande apps omzetten (via “app wrapping”), of
gemakkelijk code toevoegen aan nieuwe apps om
beveiligings- en managementbeleid af te dwingen.
Daarnaast werkt dit op zowel iOS- als Androiddevices, en is de beschikbaarheid dus hoog. Er zijn al
duizenden beheerde en beveiligde apps beschikbaar
in de Apple App Store en Google Play. Veel
gebruikers kunnen misschien niet zien dat ze
beveiligd zijn, maar ze zijn het wel. Dit is een
belangrijk onderdeel van de toekomstige mobiele
beveiligingsprogramma’s van ondernemingen.
Mobiele beveiliging
Er is in het verleden al veel geschreven over mobiele
beveiliging voor grote ondernemingen. Organisaties
die de afgelopen jaren BYOD hebben ondersteund,
hebben het gevoel dat ze een deel van de controle
kwijt zijn over waar hun data opgevraagd en bewaard
4
Whitepaper
Enterprise mobility - trends 2014
worden. Ze zijn overgegaan van streng
gecontroleerde systemen die verfijnd beleid toestaan
naar licht gecontroleerde devices met een minimaal
beleid. De meeste bedrijven hebben best practices
gevolgd door data-encryptie, PIN-authenticatie en
een aantal regels voor dataverplaatsing te
ondersteunen. Maar op dit moment accepteren de
meeste applicaties uit de publieke app stores geen
verfijnd beleid voor DLP en datarestricties.
Organisaties die hun eigen applicaties willen
mobiliseren, willen ook met gebruik van MAM mobiel
beleid garanderen. Mobiele beveiliging wordt grondig
besproken in onze whitepaper “Veilige
bedrijfsinformatie op Android-, Apple iOS- en
Windows-tablets en -smartphones.”
schakelen tussen twee systemen - is slecht. Dit
beveiligingsniveau is gewoonlijk nodig bij
bedrijfstakken met de hoogste beveiligingsbehoeften,
veelal vanwege regelgeving. Overheden, financiële
instanties en de gezondheidszorg zijn de belangrijkste
doelgroepen.
Mobiele datacontainers hebben voor- en
nadelen
Databeveiliging staat nog steeds bovenaan de lijst van
CIO’s wat betreft consumerisatie en BYOD. Beveiliging
is een voortdurende investering, nu zelfs nog meer
met de opkomst van de mobiele onderneming. Een
van de meest populaire mobiele beheersplatformen
voor ondernemingen, XenMobile Enterprise, omvat
een volledige suite van veilige mobiele apps die
ondernemingen kunnen helpen hun data te
behouden en beheren. Maar er heerst nog steeds veel
misverstand over de verschillende
containertechnologieën en -methoden voor het
beveiligen van mobiele data. Elke
containertechnologie heeft zijn voordelen, maar
sommige hebben er meer dan andere. Voor een
beoordeling is het belangrijk om naar deze vier
hoofdgebieden te kijken: kosten, beschikbaarheid,
beveiligingsniveau en gebruikerservaring.
Er zijn grofweg twee manieren om data op mobiele
devices in een container te plaatsen: via hardware- of
softwaretechnieken. Hardwarecontainers werken in
principe met twee systemen op één device - twee
radio’s, DSP’s, geheugens, besturingssystemen, etc.
Eén wordt gebruikt voor persoonlijke, de ander voor
zakelijke data. De twee zullen elkaar nooit
tegenkomen. Dus zelfs wanneer de persoonlijke kant
een virus heeft en niet eens meer geactiveerd kan
worden, zal de zakelijke kant nog steeds werken. Dit is
een zeer krachtige, veilige oplossing. Het probleem is
alleen dat deze oplossing niet op grote schaal
beschikbaar is: het draaien van twee systemen kost
veel geld en de gebruikerservaring - het heen en weer
citrix.nl
Populairder zijn de softwarecontainers, waarvan er
drie verschillende soorten zijn: OS-gebaseerd,
applicatie en thin-client. Sommige bedrijven
promoten het gebruik van OS-gebaseerde containers.
Er wordt veelal een soort hypervisor gebruikt om twee
afzonderlijke besturingssystemen te draaien (op
dezelfde hardwarelaag) - een voor zakelijk en een voor
persoonlijk gebruik. Eén hardwareplatform houdt de
kosten laag; het heeft een hoge mate van beveiliging
omdat het data werkelijk scheidt. Daarnaast hoeven
applicaties niet te worden herschreven of ontworpen
voor een specifieke leverancier. Maar
hardwarebeschikbaarheid is laag - niet elk Androiddevice wordt ondersteund, de container kan
gebonden zijn aan specifieke leveranciers (bijv.
Samsung Knox) en iOS wordt op deze manier niet
ondersteund. De gebruikerservaring van “twee
persoonlijkheden” is, hoewel het steeds beter wordt,
niet iets wat organisaties al geaccepteerd hebben, dus
wordt deze vaak laag beoordeeld.
Thin-clientcontainers gebruiken webbrowsers om
toegang te krijgen tot data en apps, of zijn zelf
specifieke apps, zoals Citrix Receiver™. Ze zijn zeer
veilig omdat ze ingesteld kunnen worden op het
verwijderen van data zodra de verbinding verbreekt
- data worden dus niet permanent lokaal opgeslagen.
Dit kan echter een probleem vormen voor mobiele
gebruikers die offline toegang moeten hebben tot
data en apps wanneer ze niet verbonden zijn met een
netwerk. In de toekomst kunnen er veilige datastores
gecreëerd worden waarmee sommige apps en
inhoud offline toegankelijk blijven. Maar afgezien
daarvan zijn thin-clients uitstekend - ze hebben een
hoge beschikbaarheid, zijn gemakkelijk te gebruiken,
hebben lage kosten (afhankelijk van het soort) en zijn
zeer veilig. Meer organisaties - vooral de organisaties
die campusgericht zijn, of die medewerkers hebben
die altijd verbonden moeten zijn zoals in de
gezondheidszorg, horeca, het bankwezen en
onderwijs - gebruiken thin-clientcontainers als
onderdeel van hun mobiele strategie. Het aantal zal
alleen maar groeien.
5
Whitepaper
Enterprise mobility - trends 2014
Het gebruik van containers wint in versneld tempo
terrein binnen grote ondernemingen. Het is nu zaak
om veilige en gemakkelijk te beheren applicaties te
creëren die het gemak en de rijke
gebruikerservaring bieden van een persoonlijke app,
en ondernemingen ook grip geven op de
beveiliging en het verplaatsen van data. Dit zal de
volgende kans zijn voor leveranciers op dit terrein
om de functionaliteit en gebruikerservaring van
beveiligde data te vergroten, terwijl ze
ondernemingen en gebruikers de vrijheid geven die
deze nodig hebben om hun werk te doen.
aan de belangrijkste gebieden van beleidsbeheer,
BYOD, mobiele apps en de hoogste mate van
beveiliging.
Citrix steunt de mobiele onderneming
De strategie van Citrix ligt precies op één lijn met
de opkomende behoefte van de internationale,
mobiele onderneming. In 2013 heeft Citrix de
XenMobile® Worx-apps gelanceerd - die onder
andere de beheersbare, gecontaineriseerde
e-mail-, kalender- en contactenapp WorxMail™ en
de zakelijke webbrowser Worx Web™ omvat. Het
idee is om de IT-behoeften voor hoge
beveiligingsniveaus te ondersteunen via dataencryptie, beheerd openen in, beleid voor
dataverplaatsingen (knippen/kopiëren/plakken)
en andere eisen die IT mogelijk stelt. De
organisatie vindt hierin ook ondersteuning voor
het beheren van zakelijke data op devices van
gebruikers bij een BYOD-beleid. Tegelijkertijd
krijgen gebruikers een betere ervaring dan met de
native apps. In e-mail is er bijvoorbeeld gelijk een
bestandsbijlage beschikbaar en met één klik
wordt ingebeld bij web conferences en
conference bridges. Citrix heeft de oorspronkelijke
ervaring verbeterd, wat ten goede kwam voor
zowel de eindgebruiker als IT. Citrix biedt ook
tools, in een SDK en verpakkende agent, waarmee
ondernemingen hun eigen apps kunnen
beveiligen en beheren via het Citrix
XenMobile-platform.
In 2014 heeft Citrix blijvende vooruitgang
aangekondigd op dit gebied, met nieuwe apps
zoals WorxDesktop™, WorxEdit en WorxNotes.
Citrix zal meer apps blijven lanceren om in te
vullen wat ondernemingen en gebruikers missen,
dat wat het onderzoeksbureau Forrester de ‘app
gap’ noemt. Tegelijkertijd zullen we blijven werken
citrix.nl
De ondersteuning voor ondernemingen door Citrix
draait om de mobile workspace. Het idee is om alle
gebruikers, devices en locaties te ondersteunen op het
gebied van apps, data, persoonlijk of zakelijk, desktop
of mobiel (zie afbeelding 3).
.
Afbeelding 3: De mobile workspace
Citrix brengt zijn mobiele en virtuele werelden
samen om mobility binnen de hele onderneming
mogelijk te maken, ongeacht device of datatype.
Toegang tot data over netwerken is essentieel om
samenwerking mogelijk te maken en de efficiency
te verhogen.
Business Class verblijdt gebruikers en IT
Toen ondernemingen voor het eerst met mobiele
devices gingen werken, kozen ze voor zakelijke
devices die krachtig in beheer en beveiliging waren,
maar die niet altijd voor de beste gebruikerservaring
zorgden. De consumerisatie van devices draaide dat
om door een geweldige consumentenervaring te
bieden, maar weinig op het gebied van beheer en
beveiliging. Organisaties willen deze trend weer
terugdraaien en Citrix richt zich op het bieden van
het alternatief: een mobiel device dat de krachtige
“business class”-ervaring biedt die gebruikers willen,
met de beveiliging en het beheer waar IT om vraagt.
6
Whitepaper
Enterprise mobility - trends 2014
Dit wordt gedaan door gebruikers een betere
opkomende mobiele workspace-oplossingen en
ervaring te geven binnen hun dagelijkse zakelijke
enterprise mobility.
apps dan hun native ervaring mogelijk ondersteunt.
Citrix richt zich op workflows door te begrijpen hoe
Best practices voor de mobiele onderneming
zakelijke gebruikers hun apps gebruiken, en biedt
Citrix raadt een aantal best practices aan voor
shortcuts en optimalisaties die specifiek bedoeld
ondernemingen wanneer ze mobility invoeren.
zijn voor de zakelijke gebruiker. Zakelijke gebruikers
Dit zijn onder andere:
beantwoorden meer e-mails, creëren meer inhoud,
werken meer samen dan de gemiddelde
• Kijk naar de eisen van de gebruiker, de
smartphone-gebruiker, en toch waren de meeste
organisatie en IT - dit is de eerste stap in het
apps niet afgestemd op hun behoeften. Citrix
creëren van een strategie en beleid. Organisaties
ondersteunt de schaalgrootte die zakelijke
dienen de gebruikerseisen vast te stellen (apps,
gebruikers nodig hebben in reactie op het
data, soort mobility, benodigde devices).
veelvoudig dagelijkse gebruik, dat vooral lastig is op
de weg.
• Groepeer gebruikers - creëer
gebruikerssegmenten en -groepen voor
afzonderlijk beleid en beheer op basis van de
eisen. We raden voor de meeste
ondernemingen niet meer dan tien
De meeste zakelijke gebruikers hebben meer dan
verschillende gebruikerssegmenten aan.
twee mobiele devices en IT moet
honderdduizenden devices kunnen ondersteunen. • Ontwerp beleid op IT-schaal - er dient één
algemeen beleidsdocument te zijn binnen IT
De mobiele oplossingen van Citrix zijn op schaal
dat voor gebruikers gemakkelijk te lezen en af
ontworpen voor IT om device-registratie, het
te stemmen is.
uitrollen van applicaties, provisioning en
• Ontwikkel een businesscase - creëer waarde,
rapportage te ondersteunen voor een groot
bespaar kosten - dat zijn de beste manieren
aantal gebruikers. Citrix XenMobile is geïntegreerd
®
om mobiele plannen vooruit te helpen.
met NetScaler , de marktleider op het gebied van
enterprise gateways, en is getest op
Bepaal specifieke doelen en stappen die
ondersteuning van honderdduizenden
nodig zijn om alles te bewerkstelligen. Sluit
gelijktijdige transacties. Citrix komt de belofte na
ook aan op zakelijke doelstellingen.
om zowel IT als hun klant, de eindgebruiker, te
• Creëer een Mobile Center of Excellence verblijden.
mobility zit niet op slecht één plek. Een MCOE
brengt de verschillende gebieden van IT, zoals
Mobiele behoeften in de toekomst
applicatie-ontwikkeling, netwerken,
Citrix kijkt naar de toekomst van mobility,
beveiliging, etc. op één lijn met de planning
waaronder de ondersteuning van nieuwe devices,
van mobility en het levenscyclusproces. Het is
platformen en mobiele apps. Maar Citrix ziet ook
ook een goede plek om nieuwe mobiele apps,
dat mobility meer is dan alleen dat. Het Internet of
devices en services te testen voordat ze in de
Things (IoT), draagbare en virtuele computing
werkomgeving worden geïntroduceerd.
Maar die schaalgrootte is ook belangrijk voor IT.
liggen allemaal op het door Citrix uitgestippelde
pad. Citrix zal de markt blijven leiden door mobilefirst-initiatieven te ondersteunen, platformen
binnen IT te integreren en alle technologische
behoeften van de onderneming te ondersteunen,
Citrix erkent dat elke klant anders is en zal dus
met elke klant samenwerken om ervoor te
zorgen dat hun mobiele strategie zowel
vandaag als in de toekomst een succes is.
niet alleen de mobieltjes. Daarmee onderscheidt
Citrix zich in belangrijke mate en dat maakt het tot
het toonaangevende platform voor de
citrix.nl
7
Whitepaper
Enterprise mobility - trends 2014
Hoofdkwartier
Fort Lauderdale, FL, Verenigde Staten
India Development Center
Bangalore, India
Hoofdkwartier Latijns-Amerika
Coral Gables, FL, Verenigde Staten
Hoofdkwartier Silicon Valley
Santa Clara, CA, Verenigde Staten
Hoofdkwartier Online Division
Santa Barbara, CA, Verenigde Staten
VK Development Center
Chalfont, Verenigd Koninkrijk
Hoofdkwartier EMEA
Schaffhausen, Zwitserland
Hoofdkwartier Pacifisch gebied
Hongkong, China
Over Citrix
Citrix (NASDAQ:CTXS) is marktleider in virtualisatie-, netwerk- en cloud-infrastructuur en zorgt voor nieuwe manieren waardoor mensen
beter kunnen werken. Citrix-oplossingen ondersteunen IT- en service-providers om virtuele en mobiele werkplekken te bouwen, beheren
en beveiligen, waarmee ze naadloos applicaties, desktops, data en diensten leveren via ieder device, over ieder netwerk of cloud. Dit jaar
viert Citrix 25 jaar innovatie, de vereenvoudiging van IT en grotere productiviteit door mobiele werkstijlen. Met een jaarlijkse omzet
in 2013 van 2,9 miljard dollar worden Citrix-oplossingen gebruikt in meer dan 330.000 organisaties en door meer dan 100 miljoen
mensen wereldwijd. Lees meer op www.citrix.nl.
Copyright © 2014 Citrix Systems, Inc. Alle rechten voorbehouden. Citrix, XenMobile, WorxDesktop, NetScaler, WorxMail, Worx Web en Citrix
Receiver zijn handelsmerken van Citrix Systems, Inc. en/of een van meerdere van haar dochterondernemingen. Ze kunnen geregistreerd zijn
in de Verenigde Staten en in andere landen. Andere product- en bedrijfsnamen die hierin worden genoemd, kunnen handelsmerken zijn van
hun respectieve organisaties.
0514/PDF
citrix.nl
8
#DesktopDestiny
VMware
Using DaaS to Create the Ideal Desktop User Experience
– Without a PC
Using DaaS to Create the
Ideal Desktop User Experience Without a PC
W H ITE PA P E R
Using DaaS to Create the Ideal Desktop
User Experience - Without a PC
Meeting User Expectations in the Mobile-Cloud Era
With the ubiquity of end-user computing long established, organizations now are grappling with a tough dilemma:
Users want enterprise-class performance and availability, but they demand the flexibility to use familiar devices
and applications—anywhere, and at any time. Desktops as a service (DaaS) can be a great way to give users what
they want and deliver a superior user experience, leading to greater productivity.
End-user computing has undergone a revolution in recent years, as a proliferation in choices for devices,
applications, network access methodologies and usage locations has opened up a world of possibilities. For IT
organizations, however, giving users what they want in their clients—performance, breadth of applications,
access to corporate services and data, security, fast problem solving and no-hassles onboarding—has been
like herding cats.
In particular, users want to use any of an array of client computing devices—desktops, notebooks, tablets or
smartphones—and have a positive user experience. In fact, what they really want is for their business computing
experience to be every bit as intuitive, flexible and even enjoyable as it is with their favorite consumer devices.
Virtual desktop infrastructure (VDI) has been a good step in that direction for some organizations. But a
number of enterprise IT professionals have discovered that implementing VDI entails certain challenges, such
as back-end infrastructure requirements, deployment costs and the lack of sufficient in-house technical skills.
DaaS Empowers End Users and IT
There’s an alternative, however, that delivers the benefits of VDI while also providing a great end-user experience
that offers flexibility, access to familiar devices and applications, enterprise-class performance and reliable,
secure access: desktops as a service (DaaS).
Desktop user productivity is driven by many factors, but undoubtedly one of the most important in today’s
business environment is the ability to work anywhere on any device, as though it was hard-wired to enterprise
resources, and maintain or even improve the quality and quantity of the device’s output. DaaS is unique in its
ability to give users what they want, when and where they want it. As user expectations become more specific
and pronounced, IT organizations are scrambling to come up with new ways to meet those expectations, whether
they concern device usage, location independence, access to all available corporate data and applications, or
even the ability to customize desktop usage to meet their own preferences.
WH ITE PAPE R / 2
Using DaaS to Create the Ideal Desktop
User Experience - Without a PC
End Users’ Expectations
IT organizations looking to build the business case for investing in DaaS solutions can point to an enhanced
user experience as a key proof point to justify those investments. Among the most important user expectations
of their desktop environment are:
•Device independence. Users want—no, they demand—the ability to use their familiar and trusted consumer
devices, such as tablets, smartphones or personal notebooks—rather than to be tied to corporate mandates
on brands and form factors of clients. This is particularly the case with younger, mobile-savvy professionals
who treat their devices as essential to how they work and live.
•Location independence. Forget about just working at a coffee shop during lunch. Users today expect to
work anywhere, at any time—home office, customer site, airports and other locations—when they need
access to something in the corporate data center or in the cloud.
•User self-service. This is increasingly important because no one wants to wait for an extremely busy and
overworked support desk to come to their deskside or even take their physical machine for application
access, problem remediation, security patches or other support issues.
•Uninterrupted sessions. This “rapid resume” expectation is central to DaaS from a user perspective. Users
want to be able to continue working at the same spot they left off during an office session, whether on the
train going home or perusing their smartphones while waiting to pick up their kids.
•Customizable desktop design. Users have become accustomed to “friendly” desktop designs that reflect
their personal tastes and preferences for desktop organization. They expect to have device-aware application
look and feel, rather than being forced to have their desktops conform to a desktop operating system
appearance.
Desktops as a service offers a compelling value proposition for an organization looking to invest in a new
desktop environment that is more flexible, more affordable, easier to manage and faster to deploy—all while
meeting users’ new and precise expectations. For IT organizations, DaaS also offers such benefits as improved
security (because applications and data are secured in the cloud, not on the end-user device itself), faster
onboarding of new users or temporary requirements for desktop access, and improved business continuity
because DaaS eliminates the single point of failure that compromised end-user computing based upon physical
desktops.
VMware Horizon Air Desktops and Apps as a Service
As the long-established market leader in virtualization, VMware is a logical choice for IT organizations looking to
enable cloud-based virtual desktops to meet the needs of both their IT organizations and end users.
WH ITE PAPE R / 3
Using DaaS to Create the Ideal Desktop
User Experience - Without a PC
VMware Horizon® Air™ Desktops and Apps (formerly known as VMware Horizon® DaaS®) enable organizations to
meet their users’ expectations because it is designed for flexibility, performance, reliability and security. A key
feature is the cloud-based service’s unification of desktop and application access on any device, while also
supporting the same fully customized desktop look and feel they’ve grown used to on their personal mobile
devices.
Horizon Air Desktops and Apps enhance user satisfaction and productivity by allowing users to stop work at any
time on their current devices without turning off their cloud-hosted desktops. Users can then log back into their
virtual desktop or application from another location on whatever device they prefer to use.
Deploying Horizon Air Desktops and Apps is simple enough to put minimal burden on IT staffs, allowing users to
get up and running quickly and contributing to a positive user experience. Setting up virtual desktops takes only
a few clicks, lessening the administrative burden for IT departments and making onboarding of new users a
hassle-free experience.
Each user can have their own virtual desktop, customized as they prefer by application or look and feel, in order
to re-create the familiar user experience associated with their consumer devices. Users also can run their most
demanding workloads on their DaaS-enabled device, enabling further flexibility to use those devices away from
the office at any time.
Simple
Virtual
Desktops
Adaptive
End User
Experience
Predictable
Costs
Integrated
Security
and
Control
Hybrid
Cloud
Flexibility
Conclusion
The very nature of client computing has changed in stark and important ways, driven in large part by new and
important user expectations of how, when and where they will access enterprise applications, data and services.
Users do not want to be encumbered by corporate standards on which PC to use—or whether to use a PC at
all—nor do they want IT-placed limits on their ability to use technology for business benefit.
Of course, this represents significant challenges for IT organizations that must balance users’ expectations with
the harsh realities of budgets, staff expertise, security concerns and corporate governance policies. As a result,
more and more IT organizations are turning to virtual desktops—specifically, cloud-based desktops as a service—
in order to meet users’ expectations while managing costs, complexity and functionality.
Horizon Air Desktops and Apps help IT departments in nearly all-sized organizations to simplify the delivery
of cloud-hosted virtual desktops and apps to end users at a predictable cost. The service enables IT to save time
and money, without sacrificing enterprise requirements for security and control. End users can be much more
productive, with a complete workspace they can access from any device, anywhere.
IT decision makers looking to build a strong business case for investing in DaaS solutions that create a superior
user experience and drive higher productivity should consider VMware Horizon Air Desktops and Apps. It
delivers a powerful combination of user customization, easy deployment, affordability and reliable, secure
operation that is consistent with the industry-wide movement away from expensive, rigid physical desktops in
favor of virtual desktops.
For Additional Information
For more information about Horizon Air Desktops and Apps, visit www.vmware.com/products/daas/.
WH ITE PAPE R / 4
VMware, Inc. 3401 Hillview Avenue Palo Alto CA 94304 USA Tel 877-486-9273 Fax 650-427-5001 www.vmware.com
Copyright © 2014 VMware, Inc. All rights reserved. This product is protected by U.S. and international copyright and intellectual property laws. VMware products are covered by one or more patents listed
at http://www.vmware.com/go/patents. VMware is a registered trademark or trademark of VMware, Inc. in the United States and/or other jurisdictions. All other marks and names mentioned herein may be
trademarks of their respective companies.
#DesktopDestiny
Matrix42
Mobile ITSM Is More Important than Ever!
Mobile Devices Conquer Companies:
Mobile ITSM Is More Important than Ever!
Executive Summary:
The Survey at a Glance
Small and medium-sized businesses in the DACH region are also seeing a
growth in the number of employees who use mobile devices such as tablets
and smartphones. This presents a number of problems for IT organizations
as the number and diversity of mobile devices is increasing workloads and
the level of complexity for the Service Desk. In the survey, 57 percent of IT
professionals indicated that an adequate solution for managing mobile devices
is not currently used in their organization. Only seven percent could confirm
that the ITSM tool used in their company could also support mobile devices.
The issue of licensing was clearly also a sore point: 30 percent of those polled
had to admit that their company does not have a license management solution
for mobile devices and apps.
Content
4
5
9
10
6
11
The Reality: Smartphones and
Tablets but No Adequate MDM
Solution
The Challenge: Workplace
Management with Mobile
Devices
Service Desks in Companies:
Not Properly Prepared for
Mobility
The Matrix42 Approach:
The Solution Is Simplicity
Conclusion: Using Mobile
ITSM to Counter the Rapid
Growth in Mobility
Appendix: Survey –
Implementation and
Demography
7
Reasons: Why Is Mobility
Characterized by such a High
Degree of Complexity?
8
Critical and Unresolved:
License Management in
the Mobile World
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
2
Mobile Devices Conquer Companies:
Mobile ITSM Is More
Important than Ever!
Nowadays, the use of mobile devices in companies is
generally taken for granted. However, a survey conducted
by Matrix42 of 1,500 attendees at a recent trade show
reveals that many companies are not properly prepared
for the rapid growth in mobility that is currently sweeping
across the IT departments of German companies. Not
only are the solutions that are used by companies for IT
Service Management (ITSM) mostly incapable of coping
with the complexity that’s found its way into company
networks as a result of mobile end devices and apps,
many companies are still in the very early stages when
it comes to compliance and license management for
mobile devices and solutions.
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
3
The Reality: Smartphones and Tablets
but No Adequate MDM Solution
A brief glance at the IT end devices that
are currently used by a large number of
employees in German companies for
day-to-day tasks shows that the situation
has changed dramatically during the
last five years: Mobile devices such as
smartphones and tablets have taken
both private and professional users
by storm. The survey carried out by
Matrix42 also made it clear that Apple
iOS and Android devices are largely
used in the majority of organizations.
Which Smartphone Operating Systems Are Used in your Company?
100 %
80 %
60 %
40 %
20 %
0 %
Very low use
(< 10 % of
employees)
■ Apple iOS
■ Google Android
Low use
(10 % to 29 %
of employees)
Normal use
(30 % to 69 %
of employees)
High use
(70 % to 89 %
of employees)
■ Windows Phone ■ Blackberry OS Although the modern development
towards mobile workers who can access
their work and data while ‘always on’
seems in many ways to have happened
already, the survey revealed huge
deficits when it comes to topics such as
Very high use
(90 % to 100 %
of employees)
■ Others
the management and support of mobile
devices as well as compliance and
license management. 57 percent of the
companies that were surveyed said that
they do not currently have an adequate
solution for managing these devices.
Do You Know how your Mobile Device Management (MDM) Is Currently Operated?
No Mobile Device Management is available
31 %
26 %
I don’t know
17 %
On-premise
16 %
Cloud / SaaS
Both
9 %
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
4
The Challenge: Workplace Management
with Mobile Devices
We cannot deny that traditional
workplaces with ‘permanently installed’
PCs, which used to be allocated to a
single user, are slowly but surely losing
their right to exist. These stationary
workplaces are giving way to mobile
and flexible work environments that
are presenting new challenges to IT
teams and Service Desks, in particular:
Mobility generates a multi-device work
environment that must also be managed
and supported by Service Desk staff.
What Do You Think Are the Greatest Challenges Facing Workplace
Management with Mobile Devices? (Multiple Answers Possible)
Data protection
33 %
21 %
Separation of private and
business data and apps
13 %
Access to apps and data
8 %
Legal regulations
Interfaces to business apps
7 %
License management
6 %
Lack of mobility strategy
6 %
No IT support
The respondents were also aware
of these difficulties: 30 percent of
respondents said that data protection
was the greatest challenge for the
management and support of mobile
devices and 21 percent of those polled
identified the separation of private and
business data as a decisive factor for
workplace management that in many
5 %
ways also affects safety. The answers
to the question concerning the number
of tickets in the respondents’ company
that previously involved mobile devices
are also parti­cularly interesting in this
context: 59 percent of the organizations
that were surveyed stated that this figure
was between zero (!) and a maximum of
29 percent.
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
5
Service Desks in Companies:
Not Properly Prepared for Mobility
The question that remains then is
‘Why does it seem so difficult for many
companies to manage and support
mobile devices in the way that IT
professionals have been doing for years
with PCs and mobile devices such as
notebooks and laptops?’ The answers
to the question in the survey concerning
the facilities and options available to IT
support for supporting and maintaining
mobile devices such as smartphones
and tablets show a completely different
picture.
Which Facilities and Options Are Available to your IT Support Team
for Supporting Mobile Devices?
■ Training of IT support staff
(iOS, Android) 24 %
■ Nothing 22 %
■ Guidelines for using mobile
devices 19 %
■ MDM tool 13 %
■ Social networks for
peer-to-peer support 10 %
■ ITSM tool 7 %
■ I don’t know 5 %
■ Other options 1 %
20 percent of those questioned had to
admit that their own IT support staff are
simply unable to offer users support
when it comes to problems with mobile
devices, even though 24 percent of the
companies that were surveyed stated
that their IT support staff have received
training in the iOS and Android operating
systems.
For mobile devices too, the solution to
this problem is to combine the right
IT Service Management (ITSM) with
the right tools. However, a mere seven
percent of survey respondents could
claim that their ITSM solution also
covers this increasingly important field of
IT infrastructure.
Many IT managers and administrators
currently face the situation that further
efforts are needed to cope with the
increasing day-to-day use of mobile
devices in their companies. They are
quickly realizing that the Service Desk’s
task of managing and supporting mobile
users is much more complex and
extensive than many IT professionals
perhaps initially thought. They are
powerless in the face of this dramatic
rise in com­plexity, which is the inevitable
result of their users’ new-found mobility.
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
6
Reasons: Why Is Mobility Characterized
by such a High Degree of Complexity?
Mobility is an extremely important topic
for all companies. The IT managers and
administrators involved in these issues,
however, frequently find themselves
confronted with the problem of
increasing complexity. Why is this topic
so multifaceted and why does it present
a greater degree of diversity than
was the case with the IT devices and
applications that have been supported
up to now?
To solve this problem we must first
look for the causes of this variance. A
glance at the very heterogeneous and
highly diversified landscape of mobile
devices quickly reveals the factors
that are primarily responsible for these
difficulties:
›› A very wide variety of applications
and devices: Service Desk staff and
administrators need to deal with a
huge conglomerate of different end
devices and applications. This is
exacerbated by the fact that very few
companies and users have introduced
some form of standardization for
mobile devices and applications.
Most IT employees find themselves
confronted with a mix of Android and
iOS devices as well as some Windows
Phone devices and highly diverse
hardware.
›› The transformation of the workplace:
The traditional workplace with its
permanently installed PC for one user
is increasingly giving way to a more
topical paradigm. It’s changing more
and more to a work environment.
Mobility inevitably results in a multidevice work environment that can
quickly become a challenge for the
Service Desk. For example, Service
Desk staff need to know immediately
which type of device a user is
using when they contact them with
a problem (such as ‘my app isn’t
working again!’). A modern ITSM
system must be able to meet this
requirement.
›› Merging of business and private
boundaries: End users are
increasingly using their private
smartphones and tablets in company
networks. This means that they also
contact the Service Desk if they have
a problem with these private devices.
What should IT professionals do in
this situation? The first thing they
must do is quickly and clearly identify
whether the device in question is
an end device that belongs to the
company or whether it is a private
device that belongs to the user. The
ITSM solution in use must have a
good and comprehensive inventory
aspect.
These three central points clearly
demonstrate how the growing mobility
of workers and the associated diversity
of devices and applications in company
environments are definitely increasing
the number of calls made to the Service
Desk. In general, however, this is usually
the one area of an IT department
that is understaffed and where all
requests are handled by only one or
two employees. It is not possible to give
these IT specialists more work to do as
they simply cannot cope with any more
and the option of taking on more staff
is not usually up for discussion in most
companies.
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
7
Critical and Unresolved:
License Management in the Mobile
Work Environment
It is not only the mobile devices
themselves that are presenting IT teams
and Service Desks with new tasks and
associated new problems. Along with
the mobile devices, a completely new
approach to purchasing and using
software on these devices is also
finding its way into the IT landscapes
of companies. Apps are no longer
installed on users’ PCs via carefully
regulated software distributions. Instead,
users now install the apps that they
need – or at least, think they need –
themselves (mostly from the app stores
of operating system suppliers such as
Apple or Google). This software chaos
will inevitably remind long-serving IT
professionals of the time when PCs
were first introduced in companies.
This proliferation was already a major
problem back then. To restore order to
the various networks and systems, the
necessary service and management
tools had to be developed and put into
operation.
What Do You Use to Manage the Licenses on your Mobile Devices?
Nothing
30 %
I don’t know
25 %
License management solution
15 %
Enterprise App Store
Include costs for apps in travel expenses
13 %
6 %
Apple Volume Purchase Program (VPP)
5 %
License vouchers
5 %
An important part of this problem, and
one that is unfortunately all too often
criminally neglected by users, is the
issue of licensing. Questions concerning
licensing frequently remain unanswered,
especially where apps, which are
purchased and installed directly by the
users on their devices, are concerned.
The participants in this ITSM survey
therefore also had to provide details of
the technologies and solutions that are
used in their companies to ensure that
licenses are also managed correctly on
mobile devices.
The result was sobering and shows
that greater mobility must also have an
impact on license management. Over
50 percent of those polled do not use a
license management system for mobile
devices or were unable to say if and how
this problem is solved in their company.
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
8
The Matrix42 Approach:
The Solution Is Simplicity
Matrix42 specialists are able to build on
many years of experience in the areas
of IT Service Management, Compliance
and Mobility. In recent years, they have
managed to identify the impact that the
rapid expansion of user mobility and
the use of many different end devices
has already had and still has on these
areas thanks to the many discussions
conducted with companies from various
sectors and the extensive customer
projects they have been involved in.
To summarize simply,
these new working practices
have an enormous influence
on the entire area of IT Service
Management.
Mobility is the major topic for all
companies and one that is bringing a
new level of complexity to the Service
Desk. IT managers who wish to tackle
this complexity need to seamlessly
integrate these mobility solutions into
their existing ITSM tools. Matrix42 can
help out here. Our smart solutions are
designed to manage the increasingly
complex choice of mobile devices in
companies.
IT SERVICE MANAGEMENT IN THE AGE OF THE CLOUD AND MOBILITY
SUPPORT FOR MOBILE WORKING PRACTICES
WORKSPACE 4.0
WORKSPACE 3.0
ONE
WORKSPACE
WORKSPACE 2.0
IT Service and Infrastructure Management
for personal clouds
WORKSPACE 1.0
Office/desk
PC/laptop
Multi-device
work environment
Devices/apps/date/
identities/IT services
Tied to a certain place
Device-centered
User-centered
Service-oriented
1. Revolution (IT)
2. Revolution (PC)
3. Revolution (Mobility)
4. Revolution (Cloud)
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
9
Conclusion: Using Mobile ITSM to
Counter the Rapid Growth in Mobility
The survey carried out by Matrix42 at
this year’s CeBIT exhibition has brought
the following fact to light: The rapid
growth in mobility, which has already
revolutionized the IT world of private
users, is also affecting the world of
professional users in companies. The
survey also clearly shows that only a
very few companies and IT organizations
are already using ITSM solutions and
software to manage their mobile end
devices and successfully weather this
storm: IT organizations and companies
have a problem!
The number of tickets will also inevitably
increase along with the number of
questions from users concerning how
to solve problems specifically related
to mobile devices and applications.
The survey also showed that although
the majority of IT professionals are
well aware of the problem, German
companies are not sufficiently equipped
at present to successfully support the
growing mobility trend at their Service
Desks.
Particularly when it comes to the
requirements of the survey respondents,
who clearly identify data protection and
the separation of private and business
data and applications as being the
greatest challenges facing workspace
management in the age of all-embracing
mobility, it is clear that only intelligent
ITSM solutions can help. In light of
these problems, IT managers must
invest in solutions that actively support
Service Desk staff and administrators
and directly alleviate the vast majority of
these complex problems.
The complexity that mobility
is bringing to the Service Desk
cannot be solved by introducing
an even more complex IT
Service Management system.
Simplicity is the best solution
here!
If German companies want to weather
this mobility storm successfully, then
they must invest in automated tools
for their Service Desks. This is the only
way to ensure that employees, who in
practice have neither the resources nor
the time to fully deal with all aspects
of the new technology, are properly
supported in their work.
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
10
Appendix: Survey – Implementation
and Demography
The Matrix42 survey entitled ‘Mobile
ITSM 2014’ was conducted at the
CeBIT trade show in March 2014. A
total of 1,509 people were interviewed.
74 percent of those surveyed were
recruited from small and medium-
sized companies with fewer than
1,000 employees. In the survey, the
participants answered a total of eight
multiple choice and weighted questions
on mobile ITSM.
How Many Employees Are Employed in your Company?
■ < 500 employees 64 %
■ 500–1,000 employees 10 %
■ 1,000–5,000 employees 13 %
■ 5,000–10,000 employees 3 %
■ > 10,000 employees 10 %
Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever!
11
Disclaimer
This documentation is protected by copyright. All rights are reserved by
Matrix42 AG. Any other use, in particular, distribution to third parties, storage
in a data system, dissemination, processing, performance, and presentation is
strictly prohibited. This applies to the entire document as well as to parts thereof.
Subject to change without notice.
Other company, trademark and product names, which are not expressly listed
here, are trademarks or registered trademarks of their respective owners and
are subject to trademark protection. Matrix42® is a registered trademark of
Matrix42 AG.
Matrix42 AG
Elbinger Strasse 7
60487 Frankfurt am Main
Germany
Follow us
Tel.: +49 (0) 6102 8160
Fax: +49 (0) 6102 816-100
E-mail:[email protected]
www.matrix42.com
#DesktopDestiny
Global Knowledge
vTerminology: A Guide to Key Virtualization Terminology
Expert Reference Series of White Papers
vTerminology:
A Guide to Key
Virtualization Terminology
1-800-COURSESwww.globalknowledge.com
vTerminology: A Guide to Key
Virtualization Terminology
John A. Davis, VMware Certified Instructor (VCI), VCP5-DV, VCP5-DT,
VCAP5-DCA, VCAP5-DCD, VCP-vCloud, VCAP-CID
Introduction
One of the most important steps in mastering a new technology is learning the associated terminology or
vocabulary. In the Information Technology (IT) field, this can be a very challenging step, as much of the terminology is often used inconsistently. This white paper defines the terminology associated with IT virtualization. It is
mainly vendor-agnostic, but it does provide some vendor-specific terms, product names, and feature names used
by VMware, Citrix, and Microsoft.
Commonly used core definitions are provided first and are followed by definitions related to storage and networks. Finally, definitions are provided that are specific to VMware, Citrix, and Microsoft.
Core Definitions
This section defines many of the most commonly used terms in the virtualization vocabulary. These are considered core, high-level terms. These are straight forward, commonly accepted definitions.
Virtual Machine (VM) – A set of virtual hardware devices, including virtual CPU, virtual RAM, virtual I/O devices, and other virtual hardware devices. Software that resembles and behaves like a traditional, physical server
and runs a traditional operating system (OS), such as Windows or Linux.
Many products and technologies today provide a platform on which VMs can be built and run. Although these
technologies may have many fundamental differences, they tend to share these characteristics:
• Many VMs can run on each physical host concurrently.
• VMs running on the same host are isolated from one another.
• The OS installed in the VM is unaware that it is running in a VM.
• Administrators and users in one VM cannot access the underlying host OS or the guest OS of other VMs
running on the same host.
Virtual Server – A VM running a server OS such as a Windows Server or a Red Hat Enterprise Linux Server. A
virtual server typically runs one server-based application.
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
2
Virtual Desktop – A VM that is running a desktop OS, such as Windows 7 or Red Hat Enterprise Desktop. A
virtual desktop typically has one direct, concurrent user.
VM Template – An object that represents the “golden image“ of a particular virtual server build or virtual
desktop build, typically including a well-configured OS and applications. Administrators can quickly deploy new
VMs by automatically copying the template to create the new VM.
VM Guest OS – The OS that runs in a VM.
Virtual Hardware Device (Virtual Device) – A software component that resembles and behaves like a specific hardware device. The guest OS and software applications in the VM behave as though the virtual hardware
device is actually a physical hardware device. A VM is a set of virtual hardware devices that correspond to the
set of devices found in traditional, physical servers, such as virtual CPUs, virtual RAM, virtual storage adapters,
and virtual Ethernet adapters.
Virtual Network Interface Card (vNIC) – Software that resembles and behaves like a traditional Ethernet
Adapter. It has a MAC address, and it receives and sends Ethernet packets.
Virtual SCSI Adapter – Software that resembles and behaves like a traditional SCSI adapter. It can generate
SCSI commands and attach multiple virtual disks.
Virtual CPU (vCPU) – Software that resembles and behaves like a traditional, physical CPU. Depending on the
underlying technology, vCPUs could be software-emulated or software-modified:
• Software Emulated – A process that resembles and behaves like a specific model of a physical CPU
that, in some cases, could be different than the model of underlying physical CPU in the host hardware.
• Software Modified – A process that provides a filtered, indirect connection to the underlying host
CPU. Typically, the vCPU provides subsets of the instruction and feature sets that are available on the
host CPU. The vCPU traps and modifies privileged commands but sends other commands directly to the
hardware.
Virtual Disk – Resembles and behaves like a physical disk. It may be a file, a set of files, software, or some other entity, but to a VM, it appears to be a SCSI disk. For example, in Microsoft Hyper-V, virtual disks are referred to
as VHD files with the file extension .vhd.
Virtual Ethernet Switch (vSwitch) – Software that resembles and behaves like a physical Ethernet switch.
It allows vNICS from multiple VMs to connect to virtual ports. It allows physical NICs to connect to virtual ports
and serve as uplinks to the physical network. A vSwitch maintains a MAC address table and routes traffic to
specific ports, rather than repeating traffic to all ports. It may include other features commonly found in physical
Ethernet switches, such as VLANs.
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
3
Virtual Network – A network provided by virtual switches. It may be an extension of a traditional network
that is built on physical switches and VLANs, or, it may be an isolated network formed strictly from virtual
switches.
Virtual Infrastructure – A collection of VMs, virtual networks and storage, and other virtual items that
can deploy and run business applications, as an alternative to running applications directly on physical infrastructure. It allows IT personnel to install software applications in traditional OSs, such as Windows and Linux,
without needing to know details of the underlying physical infrastructure. The OSs and applications run in VMs,
in virtual networks, and on virtual storage.
Virtual Desktop Infrastructure (VDI) – A set of virtual desktops running on virtual infrastructure. VDI often
involves detailed optimization at the physical infrastructure, virtual infrastructure, desktop OS, and application
levels to allow close to native performance. VDI management software automatically brokers and connects users
to their virtual desktops. VDI management software also automatically provisions virtual desktop pools from VM
templates.
Cloud – A complex system that provides a set of services to consumers, without requiring the consumer to
understand any of the underlying complexities of the system. Although this definition is simple, it is a highly
accepted definition of the term, even when used to describe non-IT clouds. For example, some people consider
electricity, water, and cable television services to be provided by clouds.
Clouds provide some IT-based service, often utilizing virtual infrastructure. Businesses can use privately owned
clouds, externally owned clouds, or both external and private clouds (hybrid clouds). Types of IT-based clouds
include:
• Infrastructure as a Service (IaaS) – IaaS provides virtual infrastructure as a service where consumers can easily implement and utilize VMs without needing to understand, manage, or own the underlying physical infrastructure. Examples of public IaaS providers are Hosting.com (http://hosting.com) and
RackSpace (http://rackspace.com)
• Software as a Service (SaaS) – Provides software applications as a service where consumers can
easily use applications without needing to understand, manage, or own the underlying server operating
systems, software applications, databases, or infrastructure. Examples of public SaaS are Google Apps
(http://www.google.com/apps) and Salesforce CRM (http://www.salesforce.com/crm/).
• Platform as a Service (PaaS) – Provides a software development platform as a service where consumers can easily build applications on a provided platform without any need to understand, manage,
or own the underlying infrastructure. It allows developers to easily create applications that are easily
portable. Examples of public PaaS are Microsoft Azure (http://www.windowsazure.com/en-us/) and
Force.com (http://force.com).
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
4
Hypervisor – A thin OS designed solely to provide virtualization. It drives physical hardware, executes VMs,
and dynamically shares the underlying hardware with the associated virtual hardware. It is not intended to serve
directly as a general-purpose OS, but instead provides the platform on which VMs can run.
Paravirtualized – A software component that is aware that it is running in a VM. For example, a paravirtualized virtual device driver runs in a VM that communicates with the underlying host OS. Typically, a paravirtualized driver is optimized to share queues, buffers, or other data items with the underlying host OS to improve
throughput and reduce latency.
For another example, Citrix XenServer runs paravirtualized OSs in VMs where the guest OS is modified to work
very efficiently with the underlying hypervisor.
P2V (Physical to Virtual) – The migration of a traditional server, such as a specific Windows 2008 sever, from
physical server hardware to a VM.
Clone – Typically refers to the action of copying one VM or VM template to create a new VM. During a clone
operation, the VM files are typically copied, renamed, and modified to customize the new VM.
VM Snapshot – A point-in-time capture of the state of a VM. Snapshots allow the user to revert the VM to a
previously captured state. A primary use is to undo changes that were made in a VM but are no longer wanted.
VM Migration – The movement of VMs from one resource to another, such as from host to host or datastore
to datastore.
Live VM Migration – Occurs while the VM is running.
Cold VM Migration – Occurs while the VM is shut down.
Resource Contention – A state where a VM is competing for a scarce resource with other VMs or overhead
processes. For example, if the memory capacity of a host is currently fully utilized, and some VMs attempt to
demand more memory, then memory contention occurs and some VMs may begin to swap to disk.
Highly Available (HA) – A system or component that has some automatic protection in case of disruption.
The protection may allow a small amount of unplanned downtime, but it will automatically correct the issue
within a pre-determined time interval.
VM High Availability (VM HA) – Ensures that a VM is automatically made available, although the host on
which it runs fails. VM HA may require an automatic reboot of the VM on another host.
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
5
Fault-Tolerant – A system or component that has automatic, state-full protection in case of failure. For example, some software applications are designed to replicate state to multiple servers and databases to provide
a fault-tolerant application. The failure of a server does not result in any loss of state of the application or any
disruption to the end user.
Fault-Tolerant VM – A VM that continues to run state-fully even if host hardware fails. This may be achieved
by synchronizing the execution and state of multiple VMs running on multiple hosts.
Provisioned Over-Commitment – A measurement, usually in percentages, by which the amount of provisioned virtual hardware is greater than the actual physical resources. For example, if a set of thin provisioned
virtual disks is configured for a total of 3 TB, but the datastore where they reside is only 2 TB, then the overcommitment is 150 percent.
Over-Committed – A state where the actual, attempted resource usage exceeds the capacity of the actual
hardware resources. For example, if a set of VMs stored in the same datastore generate more I/O than the underlying LUN can accommodate, then the datastore is over-committed.
Local VMs – VMs executed directly on a client system, such as the user’s PC. Some virtualization products, such
as VMware Workstation and Microsoft Virtual PC, are designed solely for running local VMs. Some VDI products
allow virtual desktops to run remotely in the datacenter, but also allow the user to check out a virtual desktop,
execute the virtual desktop locally on a client system, and check in the virtual desktop upon completion.
Thin Client – A client device that has a very lean implementation of Windows or Linux and is mainly intended
to allow the user to connect to a remote virtual desktop rather than to run applications natively.
Zero Client – A client device that is even leaner than a thin client. Typically, a zero client runs an embedded,
proprietary OS and has no local disk. It is used to connect to remote virtual desktops.
Virtual Machine Manager (VMM, also called a virtual machine monitor) – A process that controls the
execution of a VM and brokers its use of virtual hardware with the underlying host. It notifies the host when the
VM needs to access the physical resources.
CPU Hardware-Assisted Virtualization – Features that are commonly provided on modern CPUs, allowing
the host to offload some of the virtualization work to the CPU to improve performance.
• Intel-VT and AMD-V – Features that provide hardware assist for the virtual CPUs by allowing the
VMM to execute on the CPU at a level just below Ring 0, making its execution more efficient.
• Intel EPT and AMD-RVI – Features that provide hardware assist for the virtual CPUs by allowing
the translation of guest OS virtual memory pages to be cached on the CPU. These features improve the
translation time and minimize the frequency in which the VM’s guest OS must perform translations.
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
6
Virtualized Application – A packaged software application that runs in a virtualized, runtime environment,
where the application perceives that it is natively installed. For example, a virtualized Windows-based application accesses a virtual Windows registry and virtual file system that are created at runtime by the runtime
environment by overlaying modifications in the package on the native registry and file system.
Virtual Appliance – A pre-built VM containing pre-installed software that can be easily implemented. Typically, the appliance is downloaded from a website as an OVF file, deployed into the virtual infrastructure, and
easily configured using the console of the VM and a web browser. Most virtual appliances allow very simple
implementation, relieving the customer of a complex installation and configuration.
Open VM Format (OVF) – A specification that can be used to export and import VMs from one virtual environment to another. Typically, virtual appliances are stored in the OVF format.
Storage-Specific Definitions
This section provides the definitions of storage-related terms.
Raw LUN – An iSCSI or Fiber LUN that is connected entirely to a single VM, allowing the guest OS to access the
entire LUN. A Raw LUN is one in which the host did not format the LUN with its own file system. For example, in
vSphere, LUNs that are not formatted with VMFS are considered to be Raw LUNs when attached directly to VMs.
Thick-Provisioned Virtual Disk – A virtual disk file in which disk space is pre-allocated.
Thin-Provisioned Virtual Disk – A virtual disk file in which disk space is not pre-allocated, but instead
increases on demand up to a pre-configured maximum. This is called dynamically expanding disks in Hyper V.
Linked Clones – A set of virtual disks that service a set of related VMs, such that each virtual disk shares the
same base disk file, but utilizes its own delta file. Runtime changes for each virtual disk are made only to the
delta file associated with the virtual disk, not to the shared base disk file. VMware vCloud uses the term fast
provisioning for the same purpose, and Citrix XenServer uses the term fast clone.
Datastore or Storage Repository – Datastores, also called storage repositories, are file system partitions
or shares that are accessible by the host server and commonly used for storing VMs. They are typically shared by
multiple hosts and VMs for storing virtual disks, but can also hold other files, such as ISO files and templates.
Network-Specific Definitions
This section provides the definitions of network-related terms.
Virtual Switch Port – A port on a virtual switch where virtual Ethernet adapters or physical uplinks may be
attached. During their creation, virtual switches are typically configured with a specific number of virtual ports.
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
7
Virtual Switch Port Group – A group of ports on a virtual switch that are configured as a single entity,
where each setting on the port group is automatically applied to each port in the group. Some vSwitch implementations require that VMs must be connected to port groups. Common port group settings include VLAN and
security settings.
Virtual Local Area Network (VLAN) – A logical network that can be configured within a physical network.
The IEEE 802.1q network standard provides the full definition of VLANs. Many physical Ethernet switches and
most virtual switches support VLANs. VLANs typically are assigned a unique IP subnet and are assigned a VLAN
number between 0 and 4095.
Private Virtual Local Area Network (PVLAN) – Frequently, conceptually identified as a VLAN within a
VLAN, where a standard VLAN can be extended or subdivided into thousands of PVLANs. PVLANs allow network
administrators to easily create protected, sub-networks that share the same IP subnet.
VMware-Specific Definitions
The following are terms, feature names, or product names that unique to VMware. For more details, visit VMware’s website:
http://www.vmware.com/products/datacenter-virtualization/vsphere/overview.html
VMware vSphere – A suite of products that provide reliable virtual infrastructure suitable for business-critical
applications.
VMware VMotion – A feature of VMware vSphere that provides live VM migrations from host to host.
VMware Storage VMotion – A feature of VMware vSphere that provides live VM migrations from datastore
to datastore.
VMware vSphere Distributed Resource Scheduler (DRS) – A feature in vSphere that provides automated resource control. Its main function is to provide automatic load-balancing based on CPU and RAM usage
in a cluster of ESXi hosts by utilizing VMotion.
VMware vSphere Storage DRS – A feature in VMware vSphere that provides automated storage resource
control. Its main function is to provide automatic balancing of disk space utilization within a cluster of datastores by utilizing Storage VMotion. It can also be used to automatically balance the I/Os in a cluster of datastores.
vSphere High Availability (HA) – A feature of vSphere that provides automatic VM high availability against
potential ESXi host failures. Whenever an ESXi host in a cluster fails, vSphere HA restarts the failed VMs on
surviving ESXi hosts in the cluster.
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
8
VMware Tools – A software application that should be installed in VMware-based VMs. It provides the latest
virtual device drivers. It also runs paravirtualized services that communicate to the ESXi host to allow features
such as time synchronization and heart beats.
VMware VMFS (Virtual Machine Files System) – A file system designed to efficiently allow shared access
from multiple ESXi servers, while supporting very large files. A VMFS datastore is a disk partition formatted
with VMFS or a set of VMFS-formatted partitions (VMFS Extents) that are spanned to form a single VMFS. VMFS
datastores are typically used to store VMs that run on VMware ESXi.
Citrix-Specific Definitions
The following are terms, feature names, or product names that unique to Citrix. For more details, visit Citrix’s
website: http://www.citrix.com/products/xenserver/overview.html
Citrix XenServer – A product that provides reliable virtual infrastructure suitable for business-critical
applications.
Citrix XenDesktop – A suite of applications that provides virtual desktops.
Citrix XenApp – Allows multiple users to share a single desktop remotely.
Citrix XenMotion – A feature of Citrix XenServer that provides live VM migrations from host to host.
Citrix XenServer Storage Motion – A feature of Citrix XenServer that provides live VM migrations from
datastore to datastore.
Citrix XenServer Tools – A software application that should be installed in XenServer-based VMs. It provides
the latest virtual devices drivers.
Microsoft-Specific Definitions
The following are terms, feature names, or product names that unique to Microsoft. For more details, visit Microsoft’s website:
http://www.microsoft.com/en-us/server-cloud/windows-server/server-virtualization.aspx?EP=200072479
Microsoft Hyper – A hypervisor in a Windows server that can run multiple Windows-based VMs.
Quick Migration – A feature of Microsoft Hyper-V that provides planned and unplanned migrations of VMs
from host to host, requiring about 60 seconds of downtime. The VM is suspended during the migration.
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
9
Live Migration – A feature of Microsoft Hyper-V that provides live VM migrations from host to host, requiring
no downtime.
Quick Storage Migration – A feature of Microsoft Hyper-V that provides migrations of VMs from datastore
to datastore, requiring about 60 seconds of downtime. The VM is suspended during the migration.
Storage Live Migration – A feature of Microsoft Hyper-V that provides live VM migrations from datastore to
datastore, requiring no downtime..
Summary
IT professionals should strive to learn the proper meanings of terms used in the IT virtualization vocabulary and
ensure that they and their colleagues share the same definitions.
Learn More
To learn more about how you can improve productivity, enhance efficiency, and sharpen your competitive edge,
Global Knowledge suggests the following courses:
Citrix
Microsoft
VMware
Virtualization
Visit www.globalknowledge.com or call 1-800-COURSES (1-800-268-7737) to speak with a Global
Knowledge training advisor.
About the Author
John A. Davis has been a VMware Certified Instructor (VCI) and VMware Certified Professional (VCP) since 2004,
when only a dozen or so VCIs existed in the U.S. He has traveled to many cities in the U.S.., Canada, Singapore,
Japan, Australia, and New Zealand to teach. He splits his time between teaching and delivering professional
consulting services that are 100 percent focused on VMware technology.
Copyright ©2013 Global Knowledge Training LLC. All rights reserved.
10
#DesktopDestiny
Telindus
Software defined: the game changer
White
paper
Software
defined:
the game
changer
White
paper
Inhoud
1Inleiding
3
2
Van virtualisatie via hyper-converged naar software defined
4
3
Software defined
6
4
Software defined infrastructuur
8
5Marktontwikkelingen
13
6
14
De uitdagingen voor de IT-afdeling
7Conclusie
15
8
16
Over Telindus
1
Inleiding
White
paper
Het datacenter wordt steeds belangrijker. Trends en ontwikkelingen als BYOD,
draadloos internet, desktopvirtualisatie en 4G zorgen voor de nodige druk op
het datacenter. De afgelopen jaren is er veel veranderd als we kijken naar de
complexiteit van de IT-infrastructuur. De grote driver achter deze veranderingen is virtualisatie. Voorheen kon je spreken van losse eilandjes; storage, netwerk en compute waren afzonderlijke componenten die wel invloed op elkaar
hadden, maar er was geen sprake van integratie. Virtualisatie heeft dit veranderd.
De impuls die virtualisatie de IT-business hiermee heeft gegeven, heeft de IT
volledig getransformeerd. Componenten zijn niet meer los van elkaar te zien.
Enerzijds heeft virtualisatie hierdoor alles eenvoudiger gemaakt, maar tegelijkertijd zorgt het er ook voor dat je als IT-manager van álle componenten de
juiste specialistische kennis moet hebben. Iets wat in de praktijk nog lastig te
realiseren blijkt. Deze complexiteit in combinatie met de aanhoudende behoefte aan kostenbesparingen heeft geleid tot een nieuwe game changer: software
defined. Kort gezegd wordt hiermee de intelligentie volledig losgemaakt van
de hardware, waardoor de complexiteit uit de infrastructuur gehaald wordt.
In deze whitepaper gaan we uitgebreid in op de diverse facetten van software
defined infrastructuren. Want deze ontwikkeling heeft niet alleen invloed op
het datacenter, maar op de hele infrastructuur: van datacenter tot access en
connectivity. Des te meer reden om te weten wat het inhoudt en wat het kan
betekenen voor uw IT-organisatie. Om de implicaties goed te begrijpen, gaan
we eerst een klein stapje terug. Waar komen we vandaan en waar gaan we naar
toe?
3
2
Van virtualisatie via hyper-converged naar software defined
Voordat we de definitie van software defined induiken, is het
goed om te weten wat er aan deze ontwikkeling vooraf is gegaan.
Welke technologieën staan aan de basis van software defined en
waar worden deze technologieën door gedreven?
Virtualisatie als basis
Het is alweer zo’n zeven jaar geleden dat VMware de IT-business
een nieuwe impuls gaf met een ware transformatie van IT tot
gevolg. Toen al draaide het allemaal om meer doen met minder.
Virtualisatie heeft de mogelijkheden van IT vergroot, maar in tegenstelling tot in het begin draait het nu allang niet meer alleen
om consolidatie. ‘Bijkomende’ voordelen als beschikbaarheid,
flexibiliteit en snelheid zijn essentieel geworden. Zeker nu de
IT-manager steeds sneller tegemoet moet komen aan de wensen
van de business.
Best-of-breed infrastructuur
De best-of-breed infrastructuur is zoals we die al jaren kennen;
de system integrator adviseert welke oplossing het beste aansluit
bij de wensen van de klant, maatwerk dus. Voor de IT-manager
betekent een best-of-breed infrastructuur dat er voor het onderhoud en beheer van de omgeving veel kennis nodig is van alle
aspecten van het datacenter. Daarom zijn er specialisten nodig
op de IT-afdeling of worden gedeeltes uitbesteed.
Het feit dat er individuele componenten geselecteerd worden,
heeft tot gevolg dat er losse investeringen gedaan worden.
Netwerk, storage en servers, alles heeft een eigen life cycle. In
de praktijk betekent dit dat er ieder jaar budget apart wordt
gehouden voor investeringen in specifieke vervangingen of
uitbreidingen. In plaats van één moment van investeren, wordt
dit verspreid over enkele jaren.
Innovatie
In de praktijk blijkt dat CIO’s nog altijd teveel projecten laten
lopen vanwege het budget. Immers, één van de taken van de
CIO is om te bezuinigen zonder dat dit ten koste gaat van het
resultaat. Hierdoor wordt de behoefte aan nieuwe businessmodellen steeds groter. Want een hoger budget, betekent niet
automatisch dat er ook meer ruimte voor innovatie is. Sterker
nog, in verhouding tot de kosten voor het dagelijks beheer
verandert er waarschijnlijk weinig.
White
paper
Maar liefst 73 procent (Forrester Research, Inc., IT Budget
Allocations) van het budget van de CIO gaat naar dagelijkse
zaken, zoals beheer, stroom, licentiekosten, resources, et cetera.
Kortom, OPEX, ‘keeping the lights on’. Een snelle rekensom
leert dat er dan 27 procent overblijft voor innovatie. Maar zo
simpel is het helaas niet. Van oudsher worden netwerk, storage,
servers en virtualisatie beschouwd als losse projectgebieden.
Om ieder projectgebied up-to-date te houden, worden er losse
investeringen gedaan, waar door de jaren heen geld voor apart
gezet wordt. In de praktijk betekent dit dat er om de 7 à 8 jaar
investeringen worden gedaan om de infrastructuur actueel te
houden. Buiten de 73 procent voor dagelijks beheer, verdwijnt
er ook ieder jaar 23 procent van het budget in de spaarpot voor
toekomstige investeringen aan de infrastructuur. De CIO met
bijna lege handen achterlatend: vier procent voor innovaties is
immers niet veel. Hoewel de budgetten gegroeid zijn en de CIO
innovatie ook hoog op zijn prioriteitenlijst heeft gezet, is er in
feite weinig ruimte voor vooruitgang, terwijl de afhankelijkheid
van IT voor de business steeds groter wordt. Juist hier spelen de
nieuwste technologieën sterk op in.
Converged infrastructures
Hoewel de ontwikkeling al eerder was ingezet, werden converged infrastructures in 2012 echt een hot topic. Er vonden veel
ontwikkelingen plaats en de aandacht voor deze oplossingen
nam toe. Het belangrijkste kenmerk is dat de onderlinge componenten zo ver geïntegreerd zijn, dat ze bijna niet uit elkaar te
halen zijn. Denk aan storage, servers, netwerk en virtualisatie.
Converged architecture oplossingen zijn gebaseerd op best
practices en bewezen technologie. Er zijn twee varianten in de
markt; referentie-architecturen en pre-build infrastructures.
Referentie-architecturen zijn architecturen waarbij de componenten en architectuur al vastliggen, maar de oplossing nog wel
gebouwd moet worden. De IT-manager schaft dus in één keer
een complete oplossing aan, maar de oplossing biedt nog wel
ruimte om zelf wijzigingen aan te brengen.
Een pre-build infrastructure is de tweede variant. Ook dit is een
complete oplossing waarin de verschillende componenten zijn
geïntegreerd, maar in tegenstelling tot de referentie-architectuur
is de building block al gebouwd en wordt dus kant en klaar
geleverd. Hierdoor is er voor de IT-manager minimaal ruimte
voor wijzigingen in de architectuur.
4
White
paper
Van virtualisatie via hyper-converged naar software defined
Converged architecture oplossingen zijn gebaseerd op best
practices en bewezen technologie. Dit heeft een aantal
belangrijke voordelen:
- Snelle time to market
- Hoge beschikbaarheid
-Schaalbaar
- Minder management consoles
- Garantie door workload-certificatie
- Tijd en budget over om aan innovatie en
functionaliteit te besteden
- Betere ondersteuning business-doelstellingen
In de praktijk kan ICT niet altijd maximaal faciliteren in de groei
van de business, vaak doordat het moeilijk is om te anticiperen
op business-veranderingen. Referentiearchitecturen op basis
van best practices voorkomen veel tijdverlies, budgetoverschrijding en verhogen de kwaliteit. Daarnaast biedt de volledige
integratie van de diverse projectgebieden mogelijkheden om
ruimte in het IT-budget over te houden voor innovatie. In plaats
van ieder jaar een investering in storage en/of netwerk, et cetera,
zet je met een converged architecture oplossing één schaalbare
totaaloplossing neer.
Hyper-converged infrastructures
De naam zegt het al, hyper-converged infrastructures gaan nog
een stapje verder dan converged infrastructures. Daar waar
converged infrastructures een vooraf geconfigureerde samenstelling zijn van verschillende op zichzelf staande componenten,
storage, servers en netwerk, is een hyper-converged infrastructuur één enkel component waarin compute en (lokale) storage
gecombineerd is. Verschillende van deze gelijke componenten
kunnen eenvoudig aan elkaar gekoppeld worden om direct de
performance en opslag te vergroten (scale-out architectuur).
Hyper-converged infrastructures zijn volledig geïntegreerde
oplossingen die gebouwd worden op basis van industriestandaard componenten. Het unieke aan deze infrastructuren
is de bovenliggende software. De hardware is vergelijkbaar
met een traditionele server met lokale storage en de software
verbindt meerdere van de componenten als één logisch geheel.
Bij inzet van deze oplossing is een traditioneel SAN dan ook niet
langer een vereiste als basis voor virtualisatie. Hiermee breken
hyper-converged infrastructuren met de klassieke architecturen
die allen gebruikmaken van centrale storage als basis voor
virtualisatie.
De storage in deze oplossingen is software-gebaseerd, waardoor
de storagecapaciteit lineair mee kan groeien met de servers.
Waar in traditionele infrastructuren storage nog vaak de bottleneck is, verandert dat met hyper-converged infrastructures. De
oplossing is opgebouwd uit clusters die bestaan uit building
blocks van servers, waarop een zeer hoog aantal virtuele items
per building block kan draaien. Dankzij de softwarelaag wordt
alle interne storage gezien als één diskpool, waardoor capaciteit
en performance lineair schalen. Daarnaast bevinden storage
en rekenkracht zich nu in één appliance, wat een uitdaging
betekent voor de traditionele serverleveranciers. Minder componenten, betekent ook minder aansluitingen. Minder aansluitingen waar meer gebruik van gemaakt wordt door onder andere
de mogelijkheid om lineair te kunnen schalen. Deze verandering van de IT-infrastructuur vereist ook een andere blik op de
netwerkinfrastructuur. Ook de netwerkleveranciers staan dus
voor een uitdaging om hier op in te kunnen spelen.
Waar het beheer van converged infrastructures al sterk vereenvoudigd is ten opzichte van de klassieke infrastructuren, geldt
voor hyper-converged infrastructures dat er maar één managementinterface is, waardoor het beheer veel makkelijker wordt.
De overall trend is dat software steeds geavanceerder wordt.
Voorheen werd alle logica ingebouwd in hardware, waardoor
ontwikkeltijden lang waren. Doordat CPU’s nu extreem krachtig zijn, kunnen de systemen het ook aan als de intelligentie in
software gebouwd wordt. Deze ontkoppeling van de software
(de intelligentie) van de hardware is de basis van een software
defined infrastructuur. Door de software minder afhankelijk
van de hardware te maken, wordt er meer flexibiliteit gebracht
in de volledige IT-infrastructuur en dit zorgt ervoor dat IT en
de business nog dichter bij elkaar gebracht worden. Dankzij de
snelle time-to-market, schaalbaarheid en vereenvoudigd beheer,
kunnen business-doelstellingen beter ondersteund worden.
Hyper-converged infrastructures zijn een eerste stap richting
software defined infrastructures.
Virtualisatie heeft de
mogelijkheden van IT
vergroot, beschikbaarheid,
flexibiliteit en snelheid
zijn essentieel geworden
5
3
Software defined
White
paper
De achterliggende gedachte van converged is het samenbrengen van verschillende componenten tot één om zodoende
het beheer te vereenvoudigen. Een converged infrastructuur
bestaat uit drie componenten, compute, storage en networking.
Deze samengestelde bouwblokken worden ingebracht in een
bestaande omgeving. Een omgeving die veelal uit meer diensten
bestaat, zoals bijvoorbeeld beveiligingsapparatuur (firewalls).
Componenten met elk hun eigen configuratie en daarbij horende beheer.
met een externe managementlaag meerdere apparaten aan te
sturen, wil niet zeggen dat in de hardware geen software-intelligentie meer aanwezig is. In de meeste gevallen is er namelijk
nog steeds specifieke intelligentie aanwezig in de hardware. De
hardware voert een taak uit die niet door de losgetrokken software kan worden overgenomen. Wel kan dit een eerste stap naar
een volledige software defined oplossing betekenen.
Een software defined oplossing heeft de volgende drie kenmerken:
Daar waar binnen converged infrastructuren beheer steeds
meer gecentraliseerd kan worden, blijft de omliggende omgeving achter. Flexibiliteit in bijvoorbeeld het meebewegen met
configuratieveranderingen van de omgevingen zijn daarom
lastig en tijdrovend.
1. Abstraction
Scheidt de intelligentie van de hardware. Traditioneel worden
de afhandelingen volledig door de hardware uitgevoerd. De
logica is volledig gekoppeld aan de hardware. Door het loskoppelen van de software kunnen we veel flexibeler omgaan
met de resources. Dit is te vergelijken met drones: vliegtuigen
die onbemand zijn en op afstand worden bestuurd. Normaal
gesproken zit een piloot (software) in het vliegtuig (hardware).
De piloot besluit hoe het vliegtuig in te zetten, maar is beperkt
tot dit enkele vliegtuig (services kunnen niet zomaar overgezet
worden op een ander vliegtuig indien dat gewenst is). Een drone
wordt op afstand bestuurd. De software (piloot) zou zelfs een
andere drone kunnen bedienen indien dit benodigd is. De piloot
is inzetbaar op ieder gewenst moment.
Door de configuratie minder afhankelijk te maken van de
hardware-onderlaag kunnen we eenvoudiger de configuratie
verplaatsen binnen het gehele datacenter. Iets wat virtualisatie voor serversystemen reeds heeft bewerkstelligd, wordt nu
doorgetrokken naar overige diensten binnen de infrastructuur.
Hardware wordt een hulpmiddel om taken uit te voeren op
het moment dat services erop landen. Het gaat niet meer om
de hardware, maar om de configuratie, de software: software
defined.
Software defined draait volledig om het scheiden van de intelligentie van de hardware door middel van orchestratie. Is dit
helemaal nieuw? Nee. Denk maar aan telefoons en SAN’s. Apparatuur is al op afstand te programmeren door er een script tegenaan te houden. Software defined gaat echter een stap verder.
We spreken dan over gestandaardiseerde onafhankelijke scripts.
Maar wat is precies de definitie van software defined? Hierover
verschillen de meningen nogal.
In de markt zijn eigenlijk drie verschillende reacties te horen op
software defined:
1. Deden we altijd al (bijvoorbeeld mainframes of op het gebied
van storage)
2. Afzonderlijke managementlaag over de hardware
3. Het lostrekken van de software van de hardware
De derde reactie is de enige juiste. Bij software defined infrastructuren doet de hardware er niet meer toe, het draait volledig
om de software. Dit is bij eerdere ontwikkelingen niet het geval.
Om die reden is ook het lostrekken van de managementlaag
van de hardware geen software defined. Dat het mogelijk is om
2. Poolen
Door het loskoppelen van de intelligentie van de hardware
kunnen resources gecombineerd worden in een policy: poolen.
Hierdoor kunnen verschillende resources tegelijkertijd worden geconfigureerd. Configuraties zoals dat op dat moment
wenselijk en benodigd is zoals in de policy aangegeven. De
componenten hoeven niet meer op voorhand ingesteld te zijn
met de benodigde configuratie. Op dit moment worden policy’s
nog veelal handmatig en per activiteit ingevoerd. Met software
defined worden verschillende op zich staande opdrachten
gekoppeld, waardoor je er met één policy voor kunt zorgen dat
er bijvoorbeeld tien opdrachten worden uitgevoerd. Als op voorhand duidelijk is dat een bepaalde dienst een zekere workload
en/of service nodig heeft, kunnen verschillende op zich staande
opdrachten voor bijvoorbeeld een VLAN, de lijnen, de toegang
tot de storage, de beveiliging, et cetera gekoppeld worden en
door één policy worden aangestuurd. Zoals uitgelegd in de
drone-metafoor: meerdere drones kunnen vanuit een centraal
systeem worden gestuurd om zo een gezamenlijke opdracht uit
te voeren.
6
White
paper
Software defined
3. Automate
Het uiteindelijke doel van een software defined omgeving: het
automatiseren. Door na te denken over wat je als IT-afdeling wilt
bieden, is het mogelijk om te standaardiseren. Dit kan door het
toekennen van een naam aan een policy, bijvoorbeeld platinum.
Het maken van backups of het instellen van firewalls, allemaal
zaken die op voorhand kunnen worden ingeregeld op basis van
onder meer een gebruikersprofiel of afdelingskenmerken. In de
toekomst kan het zelfs zo zijn dat de gebruikers zelf kiezen hoe
vaak ze een backup willen laten maken en dus zelf de policy
kiezen.
Klaslokaal
Om software defined goed uit te leggen, biedt een vergelijking
met de werkwijze in een klaslokaal uitkomst. In een traditionele situatie geeft de leraar les, hij vertelt en de kinderen leren.
Hij leert zijn studenten dat het ‘ik vind’ is en ‘hij vindt’, maar
uiteindelijk bepalen de leerlingen hoe ze het opschrijven en dus
of er fouten in zitten. De intelligentie zit dus bij de leerlingen.
Waar we met software defined heengaan, is dat de intelligentie
verdwijnt uit de losse componenten (de leerlingen). Leerlingen hoeven niet te weten hoe een woord geschreven wordt.
De leraar dicteert en zij schrijven het gewoon over. Met andere
woorden, de hardware hoeft niet te weten hoe een opdracht tot
stand komt, maar voert de opdracht ingegeven door de externe
software gewoon uit.
Complexiteit
Om nu te stellen dat software defined volledig nieuw is? Nee,
echter het concept breed doorvoeren wel. Niet enkele componenten binnen de IT-infrastructuur, maar alle componenten
in de IT-infrastructuur beantwoorden aan software defined.
De behoefte aan het wegnemen van complexiteit uit de ITinfrastructuur is groot. Op dit moment is het al mogelijk om
hardware onafhankelijk van de software te laten draaien, maar
policy’s moeten veelal nog handmatig geprogrammeerd worden. Dit brengt risico’s met zich mee. Want hoewel IT-afdelingen
minder hoeven te programmeren, mag er met datgene wat nog
wél geprogrammeerd moet worden niets mis gaan. Alles is immers met elkaar verbonden. Software defined is het dicteren van
opdrachten. De IT’er dicteert en de software schrijft het over.
Fouten die gemaakt worden, zijn dus van menselijke aard. De
uitdaging hierbij is dat software zo ver wordt doorontwikkeld dat
het wel zelf kan denken en er minder input nodig is van mensen.
Met software defined wordt de beheerslast aanzienlijk verminderd, maar het systeem moet natuurlijk nog altijd gebouwd en
in de gaten gehouden worden. Hier zijn dan ook nog steeds
experts voor nodig.
In hoofdstuk 6 gaan we verder in op de uitdagingen van software defined voor het IT-management, maar eerst gaan we dieper in op de rol van software defined binnen de infrastructuur.
Software bepaalt
De desktopwereld is een mooi voorbeeld van waar de hardwarewereld heen gaat. De gebruikers bepalen welke desktop zij willen gebruiken en kunnen er vanuit gaan dat de meest gangbare
software op iedere laptop draait. Of ik nu een latop van merk
x of y heb, door de uniformiteit in aansturing zal de gebruikte
software op beide laptops gebruikt kunnen worden. Deze onafhankelijkheid is in de hardwarewereld nog niet aan de orde: het
behouden van dezelfde features, ongeacht welke hardware je
gebruikt. Met software defined bepaalt de software de functionaliteit en de geschiktheid, alle hardware kan hetzelfde.
Bij software defined
infrastructuren is de
hardware volledig
ondergeschikt aan
de software
7
White
paper
4
Software defined infrastructuur
De IT-infrastructuur bestaat uit drie lagen die in het licht van
het moderne datacenter niet meer los van elkaar te zien zijn; de
datacenter-laag, connectivity-laag en de access-laag. Met het
oog op deze onderlinge integratie is het belangrijk om het niet
over losse ontwikkelingen als software defined storage (SDS)
of software defined networking (SDN) te hebben, maar om te
focussen op de keten. Uiteraard zijn SDS en SDN daar wel onderdeel van. Beide ontwikkelingen bevinden zich echter nog in
twee compleet verschillende fases.
Software defined storage
Er is nog veel verwarring over de term software defined zoals
we dat ook gezien hebben met cloud en de diverse As a Service
variaties. In 2013 heeft International Data Corporation (IDC)
daarom getracht duidelijkheid te scheppen door een definitie
van software defined storage te geven:
“De aanpak van IDC definieert software-gebaseerde storage als
een storagestack die geïnstalleerd kan worden op commodity
resources (x86 hardware, hypervisors of cloud) en/of op kanten-klare computing hardware. Om in aanmerking te komen voor
SDS, moet de software-gebaseerde storage stack een volledig
pallet aan storagediensten bieden en een verbond smeden
tussen de onderliggende dataplaatsing om voor datamobiliteit
tussen de gebruikers van deze vorm van resources te zorgen.”
Software defined networking
Software defined networking zet misschien pas in 2015 echt
door. SDN draait om het scheiden van de managementlaag van
de datakant van het netwerk, de intelligentie van de hardware.
Op dit moment zijn die nog volledig verweven met elkaar. Wat al
eerder gerealiseerd is voor servers, staat nu ook te gebeuren voor
het netwerk. Het is nog niet mogelijk om de netwerkconfiguratie
op te pakken en over te zetten naar een ander datacenter, terwijl
de markt hier wel behoefte aan heeft.
Het wegnemen van de complexiteit uit netwerkinfrastructuren is een belangrijke drijfveer voor SDN. De wens is om een
datacenternetwerk te hebben dat zich gedraagt als één switch.
Waarbij bijvoorbeeld niet honderden of duizenden switches
apart beheerd hoeven te worden, maar slechts één hoofdswitch
geprogrammeerd wordt. In de huidige situatie zijn netwerken
vendorspecifiek en daar wil de markt vanaf. Dit heeft natuurlijk
invloed op de strategieën van leveranciers, omdat zij zich nu
vooral onderscheiden op basis van de hardware. Hoe zij hiermee omgaan en wat dit betekent voor de markt, is te lezen in het
volgende hoofdstuk
Een voorbeeld waaruit blijkt dat binnen de storagemarkt harden software al langer gescheiden kunnen worden, is tiering.
Door middel van tiering wordt data geautomatiseerd op verschillende disks opgeslagen, de software herkent welke capaciteit de applicatie nodig heeft. Dit zorgt er bijvoorbeeld voor dat
er geen onnodige dure diskruimte gebruikt wordt voor applicaties die nauwelijks aangeschreven worden.
Daarnaast zorgt het scheiden van de intelligentie van de hardware er voor dat systemen makkelijk opgepakt en verplaatst
kunnen worden, waardoor de flexibiliteit in het datacenter
toeneemt.
Het is belangrijk om te
focussen op de keten
8
White
paper
Software defined infrastructuur
Access-laag
Binnen de access-laag draait het erom dat gebruikers op een
betrouwbare en veilige manier toegang krijgen tot het internet,
kantoor of datacenter. Of dit nu vanuit kantoren, thuis of overige
flexibele werkplekken is. Denk hierbij aan kantooromgevingen
met zowel bedrade als draadloze verbindingen, toegang vanuit
huis naar een kantooromgeving, enzovoorts. De belangrijkste
trend in dit domein is dat IT-afdelingen steeds sneller moeten
kunnen reageren op vragen vanuit de business. Dit vraagt om
flexibiliteit en slagkracht.
Met software defined wordt er geautomatiseerd geprogrammeerd op het moment dat dat nodig is. Stel dat een eindgebruiker toegang wil tot zijn e-mail. Op het moment dat hij deze start,
wordt er gekeken naar wat hiervoor nodig is en worden de juiste
configuraties binnen de IT-infrastructuur op basis van software
gemaakt. Autorisatie wordt gecheckt, benodigde verbinding,
bandbreedte en security worden ingeregeld, enzovoorts. Verschillende devices worden zo vanuit één centraal punt gemanaged en geautomatiseerd geconfigureerd: point solutions in de
software. De IT-infrastructuur wordt geprogrammeerd op het
moment dat het nodig is.
Om plaats-, apparaat- en tijdonafhankelijk gebruik te kunnen
maken van applicaties is toegang nodig. Toegang tot bijvoorbeeld Office, e-mail en natuurlijk internet. Op dit moment
worden deze configuraties gemaakt voordat de gebruiker de
gewenste applicatie daadwerkelijk aanspreekt. Dit kost veel tijd
en haalt bovendien de flexibiliteit uit de infrastructuur. Infrastructuren zijn vooraf gedefinieerd, dus op het moment dat er
iets moet veranderen naar aanleiding van een businessaanvraag
kost dat tijd.
Users
Management
Access
Security
Services
Connectivity
Datacenter
Applications
9
White
paper
Software defined infrastructuur
Connectivity-laag
In de connectivity-laag staan verbindingen centraal: verbindingen binnen een campus, tussen kantoren onderling, van het
datacenter naar kantoor en tussen datacenters onderling. Door
centralisatie in het datacenter gaat er steeds meer data over de
lijnen en is de afhankelijkheid ervan enorm toegenomen. Op het
gebied van connectivity is de vraag vanuit de business niet veranderd, maar de eisen zijn dat zeker wel. De verbindingen moeten sneller, 24/7 beschikbaar zijn en veilig. Daarnaast dienen
de verbindingen zich transparant te gedragen, niet gebonden
aan enkele toepassingen. IT-managers staan voor de uitdaging
hoe om te gaan met deze eisen. Hoe kunnen huidige systemen
aangepast worden? Lange trajecten die doorgaans kostbaar zijn.
Veel organisaties kiezen er daarom voor om te roeien met de
riemen die zij hebben.
Hardware is een wezenlijk onderdeel van het geheel, het
verzorgt immers de benodigde performance. En vervangingen
van hardware zijn nodig om de steeds groter wordende eis en
verwachtingen bij te kunnen blijven. Maar vervangingen staan
ook voor migraties met daarbij behorende herconfiguraties.
Door de configuratie los te kunnen laten van de hardware kan
functionaliteit los worden gekoppeld van systemen. Services
kunnen worden geboden en hoeven zo niet te worden hergeprogrammeerd. Enkel de vervanging (wellicht zelfs uitbreiding)
van de hardware zorgt ervoor dat de functionaliteit weer op de
gewenst snelheid wordt geboden. De nieuwe netwerkinfrastructuur wordt eenmalig gebouwd en vervolgens door middel van
programmering vanuit een centraal punt virtueel ingericht,
zodat deze meervoudig, dynamisch en automatisch inzetbaar is
voor meerdere gescheiden toepassingen.
Om echt een kostenbesparende oplossing voor de lange termijn
te implementeren moet een nieuwe netwerkinfrastructuur vanaf
de grond gebouwd worden, met nieuwe componenten. Software
defined kan hier in de toekomst een kostenbesparende rol innemen. Niet voor iedere toepassing specifieke hardware inrichten,
maar enkele hardware softwarematig voor meerdere doeleinden flexibel kunnen inrichten. Minder componenten, minder
beheerslast en kostenbesparend.
Users
Management
Access
Security
Services
Connectivity
Datacenter
Applications
10
White
paper
Software defined infrastructuur
Datacenter-laag
Het datacenter is cruciaal in de IT-infrastructuur. De verandering van hardwaregeoriënteerd naar softwaregeoriënteerd zal
dit alleen nog maar vergroten. Binnen het datacenter is er reeds
veel veranderd door de komst van virtualisatie. Vooral op compute gebied is het normaal geworden dat de software niet meer
gebonden is aan de hardware. Door dit concept door te voeren
naar de access- en connectivity-laag worden de afhankelijkheden alleen maar groter. Niet alleen zijn de componenten als network, storage en compute onlosmakelijk met elkaar verbonden.
Door de flexibiliteit die software defined gaat brengen, zullen
ook de access- en connectivity-laag onlosmakelijk verbonden
zijn met het datacenter.
Moderne access points (toegangspunten voor WIFI) werken
al op een wijze die binnen software defined kan vallen. Net
als bij andere apparatuur bezit ieder access point software die
moet worden geconfigureerd. Voor een goed bereik binnen een
kantooromgeving worden er al snel 10-tallen van deze componenten ingezet. Al deze access points dienen elk afzonderlijk
te worden geconfigureerd. Bij moderne access points draait de
software niet meer op het access point zelf, maar als een virtueel
systeem in het datacenter. Dit vergt nogal wat inbeelding. Waar
de access point typisch een component in de access-laag was
en geen afhankelijkheid van het datacenter had, is het nu een
component geworden die de access-laag creëert, maar zich ook
zelf in het datacenter bevindt.
Users
Management
Access
Security
Services
Connectivity
Datacenter
Applications
11
White
paper
Software defined infrastructuur
IT-infrastructuur volledig geïntegreerd
Binnen alle lagen, connectivity, access en datacenter, geldt hetzelfde: niet eenmalig opdracht a inrichten, maar de hele keten
automatiseren van a tot z wanneer hier behoefte aan is.
Deze manier van werken is te vergelijken met een snelweg. Vier
banen zijn in gebruik door het verkeer. Indien er voor hulpdiensten de behoefte is om er snel doorheen te kunnen, wordt
er een baan gereserveerd voor deze hulpdiensten. De inzet
van de beschikbare infrastructuur is opeens anders geworden.
Veranderingen kunnen worden doorgevoerd naar gelang de
vraag, zonder fysieke aanpassingen aan de infrastructuur. Deze
manier van werken brengt flexibiliteit op de IT-afdeling naar een
volgend niveau.
Users
Management
Security
Access
Connectivity
Services
Datacenter
Applications
12
5
Marktontwikkelingen
Een ontwikkeling als software defined boort een volledig
nieuwe markt aan. Veel infrastructuurleveranciers verkochten
al software, maar altijd in combinatie met hardware. Vanwege
de behoefte aan flexibiliteit bij de eindgebruikers, zijn er op dit
gebied nu grote veranderingen gaande. Op welke manier spelen
leveranciers in op deze ontwikkeling? Met name voor netwerkleveranciers staat er veel te gebeuren.
In de huidige markt kiezen klanten vaak noodgedwongen voor
één vendor, maar wanneer hardware en intelligentie van elkaar
gescheiden wordt, betekent dit dat leverancieronafhankelijk gekozen kan worden voor verschillende oplossingen. Dit
zorgt er voor dat IT-managers minder afhankelijk zijn van hun
leverancier, een scherpere onderhandelingspositie hebben en
makkelijker kunnen meegaan met nieuwe initiatieven, bijvoorbeeld eenvoudiger overstappen van een private naar hybride
cloud. Voor leveranciers betekent dit een flinke omslag in hun
dienstverlening en productontwikkeling. Want hoe zorg je er
als leverancier voor dat klanten niet alleen voor jouw hardware
kiezen, maar ook softwarelicenties gaan afnemen?
Innovators en followers
Het onderscheidend vermogen van technologie zit in de software. Hardware is eenvoudiger te vervangen en bovendien is dat
niet waar de dienstverlening op leunt. De traditionele leveranciers moeten dus nadenken over nieuwe softwaremodellen op
basis waarvan zij hun diensten kunnen verkopen. Een aantal
grote vendoren heeft zich hier al volledig op gestort, de innovators. Zij komen al met concrete oplossingen en richten hun portfolio er op in. Maar ook zij staan nog aan het begin en hebben
nog een lange weg te gaan. Daarnaast zijn er veel open source
initiatieven die het voortouw nemen in deze ontwikkeling, denk
bijvoorbeeld aan de open standaard voor netwerkswitches
OpenFlow.
Als we kijken naar software defined networking ligt het voor
de hand dat de traditionele netwerkleveranciers er voor gaan
kiezen om specifieke features in de software te bouwen, waardoor taken bijvoorbeeld beter of sneller lopen. Het creëren van
voorwaarden die de kans vergroten dat klanten uiteindelijk voor
zowel de hard- als software van één leverancier kiezen. Dit is te
vergelijken met de aanschaf van een auto. Als je je rijbewijs hebt,
kun je in iedere auto rijden. Alle auto’s brengen je van A naar B,
White
paper
maar hoe comfortabel dat gaat, hangt af van de combinatie van
losse componenten. De auto die je uiteindelijk koopt, heeft voor
jou net dat beetje extra dat hem onderscheidt ten opzichte van
de andere auto’s. De vraag is: hoe belangrijk zijn de onderlinge
verschillen? En hoeveel is de markt bereid te betalen voor het
onderscheidend vermogen?
Hardwareonafhankelijke oplossingen zijn prettig voor de klant,
maar in de praktijk lijkt de markt ook gebaat te zijn bij een totaaloplossing. De hardware blijft belangrijk en het is afwachten
of je als IT-manager inderdaad wel zit te wachten op meerdere
leveranciers. Want waar ga je dan heen bij problemen? En hoe
selecteer je de juiste componenten? Het netwerk is cruciaal voor
de dienstverlening, waardoor de klant kiest voor zekerheid. Om
die reden is te verwachten dat er op het gebied van software defined weer veel nieuwe samenwerkingen zullen ontstaan tussen
hard- en softwareleveranciers. In het verleden is al gebleken dat
dergelijke samenwerkingen kennis en kunde uitstralen en dat is
waar de klant naar op zoek is. Daarnaast liggen ook overnames
voor de hand om het portfolio aan te vullen.
Hoewel hardware ondergeschikt wordt aan software, zal het
belang van hardware nooit verdwijnen. IT is als nutsvoorzieningen, de eindgebruiker verwacht gewoon dat het werkt. Water
door roestige pijpen is echter niet aantrekkelijk. Voor lekker water moeten de leidingen schoon zijn. Dit geldt ook voor IT. Om
de intelligentie uit software optimaal te kunnen benutten, moet
er een betrouwbare basis van hardware worden gelegd.
Traditionele leveran­ciers
moeten nadenken over
nieuwe softwaremodellen
13
6
De uitdagingen voor de IT-afdeling
Hoewel software defined nog volop in ontwikkeling is, is het een
serieuze trend die nu al veel aandacht vraagt van de IT-manager.
Hier is echter veel kennis voor nodig.
De rol van de IT-manager is de afgelopen jaren veranderd en
deze verandering zal ook met de komst van software defined
verder doorzetten. IT wordt binnen veel organisaties nog te vaak
gezien als een kostenpost, maar met de samensmelting van IT
en business wordt IT echt faciliterend. U vraagt, wij draaien.
Aan de IT-manager de taak om zich continu af te blijven vragen
hoe hij waarde kan toevoegen aan de organisatie. Met software
defined oplossingen is het mogelijk om sneller te schakelen,
waardoor IT in staat gesteld wordt om de enabler van winst te
worden.
Aan de andere kant wordt het gebruik van IT voor de eindgebruiker eenvoudiger en sneller, omdat hij bijvoorbeeld aan
de hand van self-service portals zelf keuzes kan maken, maar
tegelijkertijd wordt de IT complexer. IT’ers zullen hun kennisgebied moeten verbreden. Het beheer wordt vereenvoudigd,
omdat alles vanuit één centraal punt gemanaged kan worden,
maar het feit dat oplossingen volledig gecentraliseerd en verder
geïntegreerd worden, vraagt om brede én specialistische kennis.
Expertises worden alleen maar belangrijker, omdat de infrastructuur ingewikkelder wordt. Alle lagen binnen de infrastructuur zijn met elkaar verbonden, dus de afhankelijkheid neemt
toe. Met software defined hoeft er minder geprogrammeerd te
worden, maar het belang dat het goed gedaan wordt neemt toe.
Daarnaast werkt het systeem volledig geautomatiseerd, maar het
moet wel in de gaten gehouden worden. Eén enkele fout in het
centrale geautomatiseerde systeem kan de complete omgeving
negatief beïnvloeden. Ook hier zijn experts voor nodig.
White
paper
Naar de eindgebruiker verbetert de dienstverlening doordat er
snel gereageerd kan worden op vernieuwingen. Het opschalen in hardware is eenvoudiger, omdat de functionaliteit in de
software zit. Ook het ‘oppakken’ van de infrastructuur wordt
eenvoudiger, bijvoorbeeld voor verhuizingen van datacenters,
het uitrollen van desktops of het overstappen naar een externe
cloudomgeving. Software defined infrastructuren stellen de ITafdeling in staat direct te reageren op vraag vanuit de business,
waarmee de toegevoegde waarde van IT nog zichtbaarder wordt.
De rol van de IT-manager is de
afgelopen jaren veranderd en
deze verandering zal ook met
de komst van software defined
verder doorzetten
14
7
Conclusie
Software defined is here to stay, zoveel is duidelijk. Met recht
een game changer, omdat het niet alleen invloed heeft op de dagelijkse praktijk van de IT-manager, maar ook op de dienstverlening van de leveranciers en ontwikkelaars. Het is niet de vraag óf
zij iets gaan doen met software defined, maar op welke manier.
Het feit dat klanten minder afhankelijk zijn van hun leverancier
klinkt op zichzelf als een ontwikkeling met alleen maar voordelen, maar klanten moeten zich wel realiseren dat het ook
voor complexiteit kan zorgen. De eisen aan de infrastructuur
veranderen namelijk niet, deze moet optimaal functioneren en
volledig in dienst staan van de business. Het samenstellen van
de infrastructuur op basis van losse componenten vraagt om
expertise van de verschillende onderdelen en zorgt bovendien
vrijwel automatisch ook voor verschillende aanspreekpunten bij
leveranciers. In dit opzicht zal de rol van de system integrator
groter worden als centraal middelpunt.
Met de komst van converged en hyper-converged infrastructures
is de infrastructuur al steeds verder geïntegreerd. De domeinen
access, connectivity en datacenter zijn hierdoor volledig op
elkaar afgestemd en op sommige terreinen zelfs al versmolten
met elkaar. Met de opkomst van software defined zal er een volledige integratie komen, waarbij aan de ene kant de flexibiliteit
toeneemt, maar tegelijkertijd de complexiteit toeneemt.
White
paper
IT-managers moeten de ontwikkelingen rondom software
defined continu in de gaten houden. Wat betekent het voor de
eigen infrastructuur, hoe gaan uw leveranciers er mee om, wat
verwacht u dat software defined voor voordelen en uitdagingen oplevert? Het datacenter wordt steeds belangrijker voor de
continuïteit van uw organisatie. Oplossingen die de flexibiliteit
verhogen en de beheerslast verlagen, helpen u bij het aantonen
van de toegevoegde waarde van uw IT-afdeling. De IT-afdeling
is geen apart eiland meer binnen de organisatie en dit geldt ook
voor de diverse componenten in uw datacenter. Het heden en de
toekomst draaien volledig om integratie en samenwerken. Bent
u er klaar voor?
Met de opkomst van
software defined worden
alle componenten binnen
de IT-infrastructuur
volledig geïntegreerd
15
8
Over Telindus
White
paper
Telindus, onderdeel van de Belgacom Groep, is de onafhankelijke specialist en leverancier op het gebied van access, connectivity en datacenteroplossingen in combinatie met managed
services en multi-vendor support. De eisen aan IT worden
steeds extremer, waardoor kennis van de keten nodig is. Doordat
individuele componenten in zowel de datacenter-, connectivity- als access-laag steeds verder integreren, zijn deze niet meer
los van elkaar te zien. De kennis en expertise van Telindus op
het gebied van end-to-end infrastructuuroplossingen sluiten
hier naadloos bij aan. Met deze oplossingen richt de organisatie
zich op het garanderen van optimale en veilige toegang tot de
volledige infrastructuur en maximale beschikbaarheid: overal,
vanaf iedere plek.
Telindus heeft strategische partnerships met belangrijke
virtualisatie-, netwerk-, storage-, backup-, telecom- en securityleveranciers als Ciena, Cisco, Juniper, EMC, NetApp, VMware, CommVault, Quantum, Nutanix, Transmode, Vasco Data
Security, RedSocks, VCE en Riverbed. Daarnaast beschikt de
organisatie over een geavanceerd democenter waar de nieuwste
technologieën live gedemonstreerd worden. Voor meer informatie bezoek www.telindus.nl of volg Telindus via twitter.com/
telindus_NL en de LinkedIn company page Telindus Nederland.
Copyright © Telindus, 2014 Alle rechten voorbehouden.
De informatie in deze whitepaper is met zorg samengesteld. Toch kan Telindus
geen enkele aansprakelijkheid aanvaarden voor de gevolgen van onvolledigheid
of onjuistheid van het materiaal in deze whitepaper.
Telindus, Krommewetering 7, 3543 AP Utrecht
T +31 (0)30 247 77 11, [email protected],
www.telindus.nl, twitter.com/telindus_nl
#DesktopDestiny
Atlantis & Dell
Dell Hyperscale VDI
Dell Hyperscale VDI
Delivering cost effective virtual and shared desktops to large
scale enterprises in collaboration with Atlantis ComputingTM
Detailed White Paper
A detailed white paper
Document Revision
Version
Description
Date
Author
1.0
Initial version for publication
January 2014
Neil Hallworth
Dell Hyperscale VDI – A Detailed White Paper
THIS PAPER IS FOR INFORMATIONAL PURPOSES ONLY, AND MAY CONTAIN
TYPOGRAPHICAL ERRORS AND TECHNICAL INACCURACIES. THE CONTENT IS
PROVIDED AS IS, WITHOUT EXPRESS OR IMPLIED WARRANTIES OF ANY KIND. ALL
RESULTS ARE APPLICABLE TO THE TESTED WORKLOADS AND CONFIGURATIONS AT
THE TIME OF TESTING. VARIATIONS IN ANY APPLICABLE PARAMETER(S) MAY AFFECT
RESULTS ACHIEVED.
Copyright © 2014 Dell Inc. All rights reserved. Reproduction of this material in any manner whatsoever without
the express written permission of Dell Inc. is strictly forbidden. For more information, contact Dell.
Dell, the Dell logo, and the Dell badge are trademarks of Dell Inc. Microsoft and Windows are registered
trademarks of Microsoft Corporation in the United States and/or other countries. VMware is a registered
trademark of VMware, Inc. Citrix and XenDesktop are registered trademarks of Citrix Systems, Inc. Atlantis
Computing, Atlantis ILIO, Atlantis ILIO Diskless VDI, In-Memory VDI, In-Memory Storage, Atlantis ILIO for
XenApp, Atlantis ILIO FlexCloud and Atlantis ILIO Persistent VDI are trademarks of Atlantis Computing, Inc.
Other trademarks and trade names may be used in this document to refer to either the entities claiming the
marks and names or their products. Dell Inc. disclaims any proprietary interest in trademarks and trade names
other than its own.
January 2014
Dell Hyperscale VDI – A Detailed White Paper
Contents
1 Executive Summary ........................................................................ 6
2 Introduction ................................................................................. 8
3 Solution Overview ......................................................................... 11
3.1 Architecture Principles ......................................................................... 11
3.2 Logical and Physical Architecture ............................................................ 11
3.3 Workload Sizing In This Document ........................................................... 14
3.4 Persistent Desktop Solution ................................................................... 16
3.4.1 Recommended Configuration: .......................................................... 18
3.4.2 Key Features: .............................................................................. 18
3.4.3 Density Results: ........................................................................... 18
3.5 Non-Persistent Solution ........................................................................ 19
3.5.1 Recommended Configuration: .......................................................... 20
3.5.2 Key Features: .............................................................................. 20
3.5.3 Density Results: ........................................................................... 20
3.6 Shared Desktop (XenApp) Solution ........................................................... 21
3.6.1 Recommended Configuration: .......................................................... 22
3.6.2 Key Features: .............................................................................. 22
3.6.3 Density Results: ........................................................................... 23
4 Testing Approach .......................................................................... 24
4.1 Testing Approach – “Full Fat” XenDesktop Solutions – Persistent and Non-Persistent24
4.1.1 Tested Compute Configuration 1 XenDesktop with Atlantis ILIO ................. 24
4.1.2 Tested Compute Configuration 2 XenDesktop with Citrix PVS vDisks ............ 24
4.1.3 Tested Compute Configuration 3 – Baseline for XenDesktop ...................... 25
4.1.4 VMware vSphere - Configuration ...................................................... 25
4.1.5 Host Storage ............................................................................... 25
4.1.6 Networking ................................................................................. 25
4.2 Testing Approach – Shared Desktop (XenApp) Solutions .................................. 25
4.2.1 Tested Compute Configuration 4 High Spec Server for XenApp .................. 26
4.2.2 Tested Compute Configuration 5 Low Spec Server for XenApp ................... 26
4.2.3 Host Storage ............................................................................... 26
4.2.4 Networking ................................................................................. 26
5 Persistent and Non-Persistent Desktops: Testing In Detail ....................... 27
5.1 Infrastructure Components .................................................................... 27
5.1.1 Active Directory Prerequisites. ......................................................... 27
5.1.2 vSphere Prerequisites .................................................................... 27
5.1.3 XenDesktop Desktop Delivery Controller ............................................. 27
5.1.4 Citrix Web Interface ...................................................................... 27
5.1.5 Citrix License Server ..................................................................... 28
5.1.6 User Profile Implications ................................................................ 28
5.1.7 Master Image VM .......................................................................... 28
5.1.8 Desktop Pools and User Access ......................................................... 28
5.1.9 Citrix Agent and Receiver ............................................................... 28
5.1.10 Antivirus on the VMs .................................................................... 28
5.1.11 Load Generation ......................................................................... 29
5.1.12 Assessment/Monitoring Tools ......................................................... 29
5.2 Testing ............................................................................................ 30
Dell Hyperscale VDI – A Detailed White Paper
5.2.1 Testing Methodology ..................................................................... 30
5.2.2 User Workloads ............................................................................ 31
5.3 Test Results Summary .......................................................................... 32
5.4 Test Results: Details ............................................................................ 33
5.4.1 Configuration 1 Part A: XenDesktop with no IOPS burst test - Results .......... 33
5.4.2 Configuration 1 Part B: XenDesktop with IOMeter Burst Test with internal HDDs
- Results ........................................................................................... 39
5.5 Configuration 2: XenDesktop Citrix vDisk Provisioning Services (No IOPs Burst
Testing) – Results .................................................................................... 44
5.6 Configuration 3: Baseline XenDesktop server with 15K HDD, no storage nor
provisioning optimisation ........................................................................... 53
6 Shared Desktops (XenApp) .............................................................. 58
6.1 Infrastructure Components .................................................................... 58
6.1.1 Active Directory Prerequisites .......................................................... 58
6.1.2 vSphere Prerequisites .................................................................... 58
6.1.3 Citrix Web Interface ...................................................................... 58
6.1.4 Citrix License Server ..................................................................... 58
6.1.5 User Profile Implications ................................................................ 58
6.1.6 Published Desktop Application ......................................................... 59
6.1.7 Published Application User Access ..................................................... 60
6.1.8 Citrix Receiver ............................................................................ 60
6.1.9 Antivirus on XenApp ...................................................................... 60
6.2 Load Generation ................................................................................. 61
6.2.1 Login VSI – Login Consultants ........................................................... 61
6.3 Assessment/Monitoring Tools ................................................................. 61
6.3.1 Windows Performance Monitor ......................................................... 62
6.4 Testing ............................................................................................ 62
6.4.1 Testing Methodology ..................................................................... 62
6.5 User Workloads .................................................................................. 63
6.6 Test Result Summary ........................................................................... 64
6.7 Test Results: Details ............................................................................ 65
6.7.1 Configuration 4: XenApp High Spec Server – Results ............................... 65
6.7.2 Compute Configuration 5: XenApp Low Spec Server – Results .................... 69
7 About the Author and Contributors ................................................... 73
8 Hardware and Software Components ................................................. 74
8.1 Persistent Desktop Typical Hardware Configurations ..................................... 74
8.1.1 Persistent Desktop Compute – Rack Server - Dell PowerEdge R620 With Full
“lights out” iDRAC Hardware Management .................................................. 74
8.1.2 Compute – Blade Server – Dell M620 With Full “lights out” iDRAC Hardware
Management ...................................................................................... 76
8.1.3 Storage For Persistent Desktops........................................................ 78
8.2 Non-Persistent Desktop and Shared Desktop Typical Hardware Configurations ..... 80
8.2.1 Compute – Rack Server - Dell PowerEdge C6220 II .................................. 80
8.3 Storage Optimization Software for Persistent, Non-Persistent and Temporarily
Persistent Solutions***............................................................................... 83
...................................................................................................... 83
Dell Hyperscale VDI – A Detailed White Paper
1
Executive Summary
Desktop virtualization (VDI) – full client or shared desktops - can provide clear and quantifiable
benefits to organizations of all sizes. However, many larger organizations have approached the
adoption of desktop virtualization beyond 20% of the workforce with caution: deployments at this
scale are perceived to be complex and there are lingering concerns about performance and cost
when scaling out to 80%+ of the workforce.
This paper illustrates why desktop virtualization at hyperscale in these organisations is now viable using
a combination of disruptive Dell and complementing technologies because of the following four
converging indicators:




progression of desktop virtualization management technology;
optimization of internal server storage;
acceleration of thin-client deployment and
wide adoption of server virtualization and cloud services.
To be successful, desktop virtualization deployments must satisfy users, IT organizations and finance
departments. Users are looking for the same user experience they enjoy with their current physical
desktops with the mobility to access their desktops and applications from any device. IT organizations
want proven and reliable solutions that simplify operations, lower deployment risks and ensure high
availability and disaster recovery. The finance department wants predictable CAPEX (capital
expenditure) costs that are comparable to physical PCs with tangible reductions in datacentre OPEX
(operational expenditure) costs.
Dell is responding to this opportunity by committing resources to create a powerful customer-centric
portfolio of desktop virtualization solutions. Our hyperscale virtualization solution complements our
existing portfolio of on- and off-premise virtualization solutions. Dell and Atlantis leverages their
expertise in servers, storage, networking, virtual desktops, clients, software, and services to provide
reduced SAN and SAN-free solutions that meet the demands of a business case to support hyperscale
user volumes with optimization that reduces CAPEX and OPEX. The Dell and Atlantis Computing VDI
solution is simple to deploy and manage and provides PC performance while reducing deployment
cost and risk. The joint solution delivers a density of 280 virtual desktops in 2U of datacentre space,
increases IOPS (input / output operations per second) per user to approximately 400 while reducing
the storage needed per server.
Now larger organisations can deliver on the promise of virtualization to the complete workforce with a
solution the delivers the following benefits:



Cost effective: saves hundreds of dollars per desktop by increasing storage efficiency and
density. Atlantis ILIO optimization software leverages a solution built on Dell servers and
internal SATA disks that supports 280 virtual desktops in a 2U datacentre footprint.;
User experience: deliver PC performance, including faster boot/login times, near-instant
application launches, and search speeds that will exceed user expectations;
Scalable – large steps or smaller building blocks: proven reliable and flexible solutions that
scale to tens of thousands of users without the risk of storage or network bottlenecks, while
enabling high availability and disaster recovery;
Dell Hyperscale VDI – A Detailed White Paper



Enterprise class interoperability: the joint solution is integrated with VMware vMotion, DRS
and HA where required and minimizes replication resources and recovery time;
Reduced footprint: by reducing SAN requirements (for persistent desktops), eliminating SAN
(for non-persistent desktops and XenApp) and leveraging a high density server form factor, the
Dell solution requires a smaller data center footprint compared to a traditional solution;
Reduced complexity: automated deployment and configuration that reduces mistakes;
simplified architectures that lower the footprint, operational, cost and performance risks of
deploying VDI.
Dell Hyperscale VDI – A Detailed White Paper
2
Introduction
After enjoying widespread adoption and success in the server arena, virtualization has rapidly
expanded into end-user computing, from application virtualization to increasingly versatile desktop
virtualization that includes personalization tools and persistent environments. Today, virtualized
desktops regularly meet the expectations of users, IT organizations and finance departments for
specific use cases (e.g. developer sessions, flexible working for executives, highly mobile employees)
within very large enterprises, but cannot always be justified in more widespread use cases (e.g. task
workers, call centres). In an era in which end users are having a greater influence on decisions, IT and
finance departments are increasingly challenged by cost containment, external forces such as
compliance, resource optimization, and flexibility. There is a pressing need to find a truly cost
effective and flexible platform that is simple to deploy and scale, easy to control and manage, and
capable of delivering a faster-than-PC-experience allowing a roll-out of virtualized desktops to a
much larger proportion of the user base in large enterprises.
Adoption drivers for desktop virtualization in large enterprises can be categorized into three groups
(see Table 1). These drivers are constant across all industry segments, but their degree of emphasis can
change based on specific use cases. For example, the financial industry may emphasize enhanced
security, compliance and targeted adoption and so roll-out speed may be cautious, while academic
institutes may be primarily concerned with end-user productivity, ubiquity and cost of ownership with
roll-outs being in large peaks at the commencement of a new term’s intake.
Table 1 – Which category of VDI adoption best matches your organisation?
Category
Challenges
Organisational Objectives
No or very little adoption of
VDI

Cost and complexity of deploying
a new infrastructure, particular
SAN technologies;

Move to VDI or shared desktops to
deliver:



User flexibility;
Risk of vendor lock-in with
“block” solutions – the new
legacy;


User experience;






BYOD (Bring Your Own Device);

Adopt thin clients or re-purpose
existing desktops.


Increased IOPs with Windows 7
and Windows Server 2008R2;
Deployment risk;
Business case difficult to justify.
Dell Hyperscale VDI – A Detailed White Paper
Reduced complexity of image
management;
Security / compliance;
Cost pressures;
Location independence;
Better power management;
Deploy in large deployments or small
building blocks;
Category
Challenges
Organisational Objectives
Up to 20% of users on VDI
but the business case does
not support the remaining
80% of the workforce

Organisation very aware of the
existing acquisition and running
costs of existing VDI solutions;


Business case difficult to justify
for high volume user base;
Roll-out the benefit of VDI to a wider
user base whilst delivering a new
business case paradigm suitable to high
user volumes;


Existing solution based on
complex & expensive (usually
SAN – storage area network)
storage;
Adopt thin clients or re-purpose
existing desktops;

This solution reduces the cost of VDI
deployments and provides an improved
user experience.

Vendor growth units not aligned
to rollout plans.

Business management aware of
the existing cost of VDI and will
not support wider adoption;

Adopt a different delivery platform to
remove cost and complexity from the
solution;

Existing user base not cost
effective; Vendor lock-in to
complex and expensive solutions;

Migrate from persistent to nonpersistent or shared desktops;



Reduced cost of deployment;
Performance not always meeting
requirements or expectations;

Newer technologies offer a better
management platform but
business case for migration is
difficult to justify.

Reduce operational costs associated
with racks, power, cooling and
management.
More than 20% of users on
VDI but operational costs
are outstripping business
benefits
Adopt thin clients or re-purpose
existing desktops;
Due to these differing drivers and adoption levels, Dell recognises that VDI solutions that essentially
replicate server virtualisation infrastructures are either over engineered for VDI, do not provide
adequate performance or only meet the demands of a small percentage of the user base. Whilst many
vendors are promoting complex, expensive and locked-in “one size fits all” infrastructures, Dell
proposes the adoption of a more flexible architecture – one where the delivery model (and associated
adoption and total ownership costs) reflect the delivery method and user profile. When operating at
hyperscale user numbers in large enterprises, Dell architecture can be tailored to match the oftenconflicting priorities of rollout plans, reduced purchase costs, reduced TCO (total cost of ownership),
user experience and usage profiling. This is where the Dell Hyperscale solution delivers benefits.
Successful deployments start with evaluating desktop usage in an organization and identifying the
appropriate target end users—workloads— identifying who will have a clear and immediate benefit
from desktop virtualization, and then matching those benefits to the best fit platform to deliver against
performance, operating cost and service level requirements. VDI is a software technology for desktop
virtualization that hosts a desktop OS (operating system) within a virtual machine running on a hosted,
centralized, or remote physical server. Dell has found that many organizations deploy VDI to only a
limited percentage of the total desktop end-user base. Virtualization experts from the Dell Desktop
Virtualization Solutions (DVS) Group can accomplish a strategic analysis of end users through an indepth professional assessment of their desktop environment. . Once you fully understand your user
profiles, the infrastructure can be matched to suit their performance and serviceability needs and their
value to the organisation. This is the Dell difference – we have a reference architecture which can
meet all of these needs at the most cost effective price point – when it comes to VDI, one size does
not fit all.
Despite tangible benefits, desktop virtualization is struggling to break out of a small, focussed
deployment arena. Complexity, user experience, performance and attendant cost often emerge as a
Dell Hyperscale VDI – A Detailed White Paper
highly relevant inhibitor, slowing the expansion of current VDI implementations to broader ranges of
desktop end users. Some vendors are offering one-stop solutions that are best suited to high value
users with robust persistence and recoverability requirements. Deploying this type of solution to high
volumes of users with repeatable desktop or shared sessions does not make economic sense at such
scales. Now Dell adds a new approach to our broad portfolio of products – one that complements
your existing deployment, one that seeks to expand capacity, not rip and replace, and one that seeks
to simplify deployment and growth that matches your user roll-out plans
Customers who are seeking the following enhancements for their VDI solutions can now consider a
different way of achieving their objectives:
 Massive Scale
o 10’s of thousands of users with a wide variety of requirements across applications,
security, availability and other dimensions
 Lower unit and operational costs
o Both per seat but also in smaller increments that allow them to scale up capacity to
match deployments
o Management consolidation and efficiency has the potential to deliver large OPEX
benefits over the lifetime of the systems versus existing end user compute models
o Larger customers do not want to scrap their existing VDI and VDI management
infrastructures nor introduce disruptive network components – rather they wish to
augment these to maximize their existing investments.
o Smaller data centre footprint
 Lower risk
o Automation
o Centralized control
o Operational flow
o End-point flexibility
 Agility
o Incremental capacity easily deployed without large upfront CAPEX – both in terms of
management & storage infrastructure and user host nodes
o Linear scale up to over 100,000+ seats
o Ability to deploy VDI or app streaming options based on user need across spectrum of
service requirements
 User experience
o Performance of a physical desktop/laptop
o Near instant application launches
o Faster boot/login times
o Fast desktop and email search times
Dell Hyperscale VDI – A Detailed White Paper
3
Solution Overview
Architecture Principles
3.1
Dell has based this solution on the premise that one size does not fit all for hyperscale VDI
deployments – mapping user profiles and service requirements to the correct infrastructure delivers
the opportunity to grow your virtual desktop services to cover the majority of your user population.
This architecture is both flexible and modular and builds from the following principles:

Deploy infrastructure to match the user workload profile using the latest VDI optimized
technology solutions;

Deploy virtual desktop workloads to infrastructure that matches service availability to service
level requirements;

Build the management software (Citrix or VMware View) on robust and resilient infrastructure
– service levels depend entirely upon the availability of these elements;

Deploy the volume workloads to the lowest cost modular platform, delivers user service levels
through the management layer, rather than the infrastructure layer;

Solution can be deployed to greenfield, growth or re-platforming environments;

Solution is ideal for organisations migrating from Windows XP to Windows 7 and/or Windows
8;

Cost effective to deploy and manage;

Deliver exceptional user experience;

Modular growth and linear scalabilty to match deployment plans.
The recommended solution has been identified as a result of testing a number of hardware and
software combinations against the above principles.
3.2
Logical and Physical Architecture
The logical architecture diagram in Figure 1 illustrates the main components of the solution.
Traditional elements such as SAN storage, Citrix or VMware View management layers are detailed in
other Dell White Papers available here. This paper deals with the differentiated elements of storage
optimisation and modular building blocks – particularly around the scale-out compute modules that
deliver the persistent, non-persistent XenDesktop VDI and shared desktop XenApp sessions.
Dell Hyperscale VDI – A Detailed White Paper
Figure 1 – Logical Architecture
Highly resilient management
layer – delivers the service
level required
Replicated servers deliver
persistent desktop sessions –
with server-based storage
optimisation greatly reducing
the traffic to and from the
SAN storage, giving
performance improvements
on a smaller SAN footprint
High volume low cost delivery
of non-persistent and shared
desktop sessions. Storage
optimisation delivers high
performance and low cost on
server internal storage. No
SAN. No Fabric for these
workloads.
In physical terms, Figure 2 illustrates how a complete environment would be deployed, across 2 data
centres. Note that the elements which deliver the service management layer are optional to the
solution for those customers who already have these elements in place, In such cases Dell will
complement those deployments and grow the persistent, non-persistent and shared desktop user
base in a cost effective way. If you already have highly resilient solutions in place for persistent
desktops, then Dell will complement those deployments and grow the non-persistent and shared
desktop capacity. If your existing VDI desktops are struggling to perform on the existing infrastructure
then we offer a storage optimized solution that applies multiple storage optimization technologies,
such as application analysis, IO processing and inline de-duplication to the storage volume which
reduces the requirements on storage volume performance and capacity inside the server. This
significantly reduces server to SAN traffic and SAN storage requirements without those timeconsuming and slow SAN de-duplication routines.
Dell Hyperscale VDI – A Detailed White Paper
Figure 2 – Physical Deployment
~ 60% of Users
~ 15% of Users
~ 10% of Users
Highly resilient management
layer – delivers the service
level required – use existing
management suites or deploy
new from Dell
Full Client
Full Laptop
~ 15% of Users
Thin Client
Displaying Persistent VDI
Thin Client
Displaying Non-Persistent VDI
Hosted shared desktop
sessions from low cost
internal storage Dell modular
internal storage servers
Thin Client
Running Streamed
Apps
Tablet
Phone
Presentation Translation
Displaying Streamed Apps
App Streaming Presentation Servers
Broker
User
state
Full Client
VM
Persistent
Full Client
VM
Persistent
Broker
Server
App Streaming User State
Provisioning Server VM
Server VM
Full Client
VM
Non-Persistent
Hypervisor
Low Cost Pod Based Architecture
Session recovery provided by Broker or App Streaming Server
Hypervisor
Dual DC SAN Attached Resilient Server Architecture
Highly resilient persistent
desktops layer – use existing
infrastructure or deploy new,
high performance, storage
optimized, smaller SAN
solution from Dell
SAN
DATA CENTRE 1
Hypervisor
Mgmt
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
DAS
Compute
DAS
Network
Pod 1
SAN
Serving Apps to:
thin clients; full client VM stateless; full client VM
stateful; full client; mobile & home devices
Full Client
VM
Non-Persistent
DATA CENTRE 2
Compute
DAS
Network
Pod 2
Compute
DAS
Network
Pod n
Compute
DAS
Network
Pod 1
DATA CENTRE 1
Compute
DAS
Network
Pod 2
App Packaging
Server
Physical or
Virtual Resilient
Modular, internal storage
optimised Dell building blocks
to deliver low cost nonpersistent and shared
desktop sessions
DAS
Compute
DAS
Network
Pod n
DATA CENTRE 2
Adoption approach will be aligned to the current position of the organisation – as one of the 3
categories listed in Table 1. Table 2 below gives examples of how each category of organisation can
adopt all or part of the flexible Dell architecture.
Table 2 – adoption options to match starting point and objectives
Category
Organisational Objectives
Infrastructure Deployment
No or very little adoption of VDI
Move to VDI or shared desktops to
deliver:

Deploy Dell resilient
management infrastructure.

user flexibility;


reduced complexity of image
management;
Dell storage optimised resilient
SAN infrastructure for small
number of persistent sessions.

BYOD;


security / compliance;

cost pressures;
Initial deployments of Dell
modular solution for nonpersistent and shared desktops
at low cost to match initial user
base.

location independence;


Add further Dell modules to
match expansion rollout plans.
better power management;

deploy in large deployments or
small building blocks.

Adopt thin clients or re-purpose
existing desktops.
Dell Hyperscale VDI – A Detailed White Paper
Category
Organisational Objectives
Infrastructure Deployment
Up to 20% of users on VDI but the
business case does not support the
remaining 80% of the workforce
Rollout the benefit of VDI to a wider
user base whilst delivering to a new
business case paradigm suitable to
high user volumes.

Add non-persistent desktop and
shared desktop Dell modules to
existing infrastructure.

Add Dell modules over time to
match rollout plans.

Retain existing resilient
management infrastructure OR

Replace existing persistent
infrastructure with Dell storage
optimised solution with deduplication inside the server.
Significantly smaller SAN
deployment with higher
performance than traditional.

Deploy Dell modular optimised
solutions for non-persistent VDI
and shared desktop sessions,
matching deployment volumes
to rollout plans.
Adopt thin clients or re-purpose
existing desktops.
More than 20% of users on VDI but
operational costs are outstripping
business benefits
Adopt a different delivery platform to
remove cost and complexity from
the solution.
Migrated from persistent to nonpersistent or shared desktops.
Reduced cost of deployment.
Adopt thin clients or re-purpose
existing desktops.
Implement a BYOD plan.
For persistent and non-persistent desktops, Dell collaborated with Atlantis Computing to develop this
solution. Atlantis ILIO uses a unique combination of storage technologies to shrink the run-time
storage footprint of virtual desktops by up to 90%, allowing virtual desktops to be cost-effectively run
directly from internal server disks instead of external storage. This provides far better performance
than external storage. This simplified architecture supports linear scalability around server resources
instead of expensive shared network resources, significantly reducing both the storage and network
infrastructures required to support virtual desktop projects. Atlantis ILIO is a 100% software solution
that deploys automatically and transparently without requiring any changes to existing desktop images
or administrative processes or procedures. With support for all major virtual desktop platforms, it offers
a solution that is broadly applicable across different hypervisors, storage, deployment types and
industries.
The remainder of this paper documents how Dell has created a performance optimised, low cost
persistent, non-persistent desktop and shared desktop modular approach to VDI. The testing for nonpersistent desktop sessions was performed using Citrix XenDesktop on VMware vSphere with Atlantis
ILIO. However, the principles equally apply to VMware’s Horizon View infrastructure, which should be
considered as an option for those organisations that have an existing deployment of this technology.
3.3
Workload Sizing In This Document
Typically vendors state that their servers / storage / pod etc. is capable of running hundreds or
thousands of virtual desktops. The IOPs which would be available to each user session in these
designs is typically much lower than that of a physical PC and will give a poor user experience. In
reality, customer deployments never reach these claimed deployment levels as much more realistic,
active and randomised workload testing is required to determine real world densities– as used in the
Dell testing reported in this white paper.
Dell testing is conducted as follows:
Dell Hyperscale VDI – A Detailed White Paper

Stress the environment until one of the resources (e.g. CPU utilisation, memory utilisation,
storage (utilisation or capacity)) reaches its maximum;

Stress the environment until the identified resource limitation above is running at 85% of
maximum;

Ensure that, when the server is running at the above identified 85% resource point:
o
Login VSI Index (a measure of the performance of the host server) remains
comfortably below the point at which this value climbs steeply;
o
Stratusphere UX (a tool for measuring the user experience) records the user
experience in the top right corner of the performance quadrants.
When developing the flexible VDI infrastructure articulated in this paper, Dell worked with a number of
global customers to define a realistic workload profile – one that reflects actual resource allocations
for VMs in real World large enterprises. We worked with industry recognised stress testing and user
experience monitoring tools. Throughout this paper, when we refer to a virtual desktop workload we
are using the following parameters:
Resource allocations per VM:

2 vCPU

2GB RAM

40GB HDD capacity

15 IOPs average
Workload within the VM:

Based on Login VSI Medium

Running the randomised workload illustrated in Figure 4.
Dell Hyperscale VDI – A Detailed White Paper
Figure 4 – Randomised workload operating in each VM:
This approach ensures that our customers can have confidence in our documented VDI session
density per server. Within this paper we clearly report results of actual testing performed by Dell. In
some instances we have extrapolated that data into an alternative platform of similar configuration –
where we have made these extrapolations we clearly identify this.
VDI session density per server in this document is based heavily on our real world testing. Wherever
there are variations away from the workload and profile (e.g. changes to per VM resource allocations;
different applications running within the VMs) that we have used in our testing, this will affect the
density achieved in actual installations. This includes much higher user density levels where the
resources allocated to each user session are lower than those used in this testing.
3.4
Persistent Desktop Solution
Persistent desktops are those where the user sees exactly the same desktop experience every time
they log into their session. Any changes they make to that desktop are permanent, and are visible to
Dell Hyperscale VDI – A Detailed White Paper
the user every time they log in. Typical use cases are application developers and senior company
executives. These are the users sessions that Dell recommends are delivered on highly resilient
hardware to ensure that the changes made to the desktop can be recovered in the event of the loss of
a component or multiple components of the service.
Within the architecture described above, Dell recommends the inclusion of Atlantis Computing’s ILIO
storage optimization software within the server to significantly reduce the volume of traffic travelling
to and from the SAN storage layer. Performing storage optimisation inside the server eliminates many
of the performance issues associated with traditional SAN based solutions – particularly relating to
latency times. It also eliminates the wait time associated with running out-of-band de-duplication
routines so typical of SAN based de-duplication. Connectivity to storage can be simpler and with
lower capacity whilst SAN storage capacity can also be much smaller, saving deployment and
operational costs on support, monitoring and SAN software licencing.
Service levels for a persistent workload are delivered by the infrastructure in combination with the
management suite provided by VMware and / or Citrix. The persistent data (such as user state) is held
on shared SAN storage and replicated across site so that the sessions can be recovered from the
storage layer in the event of server failure, storage failure or loss of a data centre.
Figure 3 – Persistent Desktop Sessions
Persistence
Cost Per User
Density



Best
Good
Good
Dell Hyperscale VDI – A Detailed White Paper
3.4.1

Recommended Configuration:
Recommended server specification:
o
PowerEdge R620, 1U, servers with iDRAC hardware systems management. Test results
extrapolated from the identical CPU and memory specification of the C6220 platform
o
Atlantis ILIO storage optimization software (see section 8.3 for more details about
Atlantis ILIO)
VDI – PowerEdge Sandy Bridge R620 - 15K drives with Atlantis ILIO
2 x Intel Xeon Sandy Bridge E5-2680 @ 2.7 GHz
192 GB RAM
H710 RAID controller
10Gb Network Card
VMware vSphere ESXi 5.0 on MicroSD
VDI – PowerEdge Ivy Bridge R620 - 15K drives with Atlantis ILIO
2 x Intel Xeon Ivy Bridge E5-2680v2 @ 2.8 GHz
256 GB RAM
H710 RAID controller
10Gb Network Card
VMware vSphere ESXi 5.0 on MicroSD

Dell Compellent or Dell EqualLogic SAN storage;

iSCSI or Fibre Channel SAN connectivity fabric.
3.4.2
Key Features:

Atlantis ILIO Virtual Machine provides storage optimization for virtual desktops – reduced
storage capacity and reduced dependency on SAN connectivity latency. Eliminates
requirements for de-duplication technology and caching modules / storage tiers within the
storage layer.

Virtual desktop density extrapolated from the test data captured from the C6220 server
platform of exactly the same CPU and memory specification.
3.4.3
Density Results:
R620 Sandy Bridge Server
70 XenDesktop Persistent Users
Dell Hyperscale VDI – A Detailed White Paper
3.5
Non-Persistent Solution
Non-persistent VDI sessions are typically those where the users need a consistent desktop image
delivered to them, perhaps with their department specific applications, but do not need in the ability to
make permanent changes to that desktop. Typical use cases are call centres and process workers.
Sometimes a non-persistent session can be delivered as though it was persistent (the user sees the
same desktop every time they log in, so they see changes they make to that desktop over time), but
the changes they make to the desktop are not of long-term value. In this case, what appears to be a
persistent session is actually temporarily persistent and can therefore be delivered under the same
service levels as a non-persistent session.
Dell Hyperscale VDI delivers this workload on an internal storage solution, optimised for VDI
workloads. Because there is no SAN storage or storage fabric within this solution, complexity is
reduced, operating costs are significantly lowered and user experience is significantly improved.
Without using storage or provisioning optimisation, a traditional 1 U server with internal storage will
support approximately 22 users. However, the Dell Hyperscale solution supports 70 users within the
same server specification by exploiting the benefits provided by Atlantis ILIO storage optimization
software.
Service levels for a non-persistent workload are delivered by the excellent service level management
facilities provided by VDI provisioning suites such as VMware Horizon View or Citrix 7. In the event of
server failure or the loss of a data centre the user session is newly provisioned on alternative hardware
or location with a brief interruption.
Persistence
Cost Per User
Density



Not suitable
Very Good
Very Good
Dell Hyperscale VDI – A Detailed White Paper
3.5.1

Recommended Configuration:
Recommended server specification:
o
PowerEdge servers – 4 servers of 2 x Intel Xeon Sandy Bridge E5-2680, 192GB, 6 x
internal 300GB 15k HDDs in 2U of rack space
o
Atlantis ILIO storage optimization
PowerEdge C6220 Sandy Bridge Non-Persistent Server
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
256 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network Card
PowerEdge C6220 Ivy Bridge Non-Persistent Server
2 x Intel Xeon Sandy Bridge CPU E5-2680v2 @ 2.8 GHz
256 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network Card
Note: we expect an Ivy Bridge server to offer approximately 25% greater user density than the
Sandy Bridge server, however test results for this configuration were not available at time of
publication.
3.5.2
Key Features:

Storage internal to the server – no SAN nor NAS required

Atlantis ILIO VM provides storage IO optimization for virtual desktops utilising 15K SAS internal
disks.

Benchmarked with a Login VSI Medium workload with a 40GB virtual desktop image.
3.5.3
Density Results:
Single C6220 Sandy Bridge Server
Single C6000 Chassis (4 Servers in
2U)
70 Non-persistent Users
280 Non-persistent Users
Dell Hyperscale VDI – A Detailed White Paper
3.6
Shared Desktop (XenApp) Solution
Shared desktop sessions are typically those were the users need a consistent set of applications
delivered to them, but do not need to see the same individual desktop each time they log in. Typical
use cases are call centres, process workers, remote workers and Bring Your Own Device users.
The Dell solution tested a single Windows Server and single XenApp instance per physical server.
Compared to multiple server VMs on a physical server, savings are delivered by reduced operating
system instances and the attendant patching and systems management licences. Service levels for a
shared workload are delivered by the management suite provided by Citrix. In the event of server
failure or the loss of a data centre the user session is newly provisioned on alternative hardware or
location with a brief interruption. In some scenarios a number of virtualised XenApp server instances
on one host may better meet customer application and service management requirements.
Persistence
Cost Per User
Density



Not appropriate
Excellent
Excellent
Dell Hyperscale VDI – A Detailed White Paper
3.6.1
Recommended Configuration:

Recommended hardware specification:
PowerEdge C6220 Sandy Bridge XenApp Server
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
128 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network Card
PowerEdge C6220 Ivy Bridge XenApp Server
2 x Intel Xeon Sandy Bridge CPU E5-2680v2 @ 2.8 GHz
192 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network Card
Note: we expect an Ivy Bridge server to offer approximately 25% greater user density than the
Sandy Bridge server, however test results for this configuration were not available at time of
publication.
3.6.2
Key Features:

Direct bare metal install of Windows Server – saves on operating system licences,
maintenance costs and software licencing for systems management tools, anti-virus and
hypervisors etc.

Benchmarked with VSI Medium Login VSI workload.

2 specifications of servers were tested:
o
Intel Xeon Sandy Bridge E5-2680 8 core 2.7 GHz CPU with 128GB RAM
o
Intel Xeon Sandy Bridge E5-2620 6 core 2.0 GHz CPU with 64GB RAM
Dell Hyperscale VDI – A Detailed White Paper
3.6.3
Density Results:
Single High Spec Intel Sandy
Bridge Server (R620 or C6220)
C6000 Chassis (4 Servers in 2U)
160 Shared Desktop Sessions
640 Shared Desktop Sessions
Single Lower Spec Intel Sandy
Bridge Server (R620 220)or C6
C6000 Chassis (4 Servers in 2U)
90 Shared Desktop Sessions
360 Shared Desktop Sessions
Dell Hyperscale VDI – A Detailed White Paper
4
Testing Approach
This section of the document summarises the testing approach and results for the elements
developed specifically for the Dell Hyperscale VDI solution – namely the introduction of Atlantis ILIO
to provide storage and IOPs optimisation and the alternative Citrix PVS to provide a “thin provisioning”
deployment of XenDesktops using vDisks. Further information on existing elements of the persistent
desktop solution such as Dell Compellent storage, Dell Force10 networking and PowerEdge servers
can be found at www.Dell.com or by discussion with your Dell Account Team.
Testing Approach – “Full Fat” XenDesktop Solutions –
Persistent and Non-Persistent
4.1
4.1.1
Tested Compute Configuration 1 XenDesktop with Atlantis ILIO
PowerEdge C6220 - 15K drives with Atlantis ILIO
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
256 GB RAM
RAID Controller
6 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10
10Gb Network Card
Key features of this test include

Atlantis ILIO storage optimization within the server

XenDesktops delivered via Citrix MCS (Machine Creation Services)

Persistent or non-persistent virtual desktops
The Atlantis ILIO VM configuration used: 2 CPU’s, 36863MB RAM, with storage provided by a 700GB
NFS Volume on 800GB VMFS from 6x 15K 300GB drives in RAID10. No memory or CPU reservations
on the appliance.
4.1.2
Tested Compute Configuration 2 XenDesktop with Citrix PVS vDisks
PowerEdge C6220 with Citrix PVS
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
256 GB RAM
RAID Controller
6 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10
10Gb Network Card
Key features of this test include
Dell Hyperscale VDI – A Detailed White Paper

Optimised vDisks – virtual desktops delivered by Citrix Provisioning services

No storage optimization
4.1.3
Tested Compute Configuration 3 – Baseline for XenDesktop
PowerEdge C2206 with XenDesktop VDI
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 8 core
256 GB RAM
RAID Controller
8 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10
10Gb Network Card
Key Aspects of this test of Session Host Virtual Desktop include

Internal HDDs only – no storage optimization

We then extrapolated the results to a 6 disk configuration to compare against the solutions
that were tested with storage optimization
4.1.4
VMware vSphere - Configuration
For this test it was not required to architect or construct a complex VMware vSphere backend. From a
vSphere perspective it was a very simple platform – a single vCenter, with a single management ESXi
Server running the “Backend” components and then the different server hardware platforms
“Compute” under consideration/test.
4.1.5
Host Storage
As there was no SAN or NAS under test all host level storage was defined within the server. The
following storage configurations wer tested:

RAID 10 15K x 6 traditional HDD configured as VMFS

RAID 10 15K traditional HDD configured as VMFS with ILIO layering NFS
4.1.6
Networking
As part of the testing we used Dell Force10 s4810 10Gb network switches.
4.2
Testing Approach – Shared Desktop (XenApp) Solutions
This section of the document summarises the testing approach and results for the elements
developed specifically for the Dell Hyperscale VDI solution – particularly, in the case of shared
desktops, the use of a bare metal build as an alternative to multiple VMs running on a hypervisor.
Further information on existing elements of the solution for the Citrix and VMware management
layers, such as Dell Compellent storage and PowerEdge servers, can be found at www.Dell.com or by
discussion with your Dell Account Team.
Dell Hyperscale VDI – A Detailed White Paper
4.2.1
Tested Compute Configuration 4 High Spec Server for XenApp
PowerEdge C6220 – High Spec XenApp Server
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
128 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10
10Gb Network Card
Key features of this test include

Single bare metal install of Windows Server 2008 R2

Single install of XenApp 6.5 within Windows Server
4.2.2
Tested Compute Configuration 5 Low Spec Server for XenApp
PowerEdge C6220 Low Spec XenApp Server
2 x Intel Xeon Sandy Bridge CPU E5-2620 @ 2.7 GHz
64 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10
10Gb Network Card
Key features of this test include

Single bare metal install of Windows Server 2008 R2

Single install of XenApp 6.5 within Windows Server
4.2.3
Host Storage
As there was no SAN or NAS under test - all host level storage was defined within the server. The test
was conducted using 2 x 300GB 15k SAS HDDs within the server
4.2.4
Networking
As part of the testing we used Dell Force10 s4810 10Gb network switches.
Dell Hyperscale VDI – A Detailed White Paper
Persistent and Non-Persistent Desktops: Testing In
Detail
5
Infrastructure Components
5.1
For the persistent and non-persistent VDI desktop testing, we used the Citrix XenDesktop platform to
deliver and broker the virtual desktops that would be load tested:

Provisioning Services 5.6: Used to deploy and broker streamed Virtual Desktops during POC.

Machine Creation Services 5.6: Used to broker persistent desktops created via script.

XenApp v6.5: Used for shared desktops.
Whilst the testing utilised the Citrix product suite previous testing results within Dell, that compare the
2 platforms, indicate that similar density results are expected on the host servers in a VMware View
environment.
5.1.1
Active Directory Prerequisites.
Citrix requires certain changes to Active Directory, in particular a service account to manage the
activity between the Connection Servers, Composer and vCenter. The following items were installed
and verified;

OU for Virtual Desktops (This is where the Virtual Desktops will reside within Active Directory)

User Account for vCenter Server (Service Account for vCenter Operations)

OU for Login VSI users
There are other configurations options outlined in the Citrix documentation however they fall outside
of the scope of our testing and have not been included.
5.1.2
vSphere Prerequisites
A base vSphere infrastructure was provided prior to deploying the Citrix components. All of the
following were installed and verified.

Storage

Networks

ESXi Hosts and vCenter.
Once the prerequisites are in place the XenDesktop Installation is completed. The different Citrix
components and their design considerations are outlined in the following sections of this document.
5.1.3
XenDesktop Desktop Delivery Controller
Citrix XenDesktop Delivery controller manages authentication, brokering, desktop assembly and
delivery. It also allows the use of different hosting infrastructure including VMware vSphere (as used in
this test) or Microsoft Hyper-V.
5.1.4
Citrix Web Interface
Citrix Web Interface is used to allow access to both XenDesktop (desktops) and XenApp (applications).
It acts as the connection point for Citrix Receiver and is used for this purpose in this testing.
Dell Hyperscale VDI – A Detailed White Paper
5.1.5
Citrix License Server
Citrix License server is used as a central administration point for all Citrix infrastructure licensing in the
environment. All of the various Citrix infrastructure components in the test are connect to the license
server.
5.1.6
User Profile Implications
For this test we used different user profiles for 2 scenarios:

For the “Full Fat” persistent desktops we used user profiles.

For the PVS desktops, we used a User Profile Manager v4 from Citrix to redirect user profiles to
a file server on the infrastructure. Typically in production environments, Citrix User Profile
Manager or an alternative user personalization tool such as AppSense, RES or Liquidware Labs
would be utilised.
5.1.7
Master Image VM
The next step of the deployment involved the creation of the “Master” or “Parent” Desktop VM. As the
workloads are going to be tested against a Windows 7 VM, this needs to be built and optimized for use
with XenDesktop. The following configuration was used for the XenDesktop VMs:
Windows 7 Image Used In This Test
2 x vCPU
2GB RAM
No Memory Reservations
40GB C:\
5.1.8
Desktop Pools and User Access
The type of persistent / non-persistent desktop under test is a “Full Fat” image that is provisioned via
PowerCLi through VMware vCenter. Typically desktops are brokered through Citrix Machine Creation
Services, with the exception of the Citrix PVS test which is based on optimized write cache Virtual
desktops delivered and brokered via Citrix Provisioning Services.
5.1.9
Citrix Agent and Receiver
Each of the desktops was running the Citrix Desktop Agent and within each of the Login VSI launchers
we ran the Citrix Receiver software in order to run up the virtual desktop sessions.
5.1.10
Antivirus on the VMs
In order to ensure the environment is as representative of a production environment as possible, AntiVirus was deployed to all servers and virtual desktops. The environment used McAfee VirusScan
Enterprise 8.7i. This was managed centrally by the ePolicy Orchestrator that controls agent
deployment, definition updates and policies.
There are a number of exclusions that were configured to optimise performance of the On-Access
scanning for the testing environment, these are listed in the table below;
Dell Hyperscale VDI – A Detailed White Paper
Exclusion
Exclude
Sub
folders
Read/Write Notes
C:\*.*
Yes
Read
Pagefile.sys
No
Read/write
C:\windows\system32\spool
Yes
Read/write
Print spooler directory – Best practice
C:Program Files\Liquidware
Labs\Connector ID\tntgrd.exe
No
Read/write
Liquidware Labs Stratusphere monitoring agent service
This prevents files from the C drive of the desktops
being scanned since these are scanned prior to setting
the drive as read only, from which point on no
permanent changes will be maintained across reboots
of a machine. Any files written (e.g. temporary files will
be scanned on write)
Table: Antivirus Exclusions
These exclusions were set in a policy on the ePolicy Orchestrator server and deployed to all virtual
desktops within the environment.
Load Generation
5.1.11
5.1.11.1
Login VSI – Login Consultants
The Login VSI tool (developed by Login Consultants) was used to generate the desktop workloads.
Login VSI is a widely used tool for testing VDI environments and server-based computing / terminal
services environments. It installs a standard collection of desktop application software (e.g. Microsoft
Office, Internet Explorer, Adobe Acrobat Reader etc.) on each VDI desktop. It then uses a launcher
system to connect a specified number of users to available desktops within the environment. Once
the user is connected the workload is started via a logon script, which starts the test script once the
user environment is configured by the login script. Each launcher system can launch connections to a
number of 'target' machines (i.e. VDI desktops) the launchers are managed via a Microsoft
Management Console which is used to configure whether the sessions are launched in parallel
(sessions are created from each launcher in a round robin mechanism) or sequential (all sessions to be
connected from each launcher are connected before the next launcher is used).
Assessment/Monitoring Tools
5.1.12
The tools outlined below were used to monitor different aspects of the environment during testing.
These tools complement the results generated by the Login VSI Login tool. Dell used these tools to
analyse the host and desktop performance within the environment and therefore determine the
number of desktop that can be supported by each host (or the overall bundle) in a way that closely
maps to a production environment as is possible.
5.1.12.1
Liquidware Labs Stratusphere UX
Stratusphere UX was used during each test run to gather data relating to User Experience and desktop
performance. Data was gathered at the Host and Virtual Machine layers and reported back to a central
server (Stratusphere Hub). The hub was then used to create a series of “Comma Separated Values”
(.csv) reports which have then been used to generate graphs and summary tables of key information.
In addition the Stratusphere Hub generates a magic quadrate style scatter plot showing the Machine
and IO experience of the sessions. The Stratusphere hub was deployed onto the infrastructure
network therefore its activity did not impact the servers being tested. This infrastructure network
represents an existing customer environment and also includes the following services;
● Active Directory
Dell Hyperscale VDI – A Detailed White Paper
● DNS
● DHCP
● Anti-Virus
● VMware vCenter
Stratusphere UX calculates the User Experience by monitoring key metrics within the Virtual Desktop
environment, the metrics and their thresholds are shown in the following screen shot;
Figure 1: Stratusphere UX metrics
Since each metric has a specified weight these results for each metric are combined to provide an
overall UX score.
5.1.12.2
VMware vCenter
VMware vCenter was used to gather key data (CPU, Memory, DataStore and Network usage) from
each of the desktop hosts during each test run, this data was exported to .csv files for each host and
then consolidated to show data from all hosts.
We also captured the relevant screenshots.
5.1.12.3
Iometer
Iometer is an I/O stress testing tool based on a client–server model, where one instance of the
Iometer graphical user interface is managing one or more 'managers' (each one representing a
separate Dynamo.exe process) which are creating I/O with one or more worker threads. Iometer
performs Asynchronous I/O - accessing files or block devices (later one allowing to bypass the file
system buffers). This allows I/O to be stress randomly over a period of time.
5.2
5.2.1
Testing
Testing Methodology
The testing undertaken by Dell was intended to provide a set of results that were as closely aligned
with a production environment as possible within a lab-based environment. Multiple runs for each
workload were completed to allow the team to understand and record any performance differences
within the environment.
The following testing scenarios were completed for each user workload:
Dell Hyperscale VDI – A Detailed White Paper
● Pipe-Clean Run 1
― The pipe-clean run is used to ensure all components within the environment are
functioning correctly and results are being gathered as expected.
● Run 2,3 – Single Server, Pre-booted
― All hosts are available, all desktops are powered on and ready for users to connect, the
desktops are left to idle for 20 minutes after the last desktop registers as available with the
connection servers. This idle period allows VMware ESXi to have optimised memory
usage through Transparent Page Sharing.
Login VSI has two modes for launching user’s sessions:
● Parallel
― Sessions are launched from multiple launcher hosts in a round robin fashion; this mode is
recommended by Login Consultants when running tests against multiple host servers. In
parallel mode the VSI console is configured to launch a number of sessions over a
specified time period (specified in seconds);
● Sequential
―
Sessions are launched from each launcher host in sequence, sessions are only started
from a second host once all sessions have been launched on the first host and this is
repeated for each launcher host. Sequential launching is recommended by Login
Consultants when testing a single desktop host server. The VSI console is configure to
launch a specified number of sessions at a specified interval specified in seconds.
As all of the configurations under test were Single Server tests, we used the “Sequential” launch mode
exclusively. The single server test runs were configured to launch user sessions every 30 seconds, the
user sessions were left to run for 15 minutes after the last user connected prior to the sessions being
instructed to log out (referred to as “Active State”).
5.2.2
User Workloads
The desktop under test is the Medium Login VSI image.
Details of the vCPU and memory configuration for each of these workloads are defined within the
Citrix Integration section of this report. The tasks undertaken by the users in the workload are outlined
below:
● VSI Medium Workload
― This workload emulates a medium knowledge working using Office, IE and PDF. Once a
session has been started the medium workload will repeat every 12 minutes. During each
loop the response time is measured every 2 minutes. The medium workload opens up to
5 apps simultaneously. The type rate is 160 microseconds for each character.
Approximately 2 minutes of idle time is included to simulate real-world users.;
― Each loop will open and use:
o Outlook 2007, browse 10 messages.
o Internet Explorer, one instance is left open (BBC.co.uk), one instance is browsed to
Wired.com, Lonelyplanet.com and heavy flash app gettheglass.com.
o Word 2007, one instance to measure response time, one instance to review and edit
document.
o
Bullzip PDF Printer & Acrobat Reader, the word document is printed and reviewed to
PDF.
Excel 2007, a very large randomized sheet is opened.
o
o
PowerPoint 2007, a presentation is reviewed and edited.
7-zip: using the command line version the output of the session is zipped.
o
Dell Hyperscale VDI – A Detailed White Paper
Test Results Summary
5.3
The tested configurations, density of sessions at 85% of the constrained resource and the constrained
resource are summarised below:
Configuration
Single Server
Density
IOPs per User
Resource
Constraint
Optimization
Config 1
70
Up to 400
CPU @ 85%
Atlantis ILIO & 15k
internal HDD
Config 2
70
~ 13
CPU @ 85%
Citrix vDisks
(IOPs not stress
tested on this
solution)
Config 3
22
~ 50
(baseline)
HDD Capacity
None
(IOPs not stress
tested on this
solution)
With the Login VSI Medium workload, including 2 vCPUs and 40GB HDD, we saw 2 different resource
constraints when testing without any form of reduced storage provisioning (Citrix PVS vDisks) nor
storage optimisation (Atlantis ILIO):

CPU was the limiting factor across two configurations. Within the tests, we regard the CPU as
constrained between 85% and 90% peak average. This allows for bursts of CPU activity without
compromising the platform;

Disk capacity of the internal disk solutions. Using reduced storage provisioning (Citrix PVS
vDisks) or storage optimisation (Atlantis ILIO) resolved this limitation. We stress tested the
Atlantis ILIO solution for IOPs and achieved an excellent performance. We did not stress test
Citrix PVS vDisks for IOPs – this solution would continue to be constrained by the low level of
IOPs available from the non-optimised internal HDD storage.
At no point in any of the tests were we at risk of a memory constraint. Also, as we had full 10Gb
connectivity across the platform and test harness - no network constraints were encountered. This is
evident in the all of the test results.
Atlantis ILIO was part of several configurations under test. From our testing we observed the following
when Atlantis ILIO was used:

For the 70 persistent desktops the storage utilised on the internal HDDs was reduced from
2.8TB to 40GB;

With IOMeter testing we observed peaks of 20,000 IOPS hitting the Atlantis ILIO NFS
datastore. On the backing disk, this was seen to be well under 1,000 IOPS.
The Atlantis ILLIO VM is deployed via OVF and included deployment services which help automate
installation and configuration.
The following results are a taken from a representative test run for each test type on each of the
configurations.
Dell Hyperscale VDI – A Detailed White Paper
Test Results: Details
5.4
5.4.1
Configuration 1 Part A: XenDesktop with no IOPS burst test - Results
The first configuration under test was the PowerEdge server using Intel Xeon Sandy Bridge processors
with Standard 15K SAS disks optimised with Atlantis ILIO Version 3.2.0.5. This was the configuration of
the Server:
PowerEdge C6220 - 15K drives with Atlantis ILIO
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
256 GB RAM
RAID Controller
6 x 300GB 6GBps 15k SAS 2.5’ Hard Disks – RAID 10
10Gb Network
Key features of this test included:

Full fat desktops brokered via Citrix MCS (Machine Creation Services);

Atlantis ILIO storage optimization.
Atlantis ILIO v3.2.0.5 Virtual Machine
2 x vCPU (No Reservation)
36GB RAM (No Reservation)
700GB NFS Volume (onto 800GB VMFS-5)
To prove the storage optimization that Atlantis ILIO provided, 5 separate tests were run, a pipeclean
test first, then 4 tests to assess performance. Of the performance related tests, we aimed to achieve
optimal CPU and memory utilisation, and this was completed on the final test of 70 persistent virtual
desktops.
The results below are from the recommended configuration of 70 desktops and using Atlantis ILIO
optmisation. Significant storage optimisation was provided by the Atlantis ILIO, with only 40 GB of
storage used by the 70 desktops under test. The level of de-duplication may not always be this
effective as virtual desktop sessions vary by user profile. Also for the test an excellent subjective user
experience was reported from observing the VSI sessions on the Login VSI console. VSIMax was not
reached during the Login VSI run. It is also worth noting that much higher VM densities would be
achieved where each VM is allocated lower resources for CPU, memory and / or HDD capacity.
Dell Hyperscale VDI – A Detailed White Paper
5.4.1.1
Desktop Host Performance – CPU
We can see here that for the 70 user test at the peak of ”Active State” for the VSI test we running at
around 85% CPU. This is our ideal level of this metric for this test. Without Atlantis ILIO the density of
users was constrained by HDD capacity to 22 users.
5.4.1.2
Desktop Host Performance – Memory
Consumed RAM peaked at under 150MB, which is less than 85% of the recommended 192MB
configuration.
Dell Hyperscale VDI – A Detailed White Paper
5.4.1.3
Desktop Host Performance – Disk
Latency NFS
No issue with NFS latency which remains around below 10 milliseconds during the normal session run
time.
Latency VMFS
Dell Hyperscale VDI – A Detailed White Paper
No issues with VMFS latency which remains below 15 milliseconds during the normal run time.
IOPS NFS
Observed IOPs of approximately 900 during normal run time (approx 13 per VM).
IOPS VMFS
IOPs of approximately 800 observed on VMFS disks – well within the disk performance parameters.
Dell Hyperscale VDI – A Detailed White Paper
5.4.1.4
Desktop Host Performance – Network
Network traffic peaking at around 3Gbps proving the benefit of a 10Gbps connection.
Dell Hyperscale VDI – A Detailed White Paper
5.4.1.5
End User Experience – Stratusphere UX
Stratusphere UX showing all user experience to be in the top right hand quadrant – indicating an
excellent performance, as seen from the user perspective.
5.4.1.6
Login VSI
Dell Hyperscale VDI – A Detailed White Paper
Login VSI gradually increasing as users are logged into their virtual desktop sessions. The most
important element of this graph is that it does not display an hockey stick curve. An hockey stick
would indicate a problem with resource utilisation on the host server. Also, VSIMax was not
approached during the test.
Configuration 1 Part B: XenDesktop with IOMeter Burst Test with
internal HDDs - Results
5.4.2
We tested configuration 1 with an Iometer “Burst Test”. The burst test ran inside one of the 70 VMs
running on the host as the VSI Login test was executing and stresses the disk IO of the host.
Here is the outline instruction on how we executed the Iometer burst test:

Install Iometer into one of the VMs;

Load up icf file containing the burst test;

On the disk targets tab select C: drive and increase number of outstanding IOs to 30.
On the access specification tab, add all of the access specifications except idle. The order was not
changed to ensure that the “RUN before testing” is first.
Dell Hyperscale VDI – A Detailed White Paper
The burst test was started just after the VSI Login test start. As the burst test took 3 hours to complete
we made the decision to start it immediately. During the test we observed CPU Max of approx. 93%
during active state which supports Dell’s choice to publish the virtual desktop density at 85% of the
constrained resource – here we can see that the host is utilising part of the CPU headroom we have
allowed for unusual peak activity such as this stress test.
5.4.2.1
Burst Test Desktop Host Performance – CPU
Here we see the CPU peaking at around 93%. Dell recommends virtual desktop density (in this case 70
user sessions) at 85% of the constrained resource. Here we see the ability of the host platform to cope
with unusual peaks in workloads such as this IOPs stress test.
Dell Hyperscale VDI – A Detailed White Paper
5.4.2.2
Burst Test - Desktop Host Performance – Memory
The red line is memory allocated by the hypervisor. The blue line is memory consumed by the host.
This graph demonstrates the consumed memory running at 40GB during the steady state – well
within the server’s capacity. The peak shown during VM start up and login in time at the start of the
graph is also well within Dell’s recommended configuration of 192GB.
5.4.2.3
Burst Test Desktop Host Performance – Disk
NFS Latency
Disk latency as seen by the hypervisor is generally below 10 milliseconds which will be delivering an
excellent user experience, even during this extreme IOPs test.
Dell Hyperscale VDI – A Detailed White Paper
VMFS Latency
Disk latency as seen at the disk is around 5 milliseconds – again, this will be delivering an excellent
user experience, even during this extreme IOPs test.
NFS IOPS
Here we see the extreme IOPs being fed to the Atlantis ILIO virtual machine – peaking at around
20,000 reads and 18,000 writes.
Dell Hyperscale VDI – A Detailed White Paper
VMFS IOPS
Here we see the IOPs being fed by the Atlantis ILIO virtual machine to the internal HDDs in the server
– demonstrating the effectiveness of the storage optimisation provided by ILIO.
5.4.2.4
Burst Test - Desktop Host Performance – Network
Again we see no stress on the 10GbE network connectivity
Dell Hyperscale VDI – A Detailed White Paper
5.4.2.5
End User Experience – Stratusphere UX
Stratusphere UX showing all user experience to be in the top right hand quadrant – indicating an
excellent performance, as seen from the user perspective, even when we have stressed the host server
with an extreme level of IOPs.
Configuration 2: XenDesktop Citrix vDisk Provisioning
Services (No IOPs Burst Testing) – Results
5.5
Citrix Provisioning Services provisions an optimized virtual Desktop which is streamed from a master
image. All that is written to the local storage is the delta file/vDisk.
We used an Intel Xeon Sandy Bridge equipped PowerEdge server with no storage optimizations and
with the PVS provisioning technique defined above.
Dell Hyperscale VDI – A Detailed White Paper
PowerEdge C2206 with PVS
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
256 GB RAM
RAID Controller
6 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10
10Gb Network
Key features of this test include:

Optimised vDisks – virtual desktops delivered by Citrix Provisioning services;

No storage optimization software.
As per the other tests, we are using the Login VSI Medium Windows 7 workload specification.
However as it is a non-persistent desktop top utilising vdisk deltas, it will not consume 40GB on the
underlying disk per virtual desktop but will consume around 70GB of disk for write caching.
In regards to the Citrix Provisioning Server we used, it had the following specification:

2 x vCPU,

24GB RAM,

100GB VMDK D:
For the purposes of this test we also recorded the performance of the PVS Server. Using PVS, we
overcame the storage capacity limitations of the internal HDD storage, as the results show. We were
able to support 70 virtual desktops at 85% CPU peak average utilisation. However, this would still be
limited in its ability to provide IOPs to the virtual desktops. We did not perform the IOPs stress testing
for this configuration. As Atlantis ILIO has the advantage of offering many more IOPs per desktop in
addition to the reduced disk capacity consumption and many organisations are not ready to move to
Citrix vDisks, the Dell recommendation in this paper is to utilise Atlantis ILIO on all persistent and nonpersistent host servers. Atlantis ILIO is also an option to increase IOPs performance in a PVS solution.
Dell Hyperscale VDI – A Detailed White Paper
5.5.1.1
Desktop Host Performance – CPU
As per the tests we ran with the persistent desktops, we saw practically identical CPU consumption for
the PVS test.
Dell Hyperscale VDI – A Detailed White Paper
5.5.1.2
Desktop Host Performance – Memory
Memory consumption of 75GB is well within the specification of the server.
Dell Hyperscale VDI – A Detailed White Paper
5.5.1.3
Desktop Host Performance – Disk
IOPS
Here we see the disk IOPs operating at an average of 7.5 per second, not stressing the host.
Latency
Disk latency peaking at 6 milliseconds will give an excellent user experience.
Dell Hyperscale VDI – A Detailed White Paper
5.5.1.4
Desktop Host Performance – Network
Again we see the network connectivity being within the server’s specification.
Dell Hyperscale VDI – A Detailed White Paper
5.5.1.5
End User Experience – Stratusphere UX
Stratusphere UX showing all user experience to be in the top right hand quadrant – indicating an
excellent performance, as seen from the user perspective.
5.5.1.6
Login VSI
Dell Hyperscale VDI – A Detailed White Paper
Again we see the Login VSI Index Average climbing gently as users are logged into the virtual desktops.
The important aspect of this measure is that it does not “hockey stick” as the server reaches the 70
desktop sessions – thus deomstrating an excellent user experience.
5.5.1.7
PVS Provisioning Server Graphs
CPU
Here we see the provisioning server CPU working hard as virtual desktops are provisioned but then
reducing over time as the desktops move into steady state running.
Dell Hyperscale VDI – A Detailed White Paper
Memory
Here we see the provisioning server memory working hard as virtual desktops are provisioned but then
reducing over time as the desktops move into steady state running.
Datastore
Here we see read requests being busy during creation and steady state running.
Dell Hyperscale VDI – A Detailed White Paper
Network
Here we see the benefit of a 10GbE connection as network traffic peaks at 8Gbps
Configuration 3: Baseline XenDesktop server with 15K HDD,
no storage nor provisioning optimisation
5.6
This configuration was tested to provide a “baseline” where we could gauge performance of the
persistent and non-persistent virtual desktops running on standard 15K SAS drives with no storage
optimizations.
PowerEdge C6220 Server with 15k HDD Internal Storage
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
256 GB RAM
RAID Controller
8 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10
10Gb Network Card
Dell Hyperscale VDI – A Detailed White Paper
Key features of this test include:

8x 300GB 15k SAS HDD;

Full fat virtual desktops brokered via Citrix MCS (Machine Creation Services).
In total we ran 3 tests against this hardware, each with 25 desktops. 25 desktops was based on the
capacity constraints of the internal HDD storage. The VMFS volume was 1.1TB in size – 25 desktops at
40GB each accounted for 1TB of space on the volume.
It is important to note that due to the disk capacity constraint we were not able to drive CPU or
memory stress levels on this platform.
From this test we extrapolated that it would be possible run 20-22 virtual desktops on the server with a
disk configuration of 6 x 15K drives with no storage optimization. This demonstrates the effectiveness
of using Atlantis ILIO storage optimisation or Citrix PVS “thin provisioning” to deliver the required
density on this form factor. Atlantis ILIO also increases the IOPs available to the virtual desktops to
ensure an excellent user experience.
The subjective user experience was excellent.
5.6.1.1
Desktop Host Performance – CPU
CPU Performance not an issue, approx 35% CPU utilization at peak.
Dell Hyperscale VDI – A Detailed White Paper
5.6.1.2
Desktop Host Performance – Memory
Consumed memory of 56GB with Active Memory during active state around 25GB.
5.6.1.3
Desktop Host Performance – Disk
Latency
Disk latency of 4.5 milliseconds will give an excellent user experience.
Dell Hyperscale VDI – A Detailed White Paper
IOPS
IOPs are not stressing the server.
5.6.1.4
Desktop Host Performance – Network
Due to the low number of virtual desktops running in this configuration, the network connectivity was
not stressed.
Dell Hyperscale VDI – A Detailed White Paper
5.6.1.5
End User Experience – Stratusphere UX
As expected, with such a low density of virtual desktops on the host, the user experience reported is in
the top right hand corner, indicating and excellent result. However, we were not stress testing IOPs
during this test which could have given a different user experience result.
5.6.1.6
Login VSI
Login VSI Index Average showing no performance issues.
Dell Hyperscale VDI – A Detailed White Paper
6
Shared Desktops (XenApp)
The objective of these tests was to identify the density of XenApp v6.5 shared desktop user sessions
that can be achieved on the platform under test.
Infrastructure Components
6.1
6.1.1
Active Directory Prerequisites
Citrix requires certain changes to Active Directory, in particular a service account to manage the
activity between the Connection Servers, Composer and vCenter. The following items need to be
configured and are detailed in the configuration workbook:

OU for Virtual Desktops (This is where the Virtual Desktops will reside within Active Directory);
o
We added an additional child OU to house XenApp servers.

User Account for vCenter Server (Service Account for vCenter Operations);

OU for Login VSI users.
There are other configurations options outlined in the Citrix documentation however they fall outside
of the scope of our testing and have not been included.
6.1.2
vSphere Prerequisites
vSphere infrastructure was provided to host the Citrix management servers. vSphere was not a
component on the XenApp servers themselves. All of the following were installed and verified:

Storage;

Networks;

ESXi Hosts and vCenter.
Once the prerequisites are in place the XenDesktop Installation can be started. The different Citrix
components, and their design considerations are outlined in the following sections of this document.
6.1.3
Citrix Web Interface
Citrix Web Interface is used to allow access to both XenDesktop (desktops) and XenApp (applications).
It acts as the connection point for Citrix Receiver and is used for this purpose in the POC.
6.1.4
Citrix License Server
Citrix License server is used as a central administration point for Citrix infrastructure licensing in the
environment. All of the various Citrix infrastructure components in the POC connect to the license
server.
6.1.5
User Profile Implications
For the Session Hosted XenApp desktops, we used a User Profile Manager v4 from Citrix to redirect
user profiles to a file server on the infrastructure. Typically in production environments you would use
Citrix User Profile Manager or another user personalization tool such as AppSense, RES or Liquidware
Labs.
Dell Hyperscale VDI – A Detailed White Paper
6.1.6
Published Desktop Application
The next step of the deployment involved the creation of the Session Hosted Published Desktop. As
we have 2 separate desktops under which the workloads are going to be tested against, we created 2
separate published application desktops, each of which was pointing at either the high specification or
low specification server.
As this was a XenApp test we did not have to define hardware settings at the VM level as per
XenDesktop. These are the settings used for both the XAHighDesktop (High Specification Server) and
XALowDesktop (Low Specification Server).
Dell Hyperscale VDI – A Detailed White Paper
The Login VSI Medium workload was then tested against each of these Published Application
Desktops.
6.1.7
Published Application User Access
For the purpose of the tests we simply provided our “Domain Users” group access to the published
applications.
6.1.8
Citrix Receiver
Each of the Login VSI launchers we ran the Citrix Receiver software in order to run up the published
application.
6.1.9
Antivirus on XenApp
In order to ensure the environment is as representative of a production environment as possible AntiVirus was installed on each XenApp Server. The environment used McAfee VirusScan Enterprise 8.8.
This was managed centrally by the ePolicy Orchestrator which controlled agent deployment,
definition updates and policies.
As per Citrix best practice, there are a number of exclusions that were configured to optimise
performance of the On-Access scanning, these are listed in the table below:
Dell Hyperscale VDI – A Detailed White Paper
Exclusion
Exclude
Sub
folders
Read/Write Notes
C:\*.*
Yes
Read
Pagefile.sys
No
Read/write
C:\windows\system32\spool Yes
Read/write
This prevents files from the C drive of the desktops being
scanned since these are scanned prior to setting the drive
as read only, from which point on no permanent changes
will be maintained across reboots of a machine. Any files
written (e.g. temporary files will be scanned on write)
Print spooler directory – Best practice
Table 1: Antivirus Exclusions
6.2
6.2.1
Load Generation
Login VSI – Login Consultants
The Login VSI tool (developed by Login Consultants) was used to generate the desktop workloads.
This is a widely-used tool for testing VDI environments and server-based computing / terminal
services environments. It installs a standard collection of desktop application software (e.g. Microsoft
Office, Adobe Acrobat Reader etc.) on each VDI desktop. It then uses launcher systems to connect a
specified number of users to available desktops within the environment. Once the user is connected
the workload is started via a logon script which starts the test script once the user environment is
configured by the login script. Each launcher system can launch connections to a number of 'target'
machines (i.e. VDI desktops) the launchers are managed via a Microsoft Management Console which is
used to configure where the sessions are launched in parallel (sessions are created from each
launcher in a round robin mechanism) or sequential (all sessions to be connected from each launcher
are connected before the next launcher is used).
6.3
Assessment/Monitoring Tools
The tools outlined below were used to monitor different aspects of the environment during testing to
understand the host and desktop performance within the environment and therefore determine the
Dell Hyperscale VDI – A Detailed White Paper
number of desktop that can be supported by each host in a way that maps as closely to a production
environment as possible.
T Login VSI Max Graphs/Data has also been captured.
6.3.1
Windows Performance Monitor
For the purpose of the testing we captured key metrics on each of the XenApp Servers using Windows
Performance Monitor. A data collector was configured and setup to capture the following metrics at a
one second interval and then output them to a CSV file.
The following metrics were captured:
6.4
6.4.1
Testing
Testing Methodology
The testing undertaken was intended to provide a set of results that were as closely aligned with a
production environment as is possible within a lab based environment. In addition multiple runs for
each workload were completed to allow the team to understand and record any performance
differences within the environment.
The following testing scenarios were completed for each user workload:
● Pipe-Clean Run 1
― The pipe-clean run is used to ensure all components within the environment are
functioning correctly and results are being gathered as expected;
● Run 2,3 – Single Server, Published Application Desktop
The XenApp server is rebooted and once the server is back online and ready to accept
users sessions the test run is launched from Login VSI.
Login VSI has two modes for launching user’s sessions:
―
Dell Hyperscale VDI – A Detailed White Paper
● Parallel
― Sessions are launched from multiple launcher hosts in a round robin fashion; this mode is
recommended by Login Consultants when running tests against multiple host servers. In
parallel mode the VSI console is configured to launch a number of sessions over a
specified time period (specified in seconds);
● Sequential
Sessions are launched from each launcher host in sequence, sessions are only started
from a second host once all sessions have been launched on the first host, this is repeated
for each launcher host. Sequential launching is recommended by Login Consultants
when testing a single desktop host server. The VSI console is configure to launch a
specified number of session at a specified interval specified in seconds.
As all of the configurations under test were Single Server tests, we used the “Sequential” launch mode
exclusively. The single server test runs were configured to launch user sessions every 30 seconds, the
user sessions were left to run for 15 minutes after the last user connected prior to the sessions being
instructed to log out (referred to as “Active State”).
―
6.5
User Workloads
For this POC – the desktop under test is the Login VSI Medium workload which was launched against
the Published Applications running on both XenApp Servers.
Details of the vCPU and memory configuration for each of these workloads are defined within the
Citrix Integration section of this report. The tasks undertaken by the users in the workload are outlined
below;
● Login VSI Medium Workload
― This workload emulates a medium knowledge working using Office, IE and PDF. Once a
session has been started the medium workload will repeat every 12 minutes. During each
loop the response time is measured every 2 minutes. The medium workload opens up to
5 apps simultaneously. The type rate is 160 ms for each character. Approximately 2
minutes of idle time is included to simulate real-world users.
―
Each loop will open and use:
o Outlook 2007, browse 10 messages.
o Internet Explorer, one instance is left open (BBC.co.uk), one instance is browsed to
Wired.com, Lonelyplanet.com and heavy flash app gettheglass.com.
o
o
o
o
o
Word 2007, one instance to measure response time, one instance to review and edit
document.
Bullzip PDF Printer & Acrobat Reader, the word document is printed and reviewed to
PDF.
Excel 2007, a very large randomized sheet is opened.
PowerPoint 2007, a presentation is reviewed and edited.
7-zip: using the command line version the output of the session is zipped.
Dell Hyperscale VDI – A Detailed White Paper
6.6
Test Result Summary
As outlined in the Executive Summary, from the testing we achieved the following server densities:
Configuration Single Server
Shared Desktop
User Density
Resource
Constraint
CPU
Memory
Config 4
“High Spec”
160
CPU
2 x Intel Xeon
CPU E5-2680
@ 2.7 GHz 8
core
256GB
Config 5
90
CPU
2 x Intel Xeon
CPU E5-2620
@ 2.0 GHz 6
core
128GB
“Lower Spec”
With XenApp testing we were expecting the CPU to be the constraining resource. Therefore we had
decided to test two different configurations of the server, with the customer to decide which would be
the most cost effective option for them, taking into account purchase price, power consumption,
licencing and rack density parameters.
With CPU utilization, we targeted rough utilization of 85% as the threshold (85% being the optimal
threshold defined in Dell across all metrics to allow for “burst” activity to 100%). Given that XenApp in
particular can be “bursty” we arrived at 160 desktops for the “high” specification server. It was noted
that at 160 users CPU was typically between 80 and 90 % and that it would occasionally burst to 100%.
For the “Low” Specification server we hit out 85% metric at 90 users.
In regards to memory utilization, we had excessive amounts of memory in both platforms. The “High”
Specification Server could easily run with 128 GB RAM as we saw around 115 GB utilized with the 160
users. On the lower specification server we saw similar results, and as a result 64GB of RAM would be
more than adequate to run the platform.
As we had full 10Gb connectivity across the platform and test harness, network constraints were
unlikely to be an issue. This is evident in the all of the test results.
In relation to disk performance we did not have a scoped requirement, given that for most XenApp
deployments user and personalization is key it would be more pertinent to examine data storage on
the backend ie where user data is written to. We may organize a follow up exercise to further analyse
storage impact in the environment. However within the test performed there was nothing to suggest
we would hit a storage constraint.
We performed a subjective user test with a separate login to gauge performance. It was noted as
excellent throughout. We used a Dell Wyse X90M7 thin client running WES 7 and the latest Citrix
receiver. We used a HD video on YouTube and launched various office applications, and throughout
observed performance could not be faulted.
Finally we captured Login VSI VSIMAX data and graphs.
In summary, the testing proved the PowerEdge with Intel Xeon Sandy Bridge processors server as an
excellent option for bare metal XenApp deployments. As a result of the testing we would recommend
the following specification for a XenApp bare metal install:
Dell Hyperscale VDI – A Detailed White Paper
PowerEdge C6220 Server – Recommended Specification
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
128 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network Card
It should be noted that we did not make any direct comparison of a bare metal installation against the
density that could be achieved with multiple virtual servers installations as much of this has been
tested elsewhere. We recommend that customers work with Dell on proof of concepts to ensure that
the correct XenApp hosting environment is designed specific to your application environment and
service requirements. In situations where a virtual environment may be beneficial, Atlantis may offer
additional performance and / or density results which were not explored as part of this project.
The following results are a taken from a single representative test run for each test type on each of the
different configurations.
Test Results: Details
6.7
6.7.1
Configuration 4: XenApp High Spec Server – Results
PowerEdge C6220 Server – High Specification XAHIGHDesktop
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 8 core
256 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network
Key features of this test included:

XenApp 6.5 on Windows Server 2008R2;

Login VSI Medium Workload;

High end Intel E5-2680 processor;

160 shared desktop users.
Dell Hyperscale VDI – A Detailed White Paper
6.7.1.1
High Spec Server Performance – CPU
\\DVSXAHIGH\Processor(_Total)\% Processor
Time
120
100
80
60
\\DVSXAHIGH\Processor(_Total
)\% Processor Time
40
20
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
0
For this test we observed typical values at peak average of around 85 to 90% CPU with burst activity to
100%, typical enough of XenApp performance. At these values, subjective performance was excellent.
6.7.1.2
High Spec Server Performance – Memory
\\DVSXAHIGH\Memory\% Committed Bytes In
Use
45
40
35
30
25
20
\\DVSXAHIGH\Memory\%
Committed Bytes In Use
15
10
0
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
5
We can see here that we did not exceed 45% of the 256GB RAM within the server so we specify the
recommended server with 128GB RAM.
Dell Hyperscale VDI – A Detailed White Paper
06/27/2013 09:14:16.994
06/27/2013 09:21:04.055
06/27/2013 09:27:51.085
06/27/2013 09:34:38.094
06/27/2013 09:41:25.085
06/27/2013 09:48:12.117
06/27/2013 09:54:59.136
06/27/2013 10:01:46.164
06/27/2013 10:08:33.179
06/27/2013 10:15:20.196
06/27/2013 10:22:07.203
06/27/2013 10:28:54.229
06/27/2013 10:35:41.228
06/27/2013 10:42:28.211
06/27/2013 10:49:15.215
06/27/2013 10:56:02.265
06/27/2013 11:02:49.283
06/27/2013 11:09:36.307
06/27/2013 11:16:23.319
06/27/2013 11:23:10.343
06/27/2013 11:29:57.378
06/27/2013 09:14:16.994
06/27/2013 09:21:04.055
06/27/2013 09:27:51.085
06/27/2013 09:34:38.094
06/27/2013 09:41:25.085
06/27/2013 09:48:12.117
06/27/2013 09:54:59.136
06/27/2013 10:01:46.164
06/27/2013 10:08:33.179
06/27/2013 10:15:20.196
06/27/2013 10:22:07.203
06/27/2013 10:28:54.229
06/27/2013 10:35:41.228
06/27/2013 10:42:28.211
06/27/2013 10:49:15.215
06/27/2013 10:56:02.265
06/27/2013 11:02:49.283
06/27/2013 11:09:36.307
06/27/2013 11:16:23.319
06/27/2013 11:23:10.343
06/27/2013 11:29:57.378
6.7.1.3
High Spec Server Desktop Host Performance – Disk
\\DVSXAHIGH\PhysicalDisk(_Total)\Disk
Transfers/sec
2500
2000
1500
1000
500
0
\\DVSXAHIGH\PhysicalDisk(_To
tal)\Disk Transfers/sec
\\DVSXAHIGH\PhysicalDisk(_Total)\Avg. Disk
Write Queue Length
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
Dell Hyperscale VDI – A Detailed White Paper
\\DVSXAHIGH\PhysicalDisk(_To
tal)\Avg. Disk Write Queue
Length
Disk performance would be completely dependent on the setup of user profiles and data
management, in the tests we used Citrix Profile Manager. As evidenced by the queue lengths we did
not run into any issues with storage.
6.7.1.4
High Spec Server Desktop Host Performance – Network
\\DVSXAHIGH\Network Interface(Intel[R] 82599
10 Gigabit Dual Port Network Connection)\Bytes
Total/sec
14000000
12000000
10000000
8000000
\\DVSXAHIGH\Network
Interface(Intel[R] 82599 10
Gigabit Dual Port Network
Connection)\Bytes Total/sec
6000000
4000000
0
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
06/27/2013…
2000000
Network utilisation peaked at around 1.2Gbps. As we were running the server using the 10Gbps
network card, network performance was not an issue. We would recommend 10Gbps networking
hyperscale deployment going into the tens of thousands of users.
6.7.1.5
High Spec Server Login VSI
Dell Hyperscale VDI – A Detailed White Paper
For this test we did not reach VSIMax. As we had established a resource constraint at 85 to 90 % CPU
this matches the Dell approach to the optimal density of desktops.
6.7.2
Compute Configuration 5: XenApp Low Spec Server – Results
The second configuration under test was the PowerEdge server with a lower specification of Intel
Xeon Sandy Bridge processors, chosen to evaluate a lower cost and lower user density option.
PowerEdge C6220 Server – lower spec - XALOWDESKTOP
2 x Intel Xeon CPU E5-2620 @ 2.0 GHz 6 core
128 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network Card
Key features of this test include:

Intel E5-2620 6 core CPU @ 2.0GHz;

Login VSI Medium Workload;

Identical bare metal XenApp installation as per “High” Specification server;

90 shared desktop users.
6.7.2.1
Low Spec Server Desktop Host Performance – CPU
\\DVSXALOW\Processor(_Total)\% Processor
Time
120
100
80
60
\\DVSXALOW\Processor(_Total)
\% Processor Time
40
0
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
20
Dell Hyperscale VDI – A Detailed White Paper
As per the test on the high specification server, CPU was the resource constraint, as anticipated. Once
we had reached a point of where the CPU was running consistently between 85% and 90% we did not
log on any additional sessions. We had 90 users connected and running the VSI test at this level of
CPU utilisation.
6.7.2.2
Low Spec Server Desktop Host Performance – Memory
\\DVSXALOW\Memory\% Committed Bytes In
Use
50
45
40
35
30
25
20
15
10
5
0
06/28/2013 09:19:56.441
06/28/2013 09:24:02.317
06/28/2013 09:28:08.282
06/28/2013 09:32:14.275
06/28/2013 09:36:20.282
06/28/2013 09:40:26.292
06/28/2013 09:44:32.281
06/28/2013 09:48:38.268
06/28/2013 09:52:44.251
06/28/2013 09:56:50.241
06/28/2013 10:00:56.220
06/28/2013 10:05:02.211
06/28/2013 10:09:08.246
06/28/2013 10:13:14.256
06/28/2013 10:17:20.271
06/28/2013 10:21:26.283
06/28/2013 10:25:32.286
06/28/2013 10:29:38.300
06/28/2013 10:33:44.308
06/28/2013 10:37:50.329
06/28/2013 10:41:56.319
06/28/2013 10:46:02.307
06/28/2013 10:50:08.319
\\DVSXALOW\Memory\%
Committed Bytes In Use
Similar to the high specification server we used approximately 45% of the 128GB RAM within the
server. We recommend 64GB RAM for the lower specification server.
Dell Hyperscale VDI – A Detailed White Paper
06/28/2013 09:19:57.430
06/28/2013 09:24:55.305
06/28/2013 09:29:53.266
06/28/2013 09:34:51.274
06/28/2013 09:39:49.286
06/28/2013 09:44:47.278
06/28/2013 09:49:45.262
06/28/2013 09:54:43.248
06/28/2013 09:59:41.221
06/28/2013 10:04:39.212
06/28/2013 10:09:37.254
06/28/2013 10:14:35.264
06/28/2013 10:19:33.280
06/28/2013 10:24:31.291
06/28/2013 10:29:29.295
06/28/2013 10:34:27.315
06/28/2013 10:39:25.323
06/28/2013 10:44:23.306
06/28/2013 10:49:21.319
0
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
06/28/2013…
Low Spec Server Desktop Host Performance – Disk
\\DVSXALOW\PhysicalDisk(_Total)\Disk Write
Bytes/sec
35000000
30000000
25000000
20000000
15000000
10000000
\\DVSXALOW\PhysicalDisk(_Tot
al)\Disk Write Bytes/sec
5000000
\\DVSXALOW\PhysicalDisk(_Total)\Disk Read
Bytes/sec
25000000
20000000
15000000
10000000
5000000
0
\\DVSXALOW\PhysicalDisk(_Tot
al)\Disk Read Bytes/sec
We did not have any storage concerns for the scenario under test.
Dell Hyperscale VDI – A Detailed White Paper
06/28/2013 09:19:57.430
06/28/2013 09:24:40.316
06/28/2013 09:29:23.266
06/28/2013 09:34:06.275
06/28/2013 09:38:49.279
06/28/2013 09:43:32.281
06/28/2013 09:48:15.266
06/28/2013 09:52:58.254
06/28/2013 09:57:41.230
06/28/2013 10:02:24.222
06/28/2013 10:07:07.233
06/28/2013 10:11:50.261
06/28/2013 10:16:33.267
06/28/2013 10:21:16.271
06/28/2013 10:25:59.286
06/28/2013 10:30:42.311
06/28/2013 10:35:25.309
06/28/2013 10:40:08.323
06/28/2013 10:44:51.313
06/28/2013 10:49:34.319
6.7.2.3
Low Spec Server Desktop Host Performance – Network
\\DVSXALOW\Network Interface(Intel[R] 82599
10 Gigabit Dual Port Network Connection)\Bytes
Total/sec
9000000
8000000
7000000
6000000
5000000
4000000
3000000
2000000
1000000
0
Network performance not an issue.
Dell Hyperscale VDI – A Detailed White Paper
\\DVSXALOW\Network
Interface(Intel[R] 82599 10
Gigabit Dual Port Network
Connection)\Bytes Total/sec
7
About the Author and Contributors
Neil Hallworth is the UK Enterprise Data Centre Strategist for Dell’s Global Enterprises market segment.
Neil has over 20 years experience in the IT industry including developer, operational, project
management, audit and architectural roles. 14 years in the banking industry culminated in leading the
x86 server infrastructure architecture team for a major UK retail bank where Neil was responsible for 5
year strategy across all infrastructure platforms and 3 year investment planning & ownership of
direction & architectural assets for the bank’s x86 server platforms including hardware, virtualisation,
Windows & Linux operating systems and a number of infrastructure applications. At Dell Neil assists
customers with their strategic planning and identifies frequently occurring customer challenges for
which he then identifies new or significantly revised Dell solutions to bring value to our customers.
Mike J Hayes is a Solutions Architect working at the Dell Solution Centre in Limerick, Ireland.
Responsible for End User Computing engagements at the Centre in EMEA, Mike has a strong
background in Desktop and Server Virtualization with over 15 years’ experience working in Enterprise
class IT environments. Heavily skilled in Microsoft, VMware and Citrix platforms, Mike primarily works
on design workshop and Proof Of Concept activity around VDI. Mike was Lead Architect on Dell’s first
DVS VMware View based reference architecture which has evolved into todays “DVS Enterprise”
offering from Dell.
Paul Wynne is a Solutions Engineer in the Dell Cloud Client Computing Team Based at the Limerick
Solutions Centre. A Storage and Virtualization expert Paul has built up 15 years of enterprise I.T and
Engineering experience. Working with the cloud Client Computing team Paul is heavily involved in the
Development and validation of Dell's published VDI Reference Architectures. In addition Paul delivers
customer and Partner briefings at Dell Solutions Centres.
Dell Hyperscale VDI – A Detailed White Paper
8
Hardware and Software Components
This section of the document lists typical configurations for each of the desktop workloads. For nonpersistent and hosted shared desktops we offer a solution for a traditional “lights out” approach to
hardware management, in addition to a more dense, lower cost “grid” or “Web 2.0” approach to
hardware management.
8.1
Persistent Desktop Typical Hardware Configurations
Dell recommends that customers adopt our PowerEdge blade or rack servers and Atlantis ILIO storage
optimization software for these workloads. These PowerEdge servers have full-featured “lights out”
hardware management capability and are best suited to the requirement to provide the highest level of
service at the infrastructure layer. Note that Dell offers a full range of server form factors and
configurations to meet a wide variety of customer needs. The list below is based on Dell’s view of
how to best deliver Hyperscale VDI, but your needs may differ – Dell will engage with you pro-actively
to identify the correct solution for your environment.
Persistent Desktop Compute – Rack Server - Dell PowerEdge R620
With Full “lights out” iDRAC Hardware Management
8.1.1
A dense 2-socket, 1U rack server, the Dell™ PowerEdge™ R620 has a large memory footprint and
impressive I/O options that make it an exceptional platform for space-sensitive environments, utilising
Intel Xeon E5-2600 (Sandy Bridge) or E5-2600v2 (Ivy Bridge) processors.
Feature
Form factor
Processors
Processor sockets
Internal interconnect
Cache
Chipset
Memory1
I/O slots
RAID controller
Drive bays
Maximum internal storage1
Hard drives
Dell Hyperscale VDI – A Detailed White Paper
PowerEdge R620 technical specification
1U rack
Intel® Xeon® processor E5-2600 or E5-2600v2 product family
2
2 x Intel QuickPath Interconnect (QPI) links: 6.4 GT/s, 7.2 GT/s, 8.0 GT/s
2.5MB per core; core options: 2, 4, 6, 8
Intel C600
Up to 768GB (24 DIMM slots): 2GB/4GB/8GB/16GB/32GB DDR3 up to 1600MT/s
3 PCIe slots: (10-drive-bay configuration is available only with the 3 PCIe slot option)
Two x16 slots with x16 bandwidth, half-height, half-length
One x16 slot with x8 bandwidth, half-height, half-length
or
2 PCIe slots:
One x16 slot with x16 bandwidth, full-height, 3/4 length
One x16 slot with x16 bandwidth (or x8 with one processor only), half-height, half-length
Internal controllers:
External HBAs (RAID):
PERC S110 (SW RAID)
PERC H810
PERC H310
External HBAs (non-RAID):
PERC H710
6Gbps SAS HBA
PERC H710P
Up to ten 2.5” hot-plug SAS, SATA, or SSD or up to four hot-plug 2.5” SAS, SATA, or SSD + two PCIe
SSD
Up to 10TB
Hot-plug hard drive options:
2.5” PCIe SSD, SAS SSD, SATA SSD, SAS (15K, 10K), nearline SAS (7.2K), SATA (7.2K)
Self-encrypting drives available
Embedded NIC
Power supply
Availability
Remote management
Systems management
Rack support
Operating systems

Broadcom® 5720 Quad Port 1GbE BASE-T (no TOE or iSCSI offload)
Intel I350 Quad Port 1GbE BASE-T (no TOE or iSCSI offload)
Intel X540 Dual Port 10GbE BASE-T with 2 x 1GbE (FCoE capability enabled on the 10GbE ports)
Broadcom 57800S Dual Port 10GbE Base-T with 2 x 1GbE (TOE and iSCSI offload available on
10GbE ports
Broadcom 57800S Dual Port 10GbE SFP+ with 2 x 1GbE (TOE and iSCSI offload available on
10GbE ports
Auto-ranging Titanium efficiency, hot-plug redundant 750W AC power supply; Auto-ranging
Platinum efficiency, hot-plug redundant 495W, 750W or 1100W AC power supply; 1100W DC
power supply
High-efficiency, hot-plug, redundant power supplies; hot-plug hard drives; TPM; dual internal SD
support; hot-plug, redundant fans; optional bezel; information tag; ECC memory; interactive LCD
screen; extended thermal support; ENERGY STAR ® compliant; switch independent partitioning
iDRAC7 with Lifecycle Controller
iDRAC7 Express (default), iDRAC7 Enterprise (upgrade option), 8GB vFlash media (upgrade
option), 16GB vFlash media (upgrade option)
IPMI 2.0 compliant
Dell OpenManage™ Essentials and Dell Management Console
Dell OpenManage Power Center
Dell OpenManage Connections:
OpenManage Integration Suite for Microsoft® System Center
Dell plug-in for VMware® vCenter™
HP Operations Manager, IBM Tivoli® Netcool® , and CA Network and Systems Management
ReadyRails™ II sliding rails for tool-less mounting in 4-post racks with square or unthreaded
round holes or tooled mounting in 4-post threaded hole racks, with support for optional tool-less
cable management arm
ReadyRails static rails for tool-less mounting in 4-post racks with square or unthreaded round
holes or tooled mounting in 4-post threaded and 2-post (Telco) racks
Microsoft® Windows Server® 2012
Virtualization options:
Microsoft Windows Server 2008 R2 SP1, x64 (includes Hyper-V® v2)
Citrix® XenServer®
Microsoft Windows® Small Business Server 2011
VMware vSphere® including ESX™ and
Novell® SUSE® Linux Enterprise Server
ESXi™
Red Hat® Enterprise Linux®
Red Hat Enterprise Virtualization®
For more information on the specific
versions and additions, visit
Dell.com/OSsupport.
Recommended server specification:
o
PowerEdge R620, 1U, servers will full iDRAC hardware systems management;
o
Atlantis iLIO storage optimization appliance.
VDI – PowerEdge Sandy Bridge R620 with iLIO
2 x Intel Xeon Sandy Bridge E5-2680 @ 2.7 GHz
192 GB RAM
H710 RAID controller
10Gb Network
VMware vSphere ESXi 5.0 on MicroSD
VDI – PowerEdge Ivy Bridge R620 with iLIO
2 x Intel Xeon Ivy Bridge E5-2680v2 @ 2.8 GHz
256 GB RAM
H710 RAID controller
10Gb Network
VMware vSphere ESXi 5.0 on MicroSD
Dell Hyperscale VDI – A Detailed White Paper
Compute – Blade Server – Dell M620 With Full “lights out” iDRAC
Hardware Management
8.1.2
An exceptionally feature-rich 2-socket blade server, the Dell™ PowerEdge™ M620 is designed for
maximum performance combined with extreme density and power efficiency utilising Intel Xeon E52600 or E5-2600v2 processors.
Feature PowerEdge M620 Technical Specification
Form Factor; Enclosure Half-height blade;
Processors
Internal Interconnect
Cache
Memory
Chipset
Video
Primary Storage
Maximum internal storage:
External storage:
USB Ports
I/O Mezzanine Card Options
Ethernet:
Dell™ PowerEdge™ M1000e Blade Enclosure
Intel® Xeon® processor E5-2600 & E5-2600v2 product family
Intel QuickPath Interconnect (QPI): 6.4 GT/s; 7.2 GT/s; 8.0 GT/s
2.5MB per core; core options: 2, 4, 6, 8
Up to 768GB (24 DIMM Slots): 2GB/4GB/8GB/16GB/32GB DDR3 up to
1600MHz
Intel C600
Integrated Matrox® G200
Hot-plug hard drive options: Up to two 2.5” PCIe SSD, SATA
HDD/SSD, or SAS HDD/SSD
Up to 1.2TB
for information about Dell external storage options, visit
Dell.com/Storage
2 front, 1 internal
Broadcom® Quad Port 5719
Broadcom Dual Port Gb Ethernet with TOE (BCM-5709S)
Intel® Quad Port Gb Ethernet
Broadcom Quad Port Gb Ethernet (BCM-5709S)
Intel Dual Port 10Gb Ethernet
Broadcom Dual Port 10Gb Ethernet (BCM-57711)
Brocade® BR1741M-k Dual Port Mezzanine CNA
10Gb Enhanced Ethernet & Converged Network Adapters (CEE/DCB/FCoE):
Fibre Channel:
Infiniband:
Intel Dual Port 10Gb Enhanced Ethernet (FCoE Ready for Future
Enablement)
Emulex® Dual Port Converged Network Adapter (OCM10102-F-M)
supports CEE/DCB 10GbE + FCoE
QLogic® Dual Port Converged Network Adapter (QME8142)—supports
CEE/DCB 10GbE + FCoE
QLogic Dual Port Converged Network Adapter (QME8242-k)
supports 10GbE + NPAR
QLogic Dual Port FC8 Fibre Channel Host Bus Adapter (HBA)
(QME2572)
Emulex Dual Port FC8 Fibre Channel Host Bus Adapter (HBA)
(LPe1205-M)
Mellanox® Dual Port Quad Data Rate (QDR) and FDR InfiniBand
Dell Hyperscale VDI – A Detailed White Paper
I/O Slots
Fully populated mezzanine card slots and switch modules will yield 3
redundant I/O fabrics per blade
Dell Select Network Adapter (Network Daughter
Card)
2 x 10GbE KR Broadcom (BCM57810S bNDC)
2 x 10GbE KR QLogic bNDC
2 x 10GbE KR Intel i520 bNDC
RAID Controller
Internal controllers:
PERC S110 (SW RAID)
PERC H310
PERC H710
PERC H710P
Supplied by Dell PowerEdge M1000e Blade Enclosure
iDRAC7 with Lifecycle Controller for Blades (default), iDRAC Enterprise
with Lifecycle Controller (upgrade option)
Power Supplies and Fans
Remote Management
Systems Management
IPMI 2.0 compliant
Dell OpenManage™ Essentials and Dell Management Console
Dell OpenManage Power Center
Dell OpenManage Connections:
• OpenManage Integration Suite for Microsoft ® System Center
• Dell plug-in for VMware® vCenter™
• HP Operations Manager, IBM Tivoli® Netcool®, and CA Network and
Systems Management
Operating Systems
Microsoft Windows Server® 2008 R2 SP1, x64 (includes Hyper-V™ v2)
Microsoft Windows® Small Business Server 2011
SUSE® Linux® Enterprise Server
Red Hat® Enterprise Linux
Virtualization options:
Citrix® XenServer™
VMware® vSphere™
For more information on the specific versions and additions, visit
Dell.com/OSsupport.
Two internal SD cards dedicated for hypervisor
One dedicated for vFlash media support
Embedded Hypervisor
For more information about the Dell blade solution, see the PowerEdge M1000e Technical Guide or the
M1000e Blade Chassis Specification Sheet.

Recommended server specification:
o
PowerEdge R620, 1U, servers will full iDRAC hardware systems management:
o
Atlantis iLIO storage optimization appliance
VDI – PowerEdge Sandy Bridge M620 with iLIO
2 x Intel Xeon Sandy Bridge E5-2680 @ 2.7 GHz
192 GB RAM
H710 RAID controller
10Gb Network
VMware vSphere ESXi 5.0 on MicroSD
Dell Hyperscale VDI – A Detailed White Paper
VDI – PowerEdge Ivy Bridge R620 - with iLIO
2 x Intel Xeon Ivy Bridge E5-2680v2 @ 2.8 GHz
256 GB RAM
H710 RAID controller
10Gb Network
VMware vSphere ESXi 5.0 on MicroSD
8.1.3
Storage For Persistent Desktops
Dell Compellent Storage Center SC8000
The Dell™ Compellent™ Storage Center™ SAN is an all-in-one storage array that allows organizations
to actively manage data at a highly granular level using built-in intelligence and automation. This ultraefficient, easy-to-manage storage solution optimizes drive utilization, dynamically moves data
between storage tiers and RAID levels, continuously protects data against downtime and disaster,
scales on demand, and quickly adapts to ever-changing business needs. Storage Center enables
organizations to cut the time, cost and risk of managing enterprise storage—today and in the future.
Dell Compellent SC8000 Tech Specs
Product operating system
OS support
Processor
Memory (Read Cache)
Storage capacity
Drive interfaces
Disk drives:
SAS SSD (2.5-inch)
Dell Hyperscale VDI – A Detailed White Paper
Storage Center 6.1 or later
Microsoft® Windows® Server, Solaris, HP-UX, Linux, IBM AIX, Novell NetWare, Apple,
Tru64, VMware®
Two 2.5 GHz Six-Core (Sandy Bridge) Intel™ processors per controller
16GB2 to 64GB total available cache per controller, with a maximum 128GB per dual
controller system (a dual controller configuration is required to support full high
availability and failover capabilities in production
Each system supports up to 960 SAS drives. The maximum usable capacity supported by
a system varies based on configuration. Each 3.5” SAS enclosure holds up to 12 SAS
drives. Each 2.5” SAS enclosure holds up to 24 SAS drives.
SAS and NL-SAS drives.3 Backwards compatible with existing Compellent Fibre Channel
and SATA drives. Different drive types, transfer rates and rotational speeds can be
mixed in same system.
200GB SAS
400GB SAS (supported on SC220)
SAS SSD (3.5-inch)
Fibre Channel HDD (3.5-inch)
SAS HDD (2.5-inch)
SAS HDD (3.5-inch)
RAID
Connectivity:
Front-end connectivity
Maximum front-end ports
Back-end connectivity
Maximum back-end ports
Chassis
Storage controller
Environmental operating conditions
SC8000 controller
200GB SAS (supported on SC200)
400GB SAS (supported on SC200)
300GB 15K RPM
450GB 15K RPM
600GB 15K RPM
146GB 15K RPM
300GB 15K RPM
600GB 10K RPM
900GB 10K RPM
1TB 7.2K RPM
450GB 15K RPM
600GB 15K RPM
1TB 7.2K RPM
2TB 7.2K RPM
3TB 7.2K RPM
4TB 7.2K RPM (requires Storage Center 6.2.2 or later)
Supports RAID 0, 5, 6 and 10. Any combination of RAID levels can exist on a single
Storage Center. Multiple RAID levels can exist on the same storage tier within an array.
Fibre Channel (4Gb, 8Gb), iSCSI (1Gb, 10Gb), FCoE (10Gb)
Simultaneous interface support
16 (Fibre Channel), 10 (1Gb iSCSI), 10 (10Gb iSCSI), 10 (FCoE) per controller. NOTE:
SC8000 controller can support up to 16 FC front-end ports with 4-port low-profile SAS
back-end IO option.
SAS (6Gb, 3Gb), Fibre Channel (2Gb, 4Gb, 8Gb)
16 (FC), 10 (SAS) per controller
NOTE: No SATA ports, FC and SATA enclosures are connected to FC8 IO card.
Rack size: 2U
Height: 87.3 mm (3.44 inch)
Width: 482.4 mm (18.98 inch) with rack latches
444 mm (17.08 inch) without rack latches
Depth: 755.8 mm (29.75 inch) with bezel
Weight: 19.73 kg (43.5 lbs)
Power: Dual, Redundant 750W 80 Plus® Platinum-certified power supplies4
Heat Dissipation: 2891 BTU/hr rated Power Supply
Operating Temperature: 50 - 95°F (10 - 35°C)
Non-Operating Temperature: -40 - 149°F (-40 - 65°C)
Operating Humidity Ranges (non-condensing): Operating, 20% to 80%
Non-Operating Humidity (non-condensing):
Dell Compellent SC220
Underpinning the storage controller, Dell recommends the following storage capacity product. We
specify this with a mix of SSDs and fast HDDs to complement the “thin” requirement for SAN when
using the Dell Hyperscale VDI solution.
The SC220 is a 2U 6Gb SAS enclosure that supports up to twenty four (24) 2.5” disk drives. Supported
2.5” drives can include a mix of drive speed and capacity in any slot within the enclosure, including
SSD drives.
Expansion Enclosure
SC220
Interface Speed
6Gb/s SAS
Drive Support
SAS
Intermixed Drive Capacities
Yes
Max Number of Drives per Enclosure
24
Max Number of Drives per Array - Externally
Communicated
Max Number of Drives per Array - Tested and Supported
Redundant and Hot-swappable Power Supplies
Dell Hyperscale VDI – A Detailed White Paper
960
1008
Yes
Non-Persistent Desktop and Shared Desktop Typical
Hardware Configurations
8.2
Dell recommends that customers adopt our PowerEdge C high density, low cost servers for these
workloads. Note that Dell offers a full range of server form factors and configurations to meet a wide
variety of customer needs. The list below is based on Dell’s view of how to best deliver Hyperscale
VDI, but your needs may differ – Dell will engage with you pro-actively to identify the correct solution
for your environment. PowerEdge M620 blade or R620 rack servers as an option for those
datacentres that continue to require fully featured “lights out” hardware management capability.
8.2.1
Compute – Rack Server - Dell PowerEdge C6220 II
Designed with your needs in mind
High-performance workloads such as VDI and shared desktops rely heavily on compute performance,
memory bandwidth, and overall efficiency to drive time and cost savings that impact a server’s total
cost of ownership (TCO).
The next-generation Dell™ PowerEdge C6220 II servers provide an ideal solution for such demanding
environments and feature the latest Intel Xeon E5-2600v2 Ivy Bridge processors for improved
performance and efficiency. This scale-out building block is a true workhorse with up to four 2-socket
server nodes in a highly-flexible 2U shared infrastructure chassis. (At the time of writing, the C6220 is
also available using Intel Xeon E5-2600 Sandy Bridge processors).
With up to 24 cores per node, memory bandwidth up to 1866MT/s, and dynamic drive assignment, the
PowerEdge C6220 II delivers new levels of performance that can be tailored to customer
requirements while offering increased flexibility and reliability over traditional rack mounted servers.
Deliver results faster and more securely
Computationally-intense workloads demand performance, from processors to memory to connected
devices. The PowerEdge C6220 II features Intel Xeon E5-2600v2 processors with increased core
counts of up to 50% over prior E5-2600 models, as well as 50% more cache. Those improvements
deliver performance enhancements of up to 40%, allowing you to do more with less and get results
faster than ever before.
In addition to this leap in processor performance, the PowerEdge C6220 II server supports up to
512GB of memory per server node — with up to four nodes per chassis — for a total of 2TB of memory
in a highly-dense, 2U solution. Memory bandwidth has also been improved substantially with support
for 1866MT/s DDR3 DIMMs, reducing bottlenecks for memory-intensive applications.
Support for up to two 2U nodes with additional PCIe expandability or four 1U nodes to maximize
compute density lets you tailor resources as needed over time. Each C6000 chassis supports up to
Dell Hyperscale VDI – A Detailed White Paper
24x 2.5” or 12x 3.5” drives with multiple SATA and SAS options for up to 48TB of storage capacity. With
the expander backplane option, dynamic drive assignment for 2.5” drives provides even more flexibility
by zoning any number of drives to each node, giving nodes additional or fewer storage resources as
workloads demand.
Chassis
2U rack mount
Processors
Up to four 2-socket servers, 4, 6, 8, 10 or 12 cores per processor
Intel Xeon processor E5-2600v2 product family, with L3 cache: up to 30MB
Memory
16 DIMM slots for up to
512GB per node:
Chipset
4GB/8GB/16GB LV (1.35V) DDR3 RDIMM (1600MT/s)
4GB LV DDR3 UDIMM (1600MT/s)
4GB/8GB/16GB (1.5V) DDR3 RDIMM (1866MT/s)
32GB LV DDR3 RDIMM (1333MT/s)
Intel C602 chipset
Video
Integrated AST2300 with up to 16MB video RAM
Primary storage
Maximum internal storage: 48TB SATA or NL 48TB SAS
Drive bays and hard
drives
24 x 2.5” or 12 x 3.5” hard drive options
2.5” SAS (15K): 146GB, 300GB
2.5” SAS (10K): 600GB, 900GB, 1.2TB
2.5” SATA: 500GB, 1TB
2.5” NL SAS (7.2K): 1TB
2.5” SATA SSD (eMLC): 100GB, 200GB, 400GB, 800GB
3.5” SATA (7.2K): 1TB, 2TB, 3TB, 4TB
3.5” SAS (15K): 600GB
3.5” NL SAS (7.2K): 2TB, 3TB, 4TB
Connectivity
Intel Ethernet Controller i350, 2 x 1Gb Ethernet; 1 x 100Mb Ethernet dedicated management port
USB ports
2 external ports
I/O slots
1U-node version: 1 x8 mezzanine, 1 x16 half-height (low profile), half-length slot
2U-node version: 1 x8 mezzanine slot; 1 x16 full-height, half-length slot; 1 x16 full-height, full-length slot
I/O adapter options
1Gb Ethernet
Intel i350 quad-port 1Gb
adapter
Intel 82580 ET quad-port
1Gb mezz
10Gb Ethernet
Intel 82599 dual-port 10Gb
DA/SFP + mezz
Intel X520 dual-port 10Gb
DA/SFP + mezz
Drive and RAID
controllers
Intel C602: SATA or SSD drives only
LSI® 2008 6Gbs SAS mezzanine (optional)
LSI 9265-8i 6Gbs SAS add-in controller (optional)
Power supplies
Dual hot-plug redundant high-efficiency 1200W or 1400W power supplies
Fans
Shared cooling with quick-disconnect 4 x 60mm speed fans detectable with PWM control
Operating systems
Novell® SUSE® Linux Enterprise Server 11 SP2
Red Hat® Enterprise Linux®
Microsoft® Windows Server® 2012
Microsoft Windows Server 2008 R2 Enterprise x64 SP1
Microsoft Windows® HPC Server 2008 R2 x64 SP1
Server management
Embedded BMC with IPMI 2.0 support with 1 x 10/100 Mbps RJ45 connector
Intel Node Manager 2.0 compliant
Hypervisors
Citrix® XenServer®
VMware® vSphere® ESXi™
Microsoft Hyper-V® Server 2008 R2 SP1
Dell Hyperscale VDI – A Detailed White Paper
InfiniBand
Mellanox® ConnectX®-2 QDR dual-port mezz
Mellanox ConnectX-3 FDR single-port mezz
Dell X410 host interface card (HIC) for connection to the C410x

Non-persistent desktop recommended server specification:
o
PowerEdge servers – 4 servers of 2 x Intel Xeon Sandy Bridge E5-2680, 192GB, 6 x
internal 300GB 15k HDDs in 2U of rack space;
o
Atlantis ILIO storage optimization appliance.
PowerEdge C6220 Sandy Bridge Non-Persistent Server
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
256 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network
PowerEdge C6220 Ivy Bridge Non-Persistent Server
2 x Intel Xeon Sandy Bridge CPU E5-2680v2 @ 2.8 GHz
256 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network

Shared desktop (XenApp) recommended hardware specification:
o
PowerEdge servers – 4 servers of 2 x Intel Xeon Sandy Bridge E5-2680, 128GB, 2 x
internal 300GB 15k HDDs in 2U of rack space
PowerEdge C6220 Sandy Bridge XenApp Server
2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz
128 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network
Dell Hyperscale VDI – A Detailed White Paper
PowerEdge C6220 Ivy Bridge XenApp Server
2 x Intel Xeon Sandy Bridge CPU E5-2680v2 @ 2.8 GHz
192 GB RAM
RAID Controller
2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1
10Gb Network
Storage Optimization Software for Persistent, Non-Persistent
and Temporarily Persistent Solutions***
8.3
Atlantis ILIO is VDI storage and performance optimization software solution that is integrated with the
Dell Hyperscale persistent and non-persistent VDI solutions to optimize storage utilization, boost
desktop performance, and enable large, highly scalable VDI deployments. Atlantis ILIO is a unique and
innovative storage optimization technology that fundamentally changes the economics and
performance characteristics of VDI by intelligently optimizing how virtual machines interact with
storage.
Atlantis ILIO In-Memory Storage technology addresses the storage issues in virtual desktop
environment with a 100% software solution that reduces physical storage requirements by up to 90%,
while handling read and write IO at memory speeds. Through a combination of patent-pending
technologies, Atlantis ILIO reduces the IO workload that primary storage must handle while at the
same time reducing the runtime storage footprint of VMs by up to 90%. With Atlantis ILIO, the Dell
server can now provide a cost-effective solution for large persistent virtual desktops that would
normally consume 30-80GB potentially using as little as .6GB of storage per desktop. This allows the
deployment of a large number of persistent and non-persistent virtual desktops using internal storage
Atlantis ILIO deploys as a dedicated VM on each host, presenting a conventional NFS datastore that all
the VMs on that host use. This makes Atlantis ILIO deployment transparent, preserving administrative
processes and procedures that may already be in place. During runtime, all IO is processed by the
Atlantis ILIO VM first, and then written to storage. As IO enters the Atlantis ILIO VM, it is first analyzed,
then it is de-duplicated, compressed and then undergoes write coalescing before it is stored on disk.
All of this occurs at wire speeds without impacting Atlantis ILIO’s ability to service IO at server RAM
speeds. The storage optimization technologies used include content-aware IO optimization, in-line
de-duplication, wire-speed compression, and real-time write coalescing.
Content-Aware IO Optimization
Atlantis ILIO achieves its benefits by minimizing the IO activity associated with virtual desktop
workloads and by significantly reducing runtime storage footprints. Atlantis ILIO’s content-aware IO
Dell Hyperscale VDI – A Detailed White Paper
optimization focuses on the minimization of IO operations. In Windows NTFS (and other file system
environments), a lot of the IO generated is transient. Atlantis ILIO uses its intelligence to differentiate
between transient and stateful operations that require durable storage. When IO enters the Atlantis
ILIO VM and is processed, transient IO is processed so that it never has to be handled by durable
storage, while stateful IO is passed through to be further optimized through de-duplication and
compression. This reduces the amount of IO that must be processed by storage, thereby reducing the
storage workload overall without impacting data integrity or Atlantis ILIO’s performance gains.
In-line De-duplication
With virtual desktop infrastructure, most VMs have a significant amount of redundant data. For
example, in VDI it is common for all desktops in a deployment to run the same desktop operating
system: Microsoft Windows. Corporate desktops are often configured with the same set of desktop
applications (e.g. Windows Office). User data files stored in popular Windows application formats (e.g.
Word, PowerPoint, Excel, etc.) also have significant redundancies. Even though each desktop may
look very different, a lot of the data blocks in each of them are the same. In many VDI deployments,
up to 95% of the blocks are the same across the virtual desktops.
Atlantis ILIO de-duplicates data at the block level in-line in real time, efficiently identifying
redundancies at a very high level of granularity. Shared common blocks are pinned into the Dell’s
server RAM by Atlantis ILIO. As a result, none of the reads to any of these common blocks ever goes
out across a network, and they are all serviced at server RAM speeds. This is why desktop boot, logon,
application launches and file access that heavily use this shared data happen almost instantly when
Atlantis ILIO is installed. A small amount of space is reserved in the Dell RAM for deduplicated data
that is unique to each desktop image, ensuring that all reads and writes for that desktop also do not go
out across a network and are handled at server RAM speeds.
Wire-Speed Compression
Atlantis ILIO offers optional lossless compression, which can be applied to the de-duplicated IO
stream before it is written to storage. Altantis ILIO uses an enhanced, patent-pending implementation
that performs the compression out of band, imposing no IO latency impacts of any kind. Atlantis ILIO
performs all compression in real time at wire speeds to provide its space-saving benefits, while at the
same time significantly improving overall desktop performance relative to physical PCs or serverbased virtual applications. When operating together, the in-line de-duplication and wire-speed
compression can reduce the size of a dedicated virtual desktop storage footprint by up to 90%.
Real-Time Write Coalescing
With real-time write coalescing, small block random writes that are so common in virtual desktop IO
are re-ordered into a much more sequential stream of large block writes. In concept, this is very
similar to the IO optimizations that the Windows desktop OS performs but the difference is that
Atlantis ILIO performs it at the level of the entire hypervisor, not individual desktop images.
For further information, please visit the Atlantis Computing web site
http://www.atlantiscomputing.com
*** Generic performance estimates in this section provided by Atlantis Computing. Dell testing
undertaken as part of the development of this solution is reported elsewhere in this document.
Dell Hyperscale VDI – A Detailed White Paper