november 2014 Desktop Destiny e – Book De belangrijkste IT-workspace whitepapers van onze businesspartners: P O W E R E D B Y Beste lezer, De traditionele IT-werkplek is de afgelopen jaren radicaal veranderd. De volledig gestandaardiseerde werkplek waarin alles door de IT-afdeling aangeboden en beheerd wordt bestaat bijna niet meer. De IT-werkplek is een virtuele workspace geworden waarin ‘mobiliteit’ en ‘cloud’ steeds meer de boventoon voeren. Dit exclusieve Desktop Destiny e-book verrijkt u met relevante ontwikkelingen omtrent deze nieuwe IT-workspace. Login Consultants en zijn business partners van Desktop Destiny hebben hun ervaringen gebundeld en trends op het gebied van onder andere virtualisatie, mobility, VDI, SBC en DaaS in kaart gebracht. Met dit e-book krijgt u een indicatie van wat u kunt verwachten op Desktop Destiny: het innovatie & strategie event die bijdraagt aan uw werkplekstrategie. De onderwerpen die behandeld worden in dit e-book, zullen tijdens de vele sessies uitgebreid de aandacht van onze business partners krijgen. Wat is uw #DesktopDestiny? Kom erachter op 19 november. Inhoudsopgave Hoofdstuk 1 – AppSense: Wat u moet weten voordat u aan virtualisatie begint Hoofdstuk 2 – Login Consultants: VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Hoofdstuk 3 – Login VSI: No more VDI Performance Problems Hoofdstuk 4 – Nutanix: Virtual Desktop Infrastructure and Healthcare Hoofdstuk 5 – Citrix: Enterprise mobility – trends 2014 Hoofdstuk 6 – VMware: Using DaaS to Create the Ideal Desktop User Experience - Without a PC Hoofdstuk 7 – Matrix42: Mobile ITSM Is More Important than Ever! Hoofdstuk 8 – Global Knowledge: vTerminology: A Guide to Key Virtualization Terminology Hoofdstuk 9 – Telindus: Software defined: the game changer Hoofdstuk 10 – Atlantis & Dell: Hyperscale VDI #DesktopDestiny AppSense Wat u moet weten voordat u aan virtualisatie begint Rapport over kennisleidersc chap door Forreste er Consulting in n opdracht van AppSense W Wat u moett wete en vo oorda at u a aan virtualisatie e beg gint Wa aarom g gebruikkerserva aring en n een flexxibele w werkstijl belang grijk zijn n voor implemen ntatie Juli 2014 Inh houd Mana agement Samenvatting ................................................................................ 1 Tech hnologie mo oet ruimte bie eden aan veranderende werkstijlen ............... 2 Virtu ualisatie beg gint met kostten - Maar eindigt bij de gebruikerse ervaring . 4 Begiin aan Virtua alisatie met h het eind in g gedachten ........................................ 6 Bela angrijkste aanbevelingen n .............................................................................. 9 Bijlage A: Metho odologie .................................................................................... 10 ullend materriaal ....................................................................... 10 Bijlage B: Aanvu vens ..................................................................... 11 Bijlage C: Demografie/Gegev n ...................................................................................... 12 Bijlage D: Eind notities OV VER FORRES STER CONS SULTING Forrester Consu ulting biedt onafhankelijke e en objectievve onderzoekksconsultancyy, zod dat leiders su ucces hebben n binnen hun organisatie. De diensten van Forreste er Co onsulting varië ëren van kortte strategiebijjeenkomsten n tot op maat gemaakte pro ojecten en bre engen u rech htstreeks in co ontact met on nderzoeksanalisten die desskundig inziccht hebben in uw specifiekke zakelijke uitdagingen. G Ga voor meerr info ormatie naar forrester.com m/consulting. © 2014, Forrester Ressearch, Inc. Alle rechten voorbeh houden. Ongeoo orloofde reproductie is ten streng gste verbod den. Informatie is gebaseerd op de best beschikkbare bronnen. Meningen M weerspiegelen het oorrdeel op ® ® dat mo oment en zijn on nderhevig aan ve erandering. Forre ester , Technographics , Forresster Wave, RoleV View, TechR Radar en Total E Economic Impactt zijn handelsme erken van Forresster Research, In nc. Alle andere hande elsmerken zijn he et eigendom van n hun respectieve e bedrijven. Ga voor meer inform matie naar www.fforrester.com. W WI-216275 1 Ma anageme entsame envatting g › G Gebruikerserrvaring is de e sleutel tot s succes. Om v virtualisatie to ot een success te maken, m moeten gebru uikers h acceptere het en. Gebruikerrs zullen deskktop- en a applicatievirtu ualisatie hoog gstwaarschijn nlijk omarmen n als d verbinding de g snel en de computeromg c geving vertrou uwd is, in nhoud en app plicaties eenvvoudig vanuitt vorige o omgevingen kkunnen worden overgebra acht en proble emen v klanten beter zijn op te van e lossen dan voorheen. › D De virtualisattie zelf is me eestal geen p maar probleem, m v vereist een g goede planniing en goede e hulpmidde elen. In nvesteren in de juiste hulp pmiddelen en n trainen van g gebruikers is belangrijk vo oor een geslaa agde im mplementatie e. Orga anisaties besluiten virtuele e desktops en n applicaties te imple ementeren, omdat o ze verw wachten dat daardoor hun n koste en dalen. Hoewel de kosttenbesparing belangrijk is,, ontdekken ze datt desktop- en n applicatievirrtualisatie hun n eft. De manie er van werken n van bedrrijf nog meer te bieden hee werkknemers word dt opnieuw vo ormgegeven. In ee en tijd waarin n werkstijlen veranderen v en werknemerrs in open nbare ruimtess, onderweg, thuis en op e eigen devicess moe eten kunnen w werken, kan vvirtualisatie een flexibiliteitt bieden waarmee de werknem merstevredenh heid, de mobiliteit, de p productiviteit e en zelfs het fiinancieel rend dement kunn nen word den geoptima aliseerd. Deze e voordelen d doen zich alle een voorr als virtualisa atieoplossinge en op de juiste manier wo orden geïm mplementeerd d. In mei en juni van n 2014 gaf Ap ppSense Forrrester Consu ulting de o opdracht om vvirtualisatie-im mplementatie e te evalueren n. Om deze ontwikkkeling nader tte verkennen, ontwikkelde e Forre ester een hyp pothese waarmee de stellling werd gete est dat d de ervaring en productivite eit van eindge ebruikers en niet de kosten het uite eindelijke voo ordeel zijn vo oor organisatie es n virtualisatie e investeren. die in Aan de hand van n diepgaand o onderzoek on nder 300 ITman nagers en -be eheerders die e verantwoord delijk zijn voo or de virtuele desktop e en/of virtuele applicaties, concludeerde c e Forre ester dat dezze bedrijven h hier baat bij h hadden wat betreft de w werknemers, d de IT-afdeling g en de finan nciële resultatten. Forre ester conclud deerde ook dat een aantal aanbevolen n werkkwijzen moet worden gevo olgd om een hoog slagiingspercenta age te behalen en veelvoo orkomende obstakels en uitdagingen in ve erband met d deze ementatie we eg te nemen. imple BEL LANGRIJKST TE BEVINDIN NGEN: Uit h het onderzoekk van Forrestter kwamen vverschillende belangrijke bevindingen naar voren: › IT--managers denken d dat ze z virtualisattie im mplementeren om kosten n te beheren n. Als het op d de im mplementatie aankomt, rich hten de meesste IT-manag gers zicch op kostenvvermindering g. › Ze e ontdekken echter dat virtualisatie v e krachtig een g an ntwoord kan zijn op vera anderende w werkstijlen. In n een tijd dperk van mo obiele werkne emers en BYO OD (bring yo our ow wn device) is virtualisatie e een krachtig hulpmiddel h om dit vo oor werkneme ers mogelijk tte maken. 2 Tec chnolog gie moet ruimte b bieden a aan verranderen nde werkstijlen AFBEELDIN NG 1 Flexibele w werkstijlen ziitten in de lifft De huidige h generratie werknem mers verweze enlijkt een revo olutie op het g gebied van we erkstijlen. Ze staan altijd sstil bij nieuw we en betere e manieren va an werken; hoe ze minderr tijd kwijtt kunnen zijn aan minder b belangrijke za aken en meer tijd kunn nen besteden n aan zaken d die er wel toe e doen. Het resultaat: › › › › De e werklocatie e verandert drastisch. D De huidige ge eneratie werkknemers wil te echnologieën n waarmee ze e op elkke gewenste plek kan werrken, zoals th huis, in openb bare ruimtes en op w weg naar hett werk (zie afb beelding 1). G Gaf in 20 012 nog 11% van de were eldwijde kenniswerkers aa an in op penbare ruimttes te werken n, in 2013 wa as dat al 27%. De tecchnologiestra ategie van elkk bedrijf moett ten doel heb bben om m mobiele we erknemers hie ertoe de ruim mte te geven.i Ca arrièregerich hte werknem mers vinden ttechnologie be elangrijk voo or het uitvoe eren van hun n werk. De hu uidige genera atie werkneme ers wil over d de beste tecchnologie beschikken bij d de uitvoering van het werkk. So ommigen zijn zelfs bereid om mee te b betalen aan de evices en dien nsten die nod dig zijn voor h het uitvoeren van hu un werk. Van de werknemers die van zzichzelf zegge en da at ze aan hun n carrière werrken, zei 42% % bereid te zijn om fin nancieel bij te e dragen aan technologiscche aankopen n vo oor het werk. Als deze werrknemers nie et tevreden wo orden gesteld d, gaan ze BY YOD-technolo ogie gebruike en (ziie afbeelding 2). Be etrokken werknemers zijjn tevredene er met IT. Be etrokken werkknemers zijn werknemerss die tijd en en nergie steken in het succe es van uw bed drijf, die lange er loyyaal zijn aan het bedrijf wa aar ze werken en bereid zzijn om m hun werkge ever bij anderren aan te be evelen.ii Zij zijjn uw be este werknem mers. Anders dan men zou u verwachten n, vra agen betrokkken werknemers minder va an de IT-afde eling iii en n zijn ze tevre edener. Maa ar vergis u nie et: deze we erknemers ha anteren hoge e normen en zzullen wat u h hen nie et biedt, aanvvullen met BY YOD-technolo ogie. Ze e hebben pas ssie voor wa at ze doen. B Betrokken we erknemers sp pannen zich vvolledig in en nemen zelfss vriijwillig werk m mee naar huiss. 77% van de so oftwareontwikkkelaars zei b bijvoorbeeld d dat ze in hun eig gen tijd aan code c werken, vanwege hu un enthousiassme vo oor programm meren, om hun vaardighed den op peil te e ho ouden of als h hobby. U wilt deze betrokkken werknem mers tevvreden houde en, en ze niet verlammen met moeilijk te Bassis: 5519 kenniswerkers wereldw wijd †Ba asis: 9766 kenniswerkers wereld dwijd Bro on: Workforce Fo orrsights, K3 201 13, K3 2010 gebruiken, du g ure technolog gieën die niet goed werken n op h eigen devvices. hun Viirtualisattie-impleementatiees moeteen beetrokken n werknem mers niet teegenwerk ken. In pllaats daaarvan m moeten zee flexibelee werkstiijlen m mogelijk m maken, zo odat werrknemerss op ellke gewen nste plek k, elk gew wenst tijjdstip en n elk geweenst deviices kunn nen w werken zo onder datt dit ten k koste gaa at va an de geb bruikerseervaring. WA AT VRAGEN BETROKKE EN WERKNE EMERS VAN U? Hoe kunt u deze e betrokken w werknemers vvan wie de w werkstijl verrandert, tevre eden stellen? Wat verwach hten ze van u u? Met uw w technologiesstrategie help pt u ze aan: › B Betere toega ang tot inform matie. Techn nologie moet w werknemers zzo goed mogelijk toegang g geven tot in nformatie die e ze nodig heb eer ze die nod dig bben, wanne h hebben. Voorr werknemerss die zich met klanten b bezighouden, , kan de hele klantervaring g afhangen vvan het fe eit of een werknemer al dan niet de juiiste informatie e kan v verschaffen. 3 › Hu ulpmiddelen n om klanten n te bedienen n. Werkneme ers mo oeten ook toe egang hebbe en tot belangrrijke applicatie es en syystemen om in nformatie die e ze ontvange en te kunnen toe epassen en p problemen va an klanten te kunnen oplossen. › Aa anpassing aa an veranderrende omsta andigheden. W Werknemers sttellen het ookk op prijs als ze weten datt de tecchnologie die e ze bij de uitvvoering van h hun werk ge ebruiken niet veroudert do oor verandere ende ma arktomstandigheden of tijd dens het reizzen. › Fle exibiliteit en n autonomie.. Tot slot stelllen werknemers he et op prijs als ze enige inbreng hebben in welke tecchnologie ze kunnen gebrruiken. Ze willlen flexibele hu ulpmiddelen e en toestemmiing om zelf te e bepalen hoe e en wa aar ze werken n. AFBEELDING A G2 T Technologie moet mogelijkheden crreëren voor b betrokken we erknemers WAT T HEBBEN W WERKNEMERS ECHT VA AN U NODIG G? EEN N UITSTEKEN NDE GEBRU UIKERSERVA ARING Voorr het oplossen van deze p problemen, ku unnen orga anisaties zich tot desktop- en applicatie e-virtualisatie wend den. Om te b begrijpen wat de virtualisattie-implemen ntatie inhoudt, hielden w we een onderzoek onder 300 IT-mana agers en -b beheerders d die verantwoo ordelijk zijn vo oor de virtuele deskktop en/of virttuele applicatties. De respondenten r n noteerden voor v welke uittdagingen zij kwam men te staan n tijdens de im mplementatie. ‘Weerstand van gebrruikers’, ‘tevre edenheid van n gebruikers’ en ‘training van v gebrruikers’ werde en allemaal genoemd, g som ms zelfs mee erdere keren. ‘Ze vonden h het verschrikkkelijk’, schree ef een IT-manager vvan een prod ductiebedrijf. Iemand ande ers had d er maar één n woord voorr over: ‘strijdlu ustig’, waaruiit kan worden opgema aakt dat gebrruikers snel geïrriteerd of b boos werden en de discussie aan gingen. Wa at is de reden n van de prob blemen die met desktop- e en app plicatievirtualisatie gepaarrd gaan? Vaa ak ligt het anttwoord gebruikerservvaring. De ge bij g ebruikerserva aring omvat perrcepties en ge edrag als gevvolg van een bepaalde com mputeroplosssing en meet hoe bekwaam iemand is met de hulpmiddelen n die ter bescchikking staan. In het geva al van plementaties o omvat de geb bruikerservarring: virttualisatie-imp › S Snelle en sta abiele toegan ng. De algehele prestatiess m moeten soepe el verlopen willen w gebruike ers virtuele d desktops en a applicaties om marmen. Alss uitdagingen waar z voor stond ze den, noemden n de deelnem mende IT-man nagers r regelmatig ‘sn nelheid’ en ‘p prestaties’. › V Vertrouwdhe eid. De produ uctiviteit van g gebruikers en n hun v vertrouwen in n de oplossing g nemen af a als de c computeromg geving niet ve ertrouwd en relatief r stabiel is. ITm managers noe emden ‘tijd om vertrouwen van gebruikkers te w winnen’ en ‘le eerproces’ alss uitdagingen n die met deze e k kwestie te ma aken hadden.. › O Overdraagba aarheid. Bij vvirtualisatie-im mplementatiess m moeten ouderre middelen ((bestanden, g gegevens) en n a applicaties na aar een nieuw we omgeving worden g gemigreerd, z zodat gebruikkers zich op h hun gemak vo oelen. IT T-managers noemden ‘inttegratie’ en ‘m migratie’ als d de u uitdagingen d die hun verwa achtingen ove ertroffen tijdens de im mplementatie e. › S Succes bij kllanten. Virtue ele desktops en applicatie es m moeten werkn nemers helpe en hun doelen te v verwezenlijke en. Als uw we erknemers ee en geweldige e ervaring voor uw klanten willen w creëren n, moeten ze b beschikken ovver hulpmidd delen waarme ee ze hun takken e efficiënt kunne en uitvoeren.. In die zin is de g gebruikerserv varing van gro ote invloed op p de klantervvaring. 4 Afbeelding 3. De interesse e in virtualis satie blijft to oenemen Wo oord van n de dag: ‘Strijdlu ustig.’ Beeschrijvin ng: Gebru uikers zij ijn snel geïïrriteerd d of boos en gaan de disscussie aan. Reelevantie: Beschriijving do oor een resspondentt die bij eeen detaiilhandel weerkt van de reactiies van g gebruikerrs tijd dens de iimplemen ntatie, wa aarschijn nlijk vanw wege een n slechte geb bruikersservaring g. Afbeelding 4. IT-managers s richten zic ch in eerste instantie op p de kosten om v virtualisatie te bepleiten n De virtualis satie beg gint bij d de koste en, aar eindigt met de d ma geb bruikers servaring g Lowering costs Better security Increasing manageabilityy, including patching Im mproving our ability to resto ore functionality and… Providing fleexible remote access Supporting employees to w work from anywhere Im mproving compliance Reducing PC energy con nsumption expenses Enaabling employees to use theeir personal PCs as a… Supporting use of Ap pple Mac computers Supportin ng access for tablets Other reason Don't know We vroegen v IT-m managers watt hun redenen n waren om deskktop- en appliicatievirtualisatie te implem menteren. Ze e noem mden allerlei redenen die in een paar ccategorieën kunn nen worden in ngedeeld: › Ko ostenvermin ndering. De b belangrijkste drijfveer is ko ostenvermindering. 33% Van V de IT-managers noem mde e drijfveer vo de eze reden alss voornaamste oor hun virrtualisatiewerrk. Hoewel ditt veruit de be elangrijkste drijfveer is, vind den veel ondernemingen het lastig om in de e planningsfase betrouwba are informatie e in te winnen n ovver operatione ele kosten.iv › IT--prestaties verbeteren. v IT-managers noemden oo ok en nkele IT-gerellateerde drijfvveren, zoals betere b beveiliging, be etere beheerb baarheid, noo odherstel en ondersteunin o ng vo oor Macs en ttablets (zie affbeelding 4). › Werknemers m meerwaarde e bieden. Slecchts enkele IT Tanagers bescchouwden virrtualisatie ookk als meerwa aarde ma vo oor werkneme ers, waarbij 10% flexibele, externe toeg gang en n 8% het uitvo oeren van we erkzaamhede en vanaf elke loccatie als motiivatie opgaf. 0% 33 3% 13% % 12% 11% 10% 8% 5% 3% 2% 1% 1% 1% 1% 10% 20 0% 30% 40% VIR RTUALISATIE BIEDT WE ERKNEMERS S VEEL MEE ER VO OORDELEN D DAN GEDAC CHT Hoewel IT-mana agers voorna amelijk voor virtualisatiev imp plementatie kkozen vanweg ge kostenverrmindering en n bettere IT-presta aties, vertoon nden de resultaten iets hee el and ders. Het oorrspronkelijke argument ein ndigde niet bovvenaan in de resultaten vo oor hun bedriijven: › D De productiv viteit van ein ndgebruikers s nam aanzie enlijk toe. Het belan ngrijkste resu ultaat van virttualisatieim mplementatie es? Met 51% is dat verhoo ogde producttiviteit o onder werkne emers, terwijl ze op afstand op verschillende d devices werke en (zie afbee elding 5). Slecchts 18% noe emde d scenario als oorspronke dit elijke drijfvee er. Indien goed g geïmplemente eerd, kan virttualisatie de b behoeften van fllexibele werkknemers onde ersteunen. 5 › › Virtualisatie zo orgde vaak voor v meer erknemerste evredenheid. Een grote g groep ITwe ma anagers (39% %) zei dat de tevredenheid d bij ein ndgebruikerss met de computeromgevin ng toenam, w wat ind druist tegen e enkele vooroo ordelen ten a aanzien van de d ge ebruikerserva aring bij virtua alisatie. 34% zzei dat we erknemers de e mogelijkheid kregen om efficiënter te e we erken op hun eigen device es, waardoorr ook de BYO ODstrrategie wordtt ondersteund d. In beide ge evallen was d dit gu unstig voor de e werknemers rs. Afbeelding 5. Virtualisatie e komt niet a alleen de IT--afdeling, ma aar ook werkne emers ten go oede Inccreased productivity wh hile working remotely fro om end users (access frrom multiple devices) Faster incident resolution or fewer desktop‐ ncidents related in 51% 46% % Faster disaster recovery 41% Faster boot‐up orr access to a Windows desktop environment Increased end user satisfaction with the desktop compu uting environment Ability to work more effectively with personallyy owned devices Err zijn natuurllijk ook tradiitionele IT-vo oordelen. On nderneminge en zagen ook regelmatig d de IT-gerelate eerde ressultaten waar ze naar op zoek waren. Volgens 46% % leidde de imple ementatie tot een snellere inccidentoplossing, maar waren ook een ssneller no oodherstel (41 1%), een sne ellere opstart van de Wind dowsbu ureaubladomg geving (40%)) en een bete ere beveiliging g (29 9%) het gevo olg. 40% 39% 34% Fewer data breachees and better security 29% Other 1% None of the above – w we have not seen any productivvity gains 2% Don't know 1% 0% 10% 20% 30% 40% 60% 50% Korttom: In veel gevallen g bete ekent virtualissatie een winwinssituatie voor zowel z werkne emers als de IT-afdeling. Afbeelding 6. Organisatie es meten hett succes van n virtualisatiie aan de hand van n de werkne emerstevredenheid DE R RESULTATE EN VAN VIRT TUALISATIE E METEN Uiteiindelijk zien b bedrijven die virtualisatie a adopteren in dat de e echte waarde van de imple ementaties he et creëren va an mog gelijkheden vo oor werkneme ers is. Ze imp plementeren e meten, zoa als: verschillende maatstaven om het succes te › › › › End user ssatisfaction Inc cidenten voo or de IT-help pdesk. De be elangen van d de ITafd deling spelen n ook mee. 54 4% zei dat op perationele ko osten vo oor het Windo ows-bureaubllad en de app plicaties word den me eegewogen b bij de succescriteria. De esktopbehee er en gerelatteerde opera ationele kostten. Ko osten blijven e een grote rol spelen. 52% % noemde kossten alss de belangrijjkste maatsta af voor succe es. 54% Windows deesktop and… 54% D Desktop manageement and… Ma aatstaven vo oor de eindg gebruikerstev vredenheid. Uiteindelijk draait het allema aal om wat w werknemers vvinden va an de hulpmid ddelen die ze e aangereikt krijgen. k Volge ens 60 0% van de IT--managers iss dit een belangrijke maatsstaf vo oor succes (ziie afbeelding 6). Hierbij ko omen enquêttes on nder werknem mers, focusgrroepen en een opendeurb beleid wa at betreft feed dback goed van v pas. Ma aatstaven vo oor de eindg gebruikerserrvaring. En hie ermee verban nd houdend zzei 54% dat m maatstaven voor v ein ndgebruikersservaring, zoa als de opstartttijd van ap pplicaties, ren ndersnelhede en en andere pre estatiemeting gen, ook esse entiële succe esfactoren zijn n. % 60% End user expeerience and… 52% Mean timee to resolve… 35% Number of deskttop‐related… 0% 27% % 20% 40 0% 60% 80% VIR RTUALISATIE BEVORDE ERT DE PRO ODUCTIVITEIT EN KL LANTERVAR RING – ALS HET H GOED G GEBEURT Een n goede virtu ualisatie-imple ementatie zorgt voor waardeontwikke eling, doordatt werknemerss nu dingen kkunnen doe en die eerderr niet mogelijkk waren. Hierronder staan twee voo orbeelden van bedrijven in n de: › L Lucht- en ruiimtevaart. Ee en lucht- en r ruimtevaartfab brikant wilde dat werknem mers in het ve eld en in n de fabriek o over betere h hulpmiddelen dan de besta aande, s statische pdf-bestanden ko onden beschikken. Door zze A Apple iPads m met virtuele d desktops te ge even, bood h het b bedrijf hen de e mogelijkheid d om een vlie egtuig virtuee el te d demonteren vvoordat ze ditt ook daadwe erkelijk gingen n 6 do oen. Deze inn novatie had m minder fouten en een hoge ere pro oductiviteit to ot gevolg, waa ardoor nalooptijden worde en vo oorkomen waarin werknem mers op de w werkvloer het w werk mo oeten neerleg ggen om info ormatie in te w winnen bij de ing genieurs. › Ge ezondheidszzorg. Een zie ekenhuis impllementeerde een virrtuele desktop p in plaats va an traditionele e laptops. Arttsen zijn zeer mobie ele werkneme ers en moeten zowel in de e ka amers van pa atiënten als in hun kantoorr en thuis toeg gang he ebben tot med dische dossie ers. Dankzij virtualisatie v he ebben artsen de vrijheid om zich te verrplaatsen, terw wijl de e computerom mgeving vertrrouwd blijft. Hierdoor H hoevven ze e niet steeds te t wennen aa an een nieuw w apparaat. D De pro oductiviteit na am toe en de e klantervaring verbeterde e voor pa atiënten. › VO OORKOM PR ROBLEMEN D DOOR VOOR RUIT TE PLA ANNEN Me et de juiste ve erwachtingen kunt u enkele valkuilen verrmijden waar anderen mee e te maken kkregen. Voorkkom derrgelijke geme eenschappelijjke probleme en door de imp plementatie sstrategisch aa an te pakken:: › Begin aan virtualis satie met het ein nd g ten in gedacht De voordelen v voo or gebruikerss, de IT-afdeling en de win nst zijn helder. h Maar virtualisatie iis geen eenvo oudig process. Volg gens de respo ondenten van n ons onderzo oek is het belangrijk om ale ert te blijven: › › Ru uim een kwa art overschrijdt het budg get. Hoewel 61% 6 aa angaf dat het budget preciies toereikend d was voor de im mplementatie, overschreed d 28% het bud dget. 8% had d miinder nodig d dan begroot. W Wat kan een reden zijn? V Voor ve erschillende u use cases gellden ook sterrk uiteenlopen nde ko ostenmodellen n. Callcentermedewerkerss, be eurshandelare en en artsen die in een zie ekenhuis rondes lop pen, stellen a allemaal ande ere eisen aan n een virtueel de esktop- of app plicatiesystee em dan techn nici, ve erkoopvertege enwoordigerss of grafische e vormgeverss. An ndere zakelijkke behoeften, zoals onderrsteuning voo or vid deoconferentties, dicteerso oftware en mo obiliteitsplatfo ormen, leiden n tot andere kkeuzes wat betreft ha ardware- en prestatiemoge p elijkheden en n op hun beurrt tot ee en verschil in operationele e kosten. Som ms worden de eze facctoren niet vo olledig meege enomen in de e planning. Va anwege felle e weerstand vooraf kan s slechts driek kwart va an de geplan nde gebruike ers worden omgezet. o De resspondenten noteerden n bijjvoorbeeld ‘ko oppige gebru uikers die e weigerden over te schakkelen’ en ‘gee en adoptie do oor ein ndgebruikerss’ als kopzorg gen bij de imp plementatie. M Maar de IT-manag lie efst 22% van d gers moest de e migratie naa ar virrtuele desktop ps in ieder ge eval voor enkkele gebruikers terrugdraaien. H Het is lastige er dan u denkt. Verwachtt net als bij alle c complexe mig graties het on nverwachte. D De responden nten n noemden de ccomplexe migratie van ap pplicaties, o onvoltooide trraining van ge ebruikers die opnieuw mo oest p plaatsvinden en problemen met de netw werksnelheid d v vanwege de e externe serve ers voor deskktopvirtualisattie als o obstakels die ze niet hadden voorzien. A Applicatiepre estaties vorm men de groo otste uitdaging. V Voor zowel de esktop- als applicatievirtua alisatie vorme en de a applicatiepres staties volgen ns IT-manage ers de grootste u uitdaging van de implemen ntatie (zie afb beelding 7). De D d desktop die ooit o binnen ha andbereik van n de gebruike er was e geen vertrragingsproble en emen kenden n, bevindt zich h nu o misschien wel 4000 km op m afstand. Hie erdoor kunnen de p prestaties afn nemen of is de e desktop he elemaal niet b beschikbaar a als de netwerrkverbinding sslecht is. Oplossing: Invvesteer in nie O euwe hulpmid ddelen en een n nieuwe infrasttructuur om d de overgang mogelijk te maken. m 4 40% van de IT T-managers noemde deze e aanbevolen n w werkwijze op de vraag watt ze anders zzouden doen als ze d virtualisatie de e opnieuw moesten imple ementeren (ziie a afbeelding 8).. › O Overprovisio oning is gebrruikelijk. Ove erprovisioning, d d.w.z. meer im mages maken n, zodat versschillende g gebruikerspro ofielen mogelijk zijn, is ookk een uitdagin ng die h hoog scoort. De D serverdich htheid (er zijn n niet zo veel g gebruikers op p een server a als verwacht)) vormt evene eens e struikelblo een ok. In beide g gevallen kan een betere p planning voorraf een uitkom mst bieden. Oplossing: Na O aast investere en in nieuwe hulpmiddelen en e nieuwe in een nfrastructuur, is een anderre mogelijke o oplossing het inhuren van een partner die de im mplementatie e beheert. Ee en kwart van de IT-manag gers h dit achterraf gezien gra had aag gedaan. › G Gebruikersac cceptatie ve ergt geduld e en inspannin ng. M Maar liefst 75 5% van de IT--managers no oemde g gebruikersacc ceptatie als e een moeilijk te e overwinnen n o obstructie tijde ens de imple ementatie. 22% kreeg te maken m m gebruikerrs die alles te met eruggedraaid wilden hebbe en. 7 He et opbouwen van vertrouw wen en kenniss onder we erknemers is een belangriijke succesfa actor voor virrtualisatie-imp plementatieprojecten. Op plossing: inve esteer in mee er voorlichting g. Ruim een d derde va an de IT-mana agers zei datt ze dit zou do oen als ze de e im mplementatie kon overdoen n. Investeer in hulpmiddellen die e de beste ge ebruikerserva aring creëren. Dit omvat tecchnologieën die gebruikerrs een vertrou uwde omgeving ku unnen bieden, zoals behee er van de geb bruikersomge eving en n hulpmiddele en voor contro ole en optima ale prestatie vvan ap pplicaties. › Orrganisatorisc che uitdagin ngen vereise en een nieuw we structuur. Imp plementatieprrojecten word den maar al te e va aak door elk te eam afzonde erlijk uitgevoe erd, zonder on nderlinge ove erdracht van kkennis. Deze teams houde en ge ewoonlijk gee en rekening met m gebruikerrservaring. W Wanneer deskttopteams hett clientvirtualisatieproject leiden, staan ze e gewoonlijk wel stil bij de e ervaring en toe egang voor e eindgebruikerrs en bij hoe ze z de virtuele e de esktops in wijd dverspreide geografieën g kkunnen behe eren. W Wat ze meesta al niet in overw weging neme en, zijn kritiekke da atacenterkwesties, zoals h hoe de serverrcapaciteit wo ordt be ewaakt en uitg gebreid, hoe netwerksegm menten moeten wo orden geroute eerd voor zw wervende gebruikers en de e no oodzaak van het maken va an back-ups en herstel va an ge egevens. Op plossing: Stel een speciaa al virtualisatie eteam samen n als ovverkoepeling vvan bestaand de server-, ne etwerk- en op pslagteams. B Bijna de helft van de IT-ma anagers wen nst da at hij/zij dit ha ad gedaan. W Waarom? Voo or clientvirtualisatie is samenwerkin ng tussen alle e teams en gebruik van allle b een tecchnologieën noodzakelijk.. U kunt het best fun nctieoverschrrijdend virtua alisatieteam samenstellen om ervvoor te zorge en dat de focu us op de overeengekomen do oelen blijft ligg gen: De priorriteiten vastste ellen, de use ca ases en archittectuur vaststellen, het pro oject draaiende ho ouden, samen nwerking stim muleren, belangrijke besluiten ne emen op het gebied g van platformen, hu ulpmiddelen e en pro ocessen en ccommunicere en met belang ghebbenden en leidinggevende en. Ui Uitdaging g: “Het lu ukt niet om eiindgebru uikers zov ver te kriijgen datt ze dee oplossing uitpro oberen. In eerstee in nstantie was w de m medewerk king hoo og, m maar slech hts wein nig beedrijfson nderdelen n wilden middeleen beeschikba aar stellen n om een n degelijk ke teest mogellijk te ma aken, wa aardoor eeen geeslaagdee migratiie extreem m lastig w werd.” — IT-leider bij e een financiële e dienstverlen ner Afbeelding 7. Applicatieprestaties vo ormen de gro ootste uitdaging bij de imple ementatie 80% 79% 72% 75% 75% 73% 65% 70% 70% 68% 75% 67% 70% 63% Application speeed/performance Overprovisioningg (making more… User acceptance testing A Assigning privileges//policy for users Licensing ccosts (giving out… Seerver density (not ass many users on… Lo og‐in performance (ttaking longer to… 0% % 20% 40% 60% 80% 1 100% Applicatiion Deskto op 8 Uittdaging: “De exteerne serv vers zorrgden vo oor probllemen met de intternetsneelheid. Met M namee bij het uittvoeren v van meerr geavan nceerde mo odelleerssoftware die in eeen extern n da atacenterr was ond dergebra acht.” — IT T-leider bij ee en financiële d dienstverlene er Afbeelding 8. A A ze het op Als pnieuw kond den doen, zo ouden veel m managers ee en virtualisattieteam sam menstellen Creeate a dedicated virtuallization team as an o overlay on existing servver, network and storage teaams 48% % Invesst in newer tools/infrastructure to handle the transitio on 40% 34% Invest in more education Hire a partner to o help manage the deplo oyment Other 24 4% 6% 0% % 10% 20% 30 0% 40% 50% 6 60% KANS VAN S SLAGEN IS G GROOT DE K Ondanks deze be eproevingen, geven de me eeste ITman nagers aan da at de impleme entatie uiteindelijk is gelukkt: › 70 0% is tevrede en met het fiinanciële ren ndement. He et fin nanciële rendement op de investering w wordt alom ge eprezen. 24% % zei ‘zeer tevvreden’ te zijn n en nog eens 46 6% is ‘tevrede en’, alles bij e elkaar 70%. B Bij 22% is de be eoordeling ‘ne eutraal’, terwiijl slechts 8% % teleurgesteld d is in het financiële e resultaat va an de implem mentatie. › Ap pplicaties zijjn responsie ef. Ondanks d de problemen n met de e applicatiesn nelheid in het begin, zei 40 0% dat de sn nelheid en rea actietijd van a applicaties sin nds de im mplementatie vvan de virtue ele desktops wat w is verbete erd. 38 8% gaf aan da at deze hetze elfde zijn als bij de nietge evirtualiseerde computeromgeving. › A Aantal gebru uikers dat zic ch aanmeldtt, stijgt (soms). Het u ultieme kenmerk van werkknemerstevre edenheid is he et g gebruik. Resp pondenten ga aven aan dat het aantal g gebruikers da at zich aanme eldde met 25% % steeg, en 5 55% b bleef stabiel. Daar staat te egenover dat 16% van de g gebruikers zicch minder vaa ak aanmeldde en 4% zich h z zelden aanme eldde. Uit dezze gegevens valt op te ma aken d het toegen dat nomen gebru uik per saldo opweegt tege en het a aantal afmeld dingen. Hieruiit blijkt maar weer w dat u ku unt s slagen, maar dat u daartoe e enkele aanbevolen w werkwijzen m moet volgen. 9 B Belangrij jkste aan nbevelin ngen Uit een analysse van de die U epgaande ond derzoeken va an Forrester o onder IT-man nagers die ve erantwoordelijjk waren voor de desktop- en ap pplicatievirtua alisatie kwam men meerdere e belangrijke constateringen naar vore en: . › De gebru uikerservaring moet uw w voornaams ste doelstelling zijn. Zoalls de meeste IT-managerss uiteindelijk ogelijkheden voor werkne ontdekke en, bestaat de e waarde van n virtualisatie uit betere mo emers en niett primair uit kostenve ermindering. Stel S use case es voor werkn nemers vooro op bij het opsstellen van he et plan. Beknibbel niet op de gebruike erservaring alss deze hierdo oor in het ged ding komt. He et inwisselen van de produ uctiviteit van de organisattie als geheel voor gering ge winst op h het gebied va an IT-efficiëntie is verkeerd de zuinigheid. Laat de bruikbaa arheidseisen d de architectuur bepalen en voer dan pa as een analyyse van de op perationele ko osten uit. › Investee er in betere h hulpmiddele en. Selecteer hulpmiddelen met de geb bruikerservariing in gedach hten, die de applicatie eprestaties bevorderen, zoals snellere netwerken, g gedeelde GP PU’s en WAN-optimalisatie e. De basis iss nog stee eds belangrijkk. Plan de serrverdichtheid niet te krap e en investeer iin hulpmiddelen die het be eheren van profielen, bevoegdhed den en beleid dsregels verg gemakkelijken n. Investeer ttot slot in geb bieden die de gebruike ersacceptatie versnellen: a applicatie- en gegevenspe ersistentie, me eer technolog gieën voor he et beheer van n rechten vvoor het insta alleren van so oftware en ze elfservice voo or werknemerrs. › Stel een overkoepelend team sa amen voor de d implementatie. Dit team m moet ten m minste uit een n product- of manager of -e igenaar, een architect en mmamanager r bestaan, me et vaardighed den op het servicem een program gebied van desktops, servers, netw werken en op pslag. Als u op o maat gemaakte ontwikkelwerkzaam mheden plant,, dient u een uitvoering gsmanager se erieus in overrweging te ne emen. Stel de e kernteamleden verantwo oordelijk voorr de n in alle fasen n van het project, de afstem mming met de doelstelling gen van kwaliteit van hun werkkzaamheden evenden en b belanghebben nden en het vvoldoen aan projectmijlpal p len en -verpliichtingen. leidingge › Zoek een n partner vo oor voorlichtting en hulp.. Als u gebruikers voorlich ht en ze gebru uik laat make en van de hulpmidd delen die u he ebt gekozen, nemen de gebruikersaccceptatie en fle exibele werksstijlen in uw organisatie toe e. Zoek een n partner voo or de commun nicatie, voorliichting en pro omotie als uw w bedrijf dit ze elf niet kan ve erzorgen. 10 Bijlage A: Methodiiek In he et kader van d dit onderzoekk hield Forresster een onlin ne enquête onder 300 IT-m managers en n -beheerderss die vera antwoordelijk zijn voor de vvirtuele deskttop- en/of virttuele applicattieomgevinge en van bedrijvven met meer dan 1000 werkknemers in de e Verenigde S Staten, het Verenigd V Koninkrijk en Duiitsland. De de eelnemers moesten vrage en beantwoorrden overr hun ervaring g met het imp plementeren van v de virtua alisatie, hoe ze het success meten, wat ze z graag and ders hadden willen w doen n en op welke e manier hun n organisatie g gebaat is bij d de virtualisatie. Het onderrzoek begon in maart 2014 4 en werd afg gerond in mei 2014. Bijlage B: Aanvulle A end matteriaal GER RELATEERD D ONDERZOE EK VAN FOR RRESTER ‘Build Digital Worrkspace Delivvery Systemss To Give Em mployees The Right Tools For Their Job b’, Forrester Research, R Inc., 17 april 2014. nchmarking T Technology's Effect On Em mployee Enga agement’, 30 juli 2013. ‘Ben ‘Hab bitat For Enga agement: Unlleash Workfo orce Potentiall With Agile E Enablement’, Forrester Re esearch, 10 m mei 2013. ‘Hossted Virtual Desktops Verssus Physical PCs: Undersstanding The Operational C Cost Differen nces’, 3 janua ari 2013. 11 Bijlage C: Demogrrafie/geg gevens AFBEELDING A G9 S Samenstellin ng van de on nderzoekspo opulatie 12 Bijlage D: Eindnote en i Lee es ook het rap pport ‘Habitatt For Engage ement: Unleassh Workforce e Potential W With Agile Ena ablement’, Forrester Resea arch, 10 m mei 2013. ii Lee es het rapporrt ‘Benchmarkking Technolo ogy's Effect O On Employee e Engagemen nt’, 30 juli 201 13. iii Lee es het rapporrt ‘Habitat Fo or Engagemen nt: Unleash Workforce W Po otential With A Agile Enablem ment’, Forresster Research h, 10 mei 2013. iv Lee ps Versus Phyysical PCs: U Understanding g The Operattional Cost D Differences’, 3 es het rapport ‘Hosted Virrtual Desktop januari 2013. #DesktopDestiny Login Consultants VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Login Consultants VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk e-book VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Eigendom en Garantie De informatie, concepten en ideeën beschreven in dit document zijn eigendom van Login Consultants. Zonder beperking van de rechten uit hoofde van het auteursrecht, mag geen enkel deel van dit document worden verveelvoudigd, opgeslagen of ingevoerd in een geautomatiseerd gegevensbestand of gedistribueerd in enige vorm of op enige wijze (elektronisch, mechanisch, door fotokopieën, opnamen, of anderszins), zonder de uitdrukkelijke schriftelijke toestemming van Login Consultants. Elke product beschrijving of verklaring in dit document zijn alleen ter identificatie gebruikt en kunnen niet worden opgevat als een garantie van bepaalde eigenschappen of garantie of waarborg van een ander type. Login Consultants stelt zich niet aansprakelijk, expliciet of impliciet, voor de documentatie. Alle informatie in dit document, inclusief URL's en andere verwijzingen naar websites, is onderhevig aan verandering zonder kennisgeving. Eventuele voorbeeldcode beschreven in dit document wordt door Login Consultants alleen voor illustratieve doeleinden gebruikt. Deze voorbeelden zijn niet onder alle omstandigheden grondig getest. Login Consultants kan derhalve geen betrouwbaarheid, bruikbaarheid of functionaliteit garanderen van deze programma’s of code. Alle in dit document genoemde merk- en productnamen, zijn handelsmerken van de respectievelijke eigenaren en worden als zodanig erkend. © 2013 Login Consultants. Alle rechten gereserveerd. Datum: 21 augustus 2013 1 Inhoudsopgave Introductie ........................................................................................................................................................................................................ 1 Aanleiding ................................................................................................................................................................................................. 1 Over Login Consultants ....................................................................................................................................................................... 2 Vijf praktijkervaringen met VDI- en SBC-beheer ............................................................................................................................. 3 1. Een centrale werkplek is echt anders ................................................................................................................................. 3 2. De technologische stack is complex ................................................................................................................................... 4 3. Onderschatting van het belang van capaciteits-management ............................................................................... 4 4. Het change proces als faalfactor .......................................................................................................................................... 5 5. Kracht in concept, kwetsbaarheid in management ...................................................................................................... 6 Vijf maal perspectief op verbetering .................................................................................................................................................... 8 1. Een centrale werkplek is echt anders: neem ontvlechten serieus .......................................................................... 8 2. De technologische stack is complex: regie en overzicht is key ............................................................................... 9 3. Onderschatting van het belang van capaciteits-management: monitor en valideer .................................... 9 4. Het change proces als faalfactor: automatiseer OTAP .............................................................................................10 5. Kracht in concept, kwetsbaarheid in management: breng echte dynamiek en flexibiliteit in beheer ..10 Conclusie ........................................................................................................................................................................................................12 Meer informatie ....................................................................................................................................................................................13 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Introductie De zegeningen van VDI (Virtual Desktop Infrastructure) en SBC (Server Based Computing) zijn bekend. Veel bedrijven en instellingen omarmen deze technologieën om met behulp van virtualisatie de Windows-desktop en -applicaties te ontkoppelen van de fysieke werkplek en deze gecentraliseerd te beheren. Toch worstelen organisaties met de complexiteit van de onderliggende technologieën die de gecentraliseerde werkplek mogelijk maken. Vaak leidt deze complexiteit tot versnippering van beheer en gebrek aan regie, problemen bij het managen van wijzigingen, teleurstellende gebruikerservaring en een reëel risico op uitval. Dit risico wordt dikwijls onderschat, waardoor lang niet het maximale rendement gehaald wordt uit de investeringen. Wat veroorzaakt de complexiteit en kwetsbaarheid en in welke richting kunnen de oplossingen gevonden worden? Dit white paper presenteert de ervaringen uit de rijke praktijk van Login Consultants en maakt de balans op van meer dan tien jaar implementaties en beheer van VDIen SBC-omgevingen. Niet alleen de uitdagingen van het beheer worden besproken, met name ook de belangrijkste lessen, succes- én faalfactoren worden verder uitgelicht. Dit white paper is interessant voor organisaties die: de stap naar VDI of SBC willen maken; aan het migreren zijn en hun beheer gaan organiseren; hun VDI of SBC omgeving beter willen laten functioneren en renderen. Aanleiding VDI heeft al ruim 5 jaar en SBC al meer dan 15 jaar een plek bij de IT-afdelingen van MKBorganisaties tot internationaal opererende ondernemingen: zowel VDI als SBC passen in centralisatie- en consolidatietrajecten; daarbij is het bij beide concepten mogelijk om snel, eenvoudig, veilig en onafhankelijk van locatie, netwerk en apparaat te werken met Windows en bedrijfsapplicaties; beide concepten centraliseren desktopbeheer en helpen daarmee de IT-kosten te verlagen. Deze voordelen voor de gebruiker en het bedrijf zijn overduidelijk en staan over het algemeen niet ter discussie. VDI en SBC lijken op elkaar en bieden veel dezelfde functionele als technische voordelen ten opzichte van een traditionele werkplek. Alleen met VDI is het mogelijk een persoonlijke desktop aan te bieden, terwijl met SBC dit altijd een gedeelde en sterk gestandaardiseerde desktop is op basis van Windows server. In dit white paper noemen wij beide concepten in één adem; de beheerproblematiek is immers grotendeels gelijk. Datum: 21 augustus 2013 1 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk In de voorbije jaren heeft de praktijk bij organisaties in Nederland geleerd dat de complexiteit van VDI en SBC omgevingen zich kan laten gelden en dat dit vaak (te) laat onderkend wordt. Analyse van de VDI- en SBC-beheerproblematiek in de Nederlandse markt leidt tot enkele pijnlijke vaststellingen: De implementatie van een VDI- of SBC-omgeving en de daar uit volgende beheerinspanning wordt onderschat. Het ontbreekt vaak aan regie over het beheer van de technologie-stack. Capaciteitsbeheer ontbreekt of schiet te kort. De impact van wijzigingen blijkt vaak groter dan verwacht. Wanneer deze problematiek onderschat wordt leidt dit snel tot productiviteitsverlies, extra kosten, imagoschade voor de beheerafdeling en de oorspronkelijke verwachtingen worden niet waargemaakt. Alleen wanneer de beheerstrategie zowel technisch als organisatorisch afgestemd wordt op de unieke eigenschappen van VDI en SBC, is het mogelijk deze verwachtingen waar te maken. Over Login Consultants Login Consultants is een onafhankelijke internationale IT-dienstverlener gericht op End User Computing. We helpen onze klanten graag de juiste balans te vinden tussen beheerbare IT en een flexibele gebruikersomgeving. We streven daarbij naar innovatieve en unieke oplossingen die toekomstige veranderingen eenvoudig maken. Ons succes komt voort uit de integratiekwaliteit van onze oplossingen, een intelligente migratie aanpak en de beheerbaarheid van de oplossing nadat deze geïmplementeerd is. Login Consultants heeft een ervaren team van ruim 150 specialisten in Nederland, België en Duitsland. Onze consultants zijn geaccrediteerd door Microsoft, Citrix en VMware en worden regelmatig gevraagd als spreker op nationale en internationale congressen. Onze consultants zijn actief op meerdere blogs en als expert betrokken bij diverse gedrukte en online IT-media. Datum: 21 augustus 2013 2 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Vijf praktijkervaringen met VDI- en SBC-beheer Talloze bedrijven en instellingen hebben strategisch voor VDI/SBC gekozen. Ook in de beheerfase, na de bouw en implementatie, zijn zij ervan overtuigd dat het de juiste keuze is geweest. Toch doen zich ook twijfels, vragen en ook serieuze problemen voor op verschillende terreinen; 1. Een centrale werkplek is echt anders. 2. De technologische stack is complex. 3. Onderschatting van het belang van capaciteitsmanagement. 4. Het change proces als faalfactor. 5. Kracht in concept, kwetsbaarheid in management. 1. Een centrale werkplek is echt anders In veel organisaties wordt bij een transitie naar een VDI-/SBC-omgeving de traditionele werkplek één-op-één overgezet met dezelfde opbouw en manier van beheer. Wanneer de desktopbeheerder zonder VDI- of SBC-ervaring na oplevering de verantwoordelijkheid moet nemen voor de centrale werkplek, zonder dat de inrichting en onderhoud aangepast is, zal dit tot structurele problemen leiden. In vergelijking met conventionele PC’s en laptops, vraagt de gecentraliseerde desktop een zeer hoge standaardisatiegraad. Zeker in een gedeelde SBC- of VDI-desktop (de zogenaamde ‘stateless’ of ‘shared’ VDI desktop) wordt een grote mate van consolidatie in het applicatielandschap noodzakelijk en wordt elk configuratiedetail belangrijk. Met de introductie van VDI of SBC wordt er vaak ook gemigreerd naar een nieuwe versie van Windows, wat de complexiteit verder vergroot. Het gevolg is dat applicaties die voorheen nooit bijzonder veel aandacht van beheer vroegen, dat in het nieuwe model wel doen. Een ogenschijnlijk klein maar essentieel verschil in gecentraliseerde desktopomgevingen: het is normaal dat gebruikers meerdere keren aangelogd zijn. Bijvoorbeeld op de PC én de virtuele desktop, of op verschillende applicatieservers wanneer gewerkt wordt met SBC. Het snel kunnen wisselen van werkplek en de snelheid van aanloggen wordt dan ook in vergelijking met een klassiek PC-/laptopmodel veel belangrijker en vraagt om andere inrichting. Organisaties die in hun werkplekomgeving de samenhang van de applicaties, data, profiel en OS niet herdefiniëren, roepen onherroepelijk beheerproblemen over zich af. De praktijk leert ook dat de beheer-tooling voor de traditionele werkplek veroudert is of nooit echt ontwikkeld is voor het beheer van VDI en SBC. De nieuwe omgeving wordt dan onnodig complex en hangt – oneerbiedig gezegd – met ‘plakband en elastiek’ aan elkaar. Het meest ongelukkige voorbeeld is toch de P-to-V (Physical to Virtual) migratiestrategie die in sommige VDI-projecten gekozen wordt. Hierbij wordt er letterlijk een één-op-één kopie van de bestaande werkplek gemaakt en daarna gevirtualiseerd. Deze strategie is nooit op grote schaal succesvol geweest en heeft, voor zover bekend, nog nooit tot duidelijke beheervoordelen geleid. Datum: 21 augustus 2013 3 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Een centrale en gevirtualiseerde werkplek vraagt nadrukkelijk om een andere aanpak en inrichting. Wanneer dit onderschat wordt zal uiteindelijk de nieuwe omgeving niet noodzakelijk beter te beheren zijn dan de vorige omgeving, waardoor vooraf gestelde verwachtingen vaak uitblijven. 2. De technologische stack is complex De technologie-stack – het geheel aan hardware en software elementen en het beheer van Windows, applicaties, storage, virtualisatietechnologieën, het netwerk en clients – is vele malen complexer dan bij de klassieke desktop. Een groot aantal technologielagen is immers gestapeld om de oplossing mogelijk te maken. Zo ontstaat een complex en ook potentieel kwetsbaar geheel, waarin de keten zo sterk is als de zwakste schakel. In de praktijk is dit duidelijk merkbaar voor gebruikers én beheerders. Helaas wordt dit meestal te laat onderkend. Wanneer de technologie-stack niet volledig in beeld is, wordt de samenhang van functionele en beheeraspecten over het hoofd gezien. Uiteindelijk leidt een gebrek aan overzicht al snel tot extra kwetsbaarheden zoals slechte performance en instabiliteit. Daarbij komt dat de organisatie bij het beheer en bij troubleshootings-trajecten doorgaans te maken heeft met verschillende leveranciers of afdelingen. De consequentie van deze complexe multi-vendor technologie-stack is dat verandering en vernieuwing doorgaans lastig te sturen zijn. Elk onderdeel van de stack heeft immers zijn eigen ‘mores’. De versnippering van de verschillende change-processen – dikwijls vanuit historische verhoudingen ook nog eens belegd bij verschillende afdelingen – maakt het lastig bestuurbaar. Veel IT-organisaties hebben dan ook moeite om de gehele technologie-stack daadkrachtig te besturen. Wanneer het inhoudelijke overzicht ontbreekt wordt de regie hierover al snel als erg complex ervaren. Het resultaat is dat de verschillende afdelingen of leveranciers naar elkaar blijven wijzen, terwijl de oorzaak van het probleem soms ‘in het midden ligt’. 3. Onderschatting van het belang van capaciteitsmanagement Bij organisaties die VDI of SBC (gaan) toepassen, is er veel onduidelijkheid over de capaciteit van rekencentra en wat er nodig is om uit te breiden. Vaak wordt een aanname gedaan in de ontwerpfase van een project. Pas wanneer de uitrol in volle gang is worden deze inschattingen in productie getoetst, simpelweg door het opschalen van de omgeving met gebruikers. Daarna wordt aangenomen dat de capaciteitseisen niet meer veranderden. Gebruikerservaring en capaciteit zijn nieuwe thema’s die beheerders weinig tegenkwamen in de traditionele desktopwereld. Datum: 21 augustus 2013 4 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Het ontbreken van capaciteitsmanagement leidt evenwel tot negatieve gebruikerservaringen of grootschalig uitval. De impact van changes kan enorm zijn, zo bewijzen de testen van het onafhankelijke onderzoeksplatform Project VRC (ProjectVRC.com). Uit onderzoeksresultaten is bijvoorbeeld gebleken dat een migratie van Office 2007 of 2010 naar Office 2013 minimaal 20 procent extra capaciteit vraagt van de infrastructuur. Changes hebben altijd potentieel impact op de capaciteit en de performance van de ITinfrastructuur. Een verandering die de snelheid van de desktop drastisch verlaagt, kom je het liefst op het spoor vóór invoering en niet achteraf, wanneer gebruikers ‘moord en brand’ schreeuwen. Toch krijgt capaciteitsmanagement in VDI- of SBC-omgevingen vrij weinig aandacht. In traditionele desktopomgevingen is deze vraag nauwelijks aan de orde. In de VDI- of SBComgevingen is dit nieuw voor de beheerder en wordt capaciteitsbeheer en validatie als complex ervaren. Het resultaat is dat beheer minder zicht heeft op de capaciteit, terwijl performance en capaciteitsproblemen meestal meerdere gebruikers tegelijk treft en een grote rol speelt in een lage acceptatie van de centrale werkplek. 4. Het change proces als faalfactor Wie een kwalitatief goede wijziging wil doorvoeren in een productie-omgeving, dient een aantal stappen te doorlopen: 1. creëren van de wijziging of package in een ontwikkelomgeving (O); 2. technisch testen in de testomgeving door IT beheer (T); 3. gebruikersvalidatie in een aparte acceptatieomgeving (A); 4. in productie nemen (P). Dit wordt ook wel het OTAP-proces genoemd. Dit OTAP-proces essentieel om de kwaliteit van wijzingen te garanderen. Helaas komt het nog steeds vaak voor dat er geen duidelijk OTAPproces beschikbaar is en dat wijzigingen zelfs rechtstreeks in productie uitgevoerd worden. Een belangrijke voorwaarde voor een efficiënt OTAP-proces is dat de ontwikkel-, test-, acceptatie- en productieomgeving uniform geconfigureerd zijn. In de realiteit komt dit maar zeer zelden voor. Dit geldt zeker in een centrale desktop-omgeving waar doorgaans erg veel verschillende applicaties en instellingen op één platform geconfigureerd moeten worden en wat het onderhoud van OTAP-omgevingen aanzienlijk compliceert. Datum: 21 augustus 2013 5 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Wanneer de ontwikkel-, test- en acceptatieomgeving voor VDI en SBC niet identiek zijn, veroorzaakt dit een pingpong-effect in het change proces, waarbij een wijziging telkens van O en T naar A gaat. En terug, wanneer de wijziging niet voldoet. Hierdoor vertraagt de realisatie van de wijziging aanzienlijk en loopt de totale beheerinspanning op. Door de standaardmanier waarop test- en acceptatieomgevingen zijn ingericht, kost het ook doorgaans moeite om parallel meerdere wijzigingen te kunnen faciliteren. Een beheerder wil van nature maar één change tegelijk uitvoeren om het overzicht te behouden, zeker in een centrale desktopomgeving waar het slecht functionerend OTAP-proces te veel inspanning kost. Het vermogen om te wijzigen zou de primaire eigenschap moeten zijn van elke gecentraliseerde desktopomgeving. Dit lijkt vanzelfsprekend, maar is dat in de realiteit zeker niet. In de ontwerpfase wordt doorgaans veel aandacht besteedt hoe alle infrastructuur-componenten geïntegreerd en geconfigureerd moeten worden. Een concrete uitwerking hoe wijzigingen uitgevoerd kunnen worden is echter zelden voorhanden. Met regelmaat is ook onduidelijk hoe het OTAP-proces eruitziet en vooral ook welke strategie gehanteerd wordt om de ontwikkel-, test- en acceptatieomgeving representatief te houden aan de productieomgeving. 5. Kracht in concept, kwetsbaarheid in management VDI en SBC worden als oplossing geroemd omdat deze het desktopbeheer verregaand centraliseert in het rekencentrum. De Windows desktop wordt met behulp van serverinfrastructuur centraal aangeboden. De combinatie van typisch serverbeheer (focus op beschikbaarheid) en desktopbeheer (focus op changes) in één omgeving heeft een aantal duidelijke consequenties. De vele samenhangende (geïntegreerde) delen van het geheel waren in de traditionele IT het domein van verschillende afdelingen. De centralisatie van de Windows-desktop in het rekencentrum resulteert vaak in een constante ‘tsunami’ van wijzigingsverzoeken op één platform, gedreven door gebruikers en applicatiebeheerders. De impact van ogenschijnlijk kleine wijzigingen is daarmee aanzienlijk groter in een gedeelde desktopomgeving. Daarnaast dient de omgeving 24/7 beschikbaar te zijn, altijd in productie en wijzigingen mogen het ‘verkeer’ niet ophouden. Daarmee is de logistiek van changes aanzienlijk complexer geworden in vergelijking met het doorvoeren van een wijziging op een PC. Organisaties die aanlopen tegen de moeizame change-praktijk van hun VDI- of SBCtechnologie-stack, ondervinden de nadelige consequenties op verschillende terreinen: Changes nemen te veel tijd in beslag. Het proces om wijzigingen uit de voeren kan veel energie vragen en is veelal een zaak van trial & error. Hier wordt het verschil zichtbaar tussen de beheerwerelden van server (‘change is een uitzondering’) en desktop (‘change is voortdurend aan de orde’). Vaak is het pas mogelijk changes uit te voeren buiten productie-uren. Het resultaat hiervan is dat overwerk voor IT-beheer de norm wordt. Bij uitrol van de wijzigingen is de (potentiële) negatieve impact van wijzigingen dikwijls veel groter dan in een traditionele desktopomgeving. De gevolgen van problematische wijzigingen zijn in de hele organisatie voelbaar en leiden zelfs tot uitval, inkomstenderving en imagoschade. Zo is niet alleen het risico van problemen in de complexe stack groter, de gevolgen zijn potentieel pijnlijker. Het analyseren van de door changes ontstane problemen en het herstel ervan kan beheerders voor grote uitdagingen plaatsen. Datum: 21 augustus 2013 6 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Gelukkig zien IT-afdelingen steeds meer de noodzaak om handwerk zo veel mogelijk uit te bannen. Immers: wie er niet in slaagt changes geautomatiseerd door te voeren, is gedoemd tot overwerk in de afgesproken periode van gepland onderhoud. Anders gezegd: beheerders die dit ‘spel’ goed in de vingers hebben, zijn van grote waarde voor de continuïteit van de IT-omgeving; wie het niet onder de knie heeft, stelt de organisatie bloot aan grote, verstrekkende gevolgen. Een succesfactor van VDI of SBC is dat de beheerstructuur er nadrukkelijk op moet worden toegesneden. Met name in grotere organisaties laat die structuur zich – zo blijkt uit de praktijk – maar moeizaam aanpassen. En juist wanneer deze kwetsbaarheid in management voelbaar wordt, leidt dit tot ‘bevriezing’ van de totaaloplossing: er wordt veel te langzaam of zelfs helemaal niet meer geïnnoveerd. Datum: 21 augustus 2013 7 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Vijf maal perspectief op verbetering We realiseren ons dat de vijf benoemde aandachtspunten een kritisch beeld schetsen van VDIen SBC-beheer. Dit is controversieel: de schone belofte van de virtuele desktop in het rekencentrum is de efficiëntie van gecentraliseerd beheer. Dat is niet onze doelstelling. Sterker nog, ervaring heeft geleerd dat het bewustzijn rondom deze beheerproblematiek en de juiste beheerinrichting, zowel technisch als organisatorisch, deze uitdagingen effectief kan adresseren. Telkens weer zien we wat het effect is van de juiste beheerstrategie. Het vermogen om te wijzigen neemt soms met wel 400 procent toe. Changes worden niet alleen sneller uitgevoerd, de kwaliteit en de performance van de omgeving is veel beter gegarandeerd. Het verschil in kwaliteit en snelheid van changes is direct merkbaar voor de organisatie en gebruikers. Opvallend is dat de juiste beheerstrategie niet alleen tot een imagoverbetering van IT-beheer leidt, vaak zien we ook een toename in de vraag naar nieuwe IT-projecten door de groei in vertrouwen. Met de tastbare verbetering in efficiëntie wordt de IT-afdeling meer dan ooit als een bekwame partner door de rest van de organisatie gezien. Hoewel de waarde van de gecentraliseerde desktop onomstotelijk vast staat, zijn er concrete valkuilen en risico’s in het beheer van VDI- en SBC-omgevingen zichtbaar. In welke richtingen zijn dan de remedies te vinden? 1. Een centrale werkplek is echt anders: neem ontvlechten serieus Organisaties die transformeren van een traditionele PC-omgeving naar een VDI- of SBComgeving, moeten erbij stilstaan dat de elementen van de nieuwe werkplekomgeving ontvlochten dienen te worden. Waar in de PC elementen zoals het OS, de applicaties en het gebruikersprofiel aan elkaar kleven, moeten deze in de nieuwe omgeving nadrukkelijk onafhankelijk van elkaar komen te staan. Dit minimaliseert ook de impact van wijzigingen. Zowel ‘applicatievirtualisatie’ als ‘profielvirtualisatie’ zijn dan ook onmisbare ingrediënten geworden om het profiel en applicaties te ontvlechten van het OS. Daarnaast wordt het belangrijk een nieuwe ‘desktop-image’ te bouwen voor de inrichting van de centrale desktop. Te vaak wordt één-op-één alle software van de PC overgenomen. Stel twee essentiële vragen die belangrijk zijn bij de bouw van een nieuw desktop image: 1. Is alles in het nieuwe image wel echt noodzakelijk voor de nieuwe omgeving? 2. Welke impact heeft het op performance? In VDI-marketing wordt vaak de belofte gedaan dat alles in één desktop-image past en daarom eenvoudig te beheren is. Voor organisaties met een grote diversiteit in desktopgebruik en applicaties is dit vaak niet realistisch. De inrichting van meerdere desktop-images is dan onvermijdelijk en begrijpelijk. Wel is het van groot belang het onderhoud van meerdere images te automatiseren: de verleiding van handmatig image onderhoud is groot en zal op korte termijn tot tijdrovend beheer en inconsistenties in gebruikservaring leiden. Datum: 21 augustus 2013 8 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Besteed aandacht aan authenticatie, de profielstrategie, het aanlogscript en policies. De wereld van VDI en SBC is echt anders, zonder herinrichting wordt het aanloggen structureel langzaam en verliest de virtuele werkplek één van zijn belangrijkste charmes voor eindgebruikers. Maak er een hoofdzaak van om het aanloggen (en uitloggen) altijd snel te laten verlopen; de gebruikersacceptatie is dan aanzienlijk hoger, zeker wanneer er veel van werkplek gewisseld wordt. 2. De technologische stack is complex: regie en overzicht is key Er zijn drie processen zichtbaar binnen het beheer van VDI en SBC waarbij overzicht op de complete technologie stack essentieel is om de juiste keuzes te kunnen maken: onderhoud op architectuur & functionaliteit; dagelijks beheer en uitvoering van changes; incidenten, problemen en support. Het verdient de aanbeveling een (virtueel) VDI- of SBC-team samen te stellen dat in alle drie processen betrokken en primair aanspreekpunt is. Om dit team goed te laten functioneren is het van essentieel belang dat zij de samenhang van de componenten overziet en naar het grotere geheel kan kijken. Wanneer dit team de impact op functionaliteit, performance en beheer overziet is het mogelijk de juiste keuzes te maken. Alleen dit voorkomt de pijnlijke ‘de operatie is gelukt, maar de patiënt is overleden’ situaties. Het team is bij voorkeur multi-skilled, zodat het functioneren over en door de disciplines gegarandeerd kan worden. Dit VDI of SBC team moet tenslotte ook eindverantwoordelijkheid gegeven worden voor het functioneren van de gehele stack. 3. Onderschatting van het belang van capaciteitsmanagement: monitor en valideer Organisaties investeren in actieve monitoring om real-time de performance inzichtelijk te maken. De waarde van performance monitoring is ontegenzeggelijk groot, zeker in VDI- of SBComgevingen waar performance-problemen gelijk merkbaar zijn voor eindgebruikers. Er is wel één uitdaging van performance monitoring: wanneer ‘de lampen op rood’ gaan is het te laat, het probleem doet zich immers al voor. Maak naast het gebruikelijke monitoring ook performance-validatie een vast onderdeel van het wijzigingsproces. Belangrijk is dat op een snelle en eenvoudige manier metingen herhaald kunnen worden. Dit geeft vooraf inzicht in de mogelijke impact op de capaciteit van de omgeving en voorkomt het reële risico van grootschalig uitval bij wijzigingen. Er zijn tools beschikbaar waarmee proactief performance-validatie uitgevoerd kan worden. Hiermee kan vooraf de impact van belangrijke wijzigingen worden gesimuleerd. De performance-validatie maakt ook duidelijk hoe de gebruikerservaring zal zijn en wat de impact is op de infrastructuur. De inzet van deze performance-validatie-tools voorkomt grote problemen en onnodige kosten. Datum: 21 augustus 2013 9 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk 4. Het change proces als faalfactor: automatiseer OTAP Door het realiseren van een goede test- en acceptatieomgeving neemt de voorspelbaarheid van de changes aanmerkelijk toe. Dit kweekt vertrouwen bij de beheerder om meerdere changes tegelijk uit te voeren en voorkomt dat betrokken partijen op elkaar wachten om de diverse stappen in het change proces uit te voeren. Investeren in een goed werkende test- en acceptatieomgeving verdient zichzelf terug, omdat de problemen in de productiepraktijk tot wel 95 procent terug te brengen zijn. Gelukkig zijn de kosten voor OTAP door virtualisatie, zeker op hardware niveau, tegenwoordig aanzienlijk lager. De verleiding is groot om vooral geld, tijd en effort te investeren in de initiële bouw van de OTAP-omgevingen. Maar de echte succesfactor van OTAP is: hardop nadenken hoe op lange termijn het onderhoud van de OTAP-omgevingen uitgevoerd wordt en hoe deze representatief blijven voor de productieomgeving. Een pragmatische en gedetailleerde uitwerking van het OTAP-proces is de sleutel tot succes. Automatiseer de bouw en het onderhoud van de ontwikkel-, test- en acceptatieomgeving om ze op lange termijn uniform te houden. Doe dit op dezelfde wijze zoals in de productieomgeving de bouw en het onderhoud geautomatiseerd is. Juist door dezelfde automatisering te gebruiken als in productie, zal de handmatige beheerinspanning voor de ontwikkel-, test- en acceptatieomgevingen minimaal zijn. Bereid changes als bouwstenen voor zodat ze makkelijk geïmporteerd kunnen worden in test-, acceptatie- en productieomgevingen. Hoe minder handwerk hier voor noodzakelijk is, hoe sneller changes doorgevoerd worden zonder de typerende handmatige ‘vergissingen’. Het is dan ook mogelijk een revisie/tracking systeem voor wijzigingen in te richten, zoals deze bijvoorbeeld in applicatieontwikkelomgevingen gebruikt worden. Dergelijke tooling vereenvoudigt de logistiek van het OTAP-proces aanzienlijk en geeft zowel historisch als realtime inzicht in welke fase wijzigingen zich bevinden. Deze transparantie in het wijzigingsproces is essentieel om de productiviteit van de beheerafdeling te verhogen. 5. Kracht in concept, kwetsbaarheid in management: breng echte dynamiek en flexibiliteit in beheer Het is al eerder gezegd: het vermogen om te veranderen moet de primaire eigenschap zijn van elke gecentraliseerde desktopomgeving. Dit zou het uitgangspunt voor elke serieuze VDI- of SBC-omgeving moeten zijn. Om dit te bewerkstelligen zijn een aantal essentiële beheerstrategieën al genoemd: de ontvlechting van de desktop, het samenstellen van een team met overzicht, een efficiënt OTAPproces en de inrichting van capaciteitsmanagement. Het is duidelijk: automatisering maakt een fundamenteel verschil. Maar rücksichtslos alles automatiseren kan ook gevaarlijk zijn. Het is dan eenvoudig te verdrinken in complexiteit. De essentie van een effectieve automatiseringsstrategie is te focussen op waar IT-beheer regelmatig (dagelijks, wekelijks en maandelijks) gelijke foutgevoelige processen doorloopt. Slimme workflow automatisering zal een fundamenteel verschil maken, zeker in VDI- of SBComgevingen waar veel dynamiek wordt gevraagd. Al snel wordt hierbij aan de inrichting van cloud-managementsoftware gedacht: veel van deze managementproducten maakt de automatisering van onderliggende virtuele infrastructuur mogelijk. Dit is op zich een prima streven, maar in de praktijk zal de automatisering van de gecentraliseerde desktop verder moeten gaan om wijzigingen te faciliteren. Juist voor het inhoudelijke beheer van desktop, Datum: 21 augustus 2013 10 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk applicaties en de persoonlijke Windows omgeving van gebruikers is meer nodig. Voorbeelden hiervan zijn: Intelligente workflow/maintenance automatisering voor wijzigingen, waardoor de juiste capaciteit beschikbaar blijft voor de organisatie, 24/7. De essentie van deze ‘intelligentie’ is dat dergelijke workflow automatisering ook om kan gaan met fouten en onverwachte situaties. Dit voorkomt dat workflow automatisering de situatie verergert door problemen nietsontziend verder te automatiseren. De automatisering zorgt voor de efficiënte distributie van grootschalige wijzigingen zonder dat de onderliggende infrastructuur overbelast raakt. Door een geautomatiseerde 24/7 ‘change window’ kunnen goed geteste changes voortdurend worden doorgevoerd zonder een structurele noodzaak voor overwerk door de beheerafdeling. De behoefte aan dynamiek gaat verder dan alleen snel en kwalitatief te kunnen wijzigen. Zowel VDI- als SBC-infrastructuren staan dicht bij de eindgebruiker. En juist de wereld van end-usercomputing is in een radicaal tempo aan het veranderen met trends als: consumerization, Bring Your Own, the Post-PC era, tablets, Android en IOS, mobile workstyles, de personal cloud en nog veel meer. Bedrijven en instellingen ervaren een groeiende druk om te veranderen en te innoveren. Innovatiebehoefte is een constante geworden! De tijd van grootschalige migraties die elke 5 tot 7 jaar terugkeren op de werkplek is aan het verdwijnen. De impact is te groot en de verandering is te laat: voordat je het weet zijn de behoeftes weer veranderd. Daarbij komt kijken dat organisaties jaarlijks betalen voor het upgrade recht van de brokeroplossing die centraal staat in elke VDI- of SBC-omgeving. Voorbeelden hiervan zijn Microsoft RDS, VMware View of Citrix XenDesktop & XenApp. En juist deze producten worden intensief geïnnoveerd, vaak om gebruikservaring te optimaliseren en betere ondersteuning van end-usercomputing trends. Met de juiste beheerstrategie, waarin zowel organisatie als techniek geoptimaliseerd is voor de centrale werkplek, kan constante innovatie eenvoudig gefaciliteerd worden. Bijvoorbeeld het simpelweg upgraden van een infrastructuurcomponent wordt zo veel eenvoudiger. Echte IT-dynamiek is de combinatie van een state-of-mind, de juiste beheerstrategie, een efficiënte organisatie en slimme automatisering. Datum: 21 augustus 2013 11 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Conclusie De beheerbelofte van VDI en SBC kan alleen ingelost worden wanneer de beheerstrategie hier op aangepast wordt. De waarheid van VDI- en SBC-beheer is dat het zeker daadkrachtiger wordt, maar niet eenvoudiger. Tastbare beheervoordelen zijn alleen te realiseren met een geïntegreerde visie en bewustwording van de valkuilen van gecentraliseerd desktopbeheer. Dan rest de vraag: zelf doen of uitbesteden? Voor deze keuze staan veel organisaties. Organisaties sluiten bij het uitbesteden van het beheer van hun IT-omgeving een contract waarin staat dat de capaciteit en functionaliteit voor de komende jaren stabiel blijft. Later betalen ze daar de prijs voor, bijvoorbeeld wanneer de implementatie van een nieuwe versie van Office onverwacht zwaardere eisen stelt aan de IT-omgeving. Er moeten dan hoge extra kosten worden gemaakt om dezelfde performance te garanderen. Beter is het om een beheervorm te kiezen, die dynamiek en flexibiliteit de ruimte geeft. Een methode van beheer die innovatie mogelijk maakt. De wereld van de eindgebruiker is immers snel aan het veranderen. De groei van het aantal changes die vanuit het perspectief van de organisatie nodig zijn, wordt verder opgestuwd vanuit de kant van de gebruikers. Daarnaast verwachten organisaties dat de IT-afdeling sneller kan inspringen op de steeds veranderende vraag van de business. Zeker in het huidige economische klimaat en de structurele veranderingen rondom end-user-computing bestaat er een grote drang tot optimalisatie, in gebruikerservaring, performance en kosten. Of u het beheer van de SBC- of VDI-omgeving zelf doet of een outsourcingspartner zoekt: stel daarbij in ieder geval de volgende kritische vragen: Wat is de visie rondom de inrichting van de centrale desktop? Hoe wordt de kwaliteit van wijzigingen gegarandeerd? Hoe worden de OTAP-omgevingen ingericht en onderhouden? Hoe verloopt het OTAP-proces? Wat wordt geautomatiseerd en wat wordt handmatig uitgevoerd? Wie bewaakt het totaaloverzicht op de oplossing? Bij wie moet ik zijn als er een probleem zich voordoet en wat is zijn/haar scope? Hoe is de capaciteit van de omgeving bepaald? Wordt de capaciteit gemonitord en wordt dit structureel gevalideerd? Hoe is het maintenance window ingericht? Wat is de impact van onderhoud en changes op beschikbaarheid? In welke interval zijn wijzigingen door te voeren? Wat is de doorlooptijd van een wijziging? Wat is de visie op het onderhoud en innovatie van de infrastructuurcomponenten? Hoe blijven we aangesloten bij de behoeftes van gebruikers op lange termijn? Datum: 21 augustus 2013 12 VDI en SBC; complexiteit en kwetsbaarheid in de beheerpraktijk Meer informatie Login Consultants is een gespecialiseerde implementatie- en outsourcingspartner voor iedereen die meer uit zijn VDI- of SBC-oplossing wil halen. Of u het nu zelf wil doen of outsourcen: stel ons dezelfde kritische vragen en deel uw behoeftes. Wij denken graag met u mee. Voor meer informatie over dit white paper of onze diensten kunt u contact opnemen met ons: Login Consultants Nederland BV De Entree 11-13 1101 BH Amsterdam Tel: +31 20 342 0280 [email protected] www.loginconsultants.nl Datum: 21 augustus 2013 13 #DesktopDestiny Login VSI No more VDI performance problems White Paper No more VDI performance problems Why a structured use of load testing in desktop virtualization is crucial for your (business) health No more VDI performance problems Disclosure and Warranty The information, concepts, and ideas contained in this document are the property of Login VSI. Without limiting the rights under copyright, no part of this document may be reproduced, stored in or introduced into a retrieval system, or transmitted in any form or by any means (electronic, mechanical, photocopying, recording, or otherwise), or for any purpose, without the express written permission of Login VSI. Any product descriptions or representations in this document are for identification purposes only and are not to be construed as a warranty of specific properties or guarantee or warranty of any other type. Login VSI shall assume no liability, either explicit or implied, for the documentation. Information in this document, including URL and other Internet Web site references, is subject to change without notice. All sample code described in this document is provided by Login VSI for illustrative purposes only. These examples have not been thoroughly tested under all conditions. Login VSI, therefore, cannot guarantee or imply reliability, serviceability, or functionality of these program or code examples. All brand names and product names used in this document are trademarks of their respective holders and are recognized as such. © 2013 Login VSI. All rights reserved. 1 No more VDI performance problems Why you should read this white paper More and more organizations are migrating their employees to centralized Windows-based desktop environments, where multiple users share centralized resources like servers, storage and software. The most compelling business drivers organizations mention for this move towards ‘virtual desktop’ environments, are security, flexibility, easier user management, and where possible, cost reduction. A structured approach towards testing in every phase, both in project and production, combined with the best tools available in the industry today, will help organizations that are using virtualized desktop environments, to enjoy well-performing centralized desktop infrastructures at the lowest cost possible. We see two cases in which the value of testing will easily be demonstrated: In the early project stages the main value of testing is to build the best possible infrastructures at the lowest cost possible. Testing all different options provides the objective data needed to help make educated decisions. In the latter project, and production stages, testing helps to avoid the risk of an user infrastructure slowdown or even a total failure. Integrating testing as a standard and ongoing business practice into the virtual desktop product life cycle is key to avoid costs and irritations of potential problem solving and business interruptions. The indirect value of testing makes the direct capital investments (think time, team, tools) needed to execute testing, sometimes hard to justify. The goal of this white paper is to help all involved to better understand, and to be able to explain, the business case behind virtual desktop infrastructure testing. Who should read this white paper This white paper is intended for everybody: Working in an end-user organization or consultancy organization and involved in, or responsible for designing, building, and managing centralized Windows-based virtual desktop infrastructures. Using VDI or Server Based Computing environments like Citrix XenDesktop, Citrix XenApp, VMware Horizon View and Microsoft Remote Desktop Services (RDS), formerly known as Microsoft Terminal Services, or any other virtual desktop environment. Looking to understand, or wanting to explain, the business case behind VDI testing. 2 No more VDI performance problems 1. In centralized user environments performance is the crucial factor The challenge IT departments responsible for hosted desktops face is to offer their virtual desktop users the same functionality as they were used to in their ‘old’ fat client environments, at the same (or even better) performance levels. Because of the centralized processing of functionality and the central storage of data, the speed and capacity of the central servers are a key success factor for these environments. “A bad desktop performance is the number one end-user annoyance in virtual desktop environments” Desktop performance problems have a very negative impact on the organization and its people: Employees will be not be able, or at least be very unmotivated, to work (frustrated users) IT staff responsible for managing the systems will get a lot of pressure (stressed IT-staff) The performance problems users experience may seriously disrupt the day-to-day business Performance problems may result in very upset customers that will be motivated to leave you In well-known organizations, system failure can seriously damage the organizations reputation A structured approach towards testing in every phase, both in project and production , combined with the best tools available in the industry today, will help organizations that are using virtualized desktop environments, to enjoy well-performing centralized desktop infrastructures at the lowest cost possible. The risks of not testing quantified The risks avoided with VDI testing – in terms lost productivity, time to repair and restart, and the effects on third parties such as clients and partners - can add up to hundreds of thousands of dollars. An example may help quantify the potential costs involved. Imagine a company with eight million US dollar in revenue, 100 virtual desktop users and 2 IT-staff to support the virtual desktop infrastructure. The financial damage at a 1% performance loss may be quantified for each group affected, as follows: Frustrated users may cost the company about $ 40.000 a year as a result of a 1% performance reduction (100 users at an average salary cost of $ 40.000 a year). Stressed IT-staff responsible for the virtual desktop infrastructure (average salary cost of $ 60.000 a year) will add to the damage. If as a result of business interruptions, 1% of upset customers decide to leave and look for another vendor, the lost revenue equals $ 80.000. And if 1% of potential new customers decide to choose for another company due to reputation loss, the revenue damage rises with another $ 80.000. The longer term damages to loyalty and reputations will even be bigger. 3 No more VDI performance problems 2. Testing in transformation projects helps to optimize spend In the early project stages the main value of testing is to help build the best possible infrastructures at the lowest cost possible, by providing the objective data needed to help make educated decisions. There are many options to consider in both software (e.g. which broker, hypervisor, antivirus solution) and hardware (e.g. which server, CPU, storage solution). And all vendors will make the claims that will fit them best. This generates the need for an objective approach and a serious benchmarking of all potential options, to make sure the wrong options are avoided and the best options are considered. Start with reading the available vendor test reports A best practice is to start reading all the test reports, validated designs and reference architectures that the vendors publish based on the industry standard benchmarking tool Login VSI. The standard out-of-the-box simulated user workloads (light for a task worker, medium for a knowledge worker and heavy for a power user) make comparisons between the claims of different vendors possible. Login VSI makes it possible to compare apples to apples in this complex and fast-changing market place. All papers based on Login VSI test data are available for free at: www.loginvsi.com/whitepapers . Test different infrastructure options in your own environment Where the white papers give a good overview of the capabilities of the different software and hardware options in clean lab environments, the actual performance and scalability of the different options may be different in your own production environment, where other influences will play a role. Testing under production load reveals all potential flaws in a vendor proposed infrastructure and helps not only to choose the best performing, but even more important, the most cost-effective solution. Perform Proof of Concepts with the intended production user numbers Ideally you would want to perform your Proof of Concepts with the intended production user numbers. There are many examples of VDI infrastructure tests using small numbers of real users that performed well initially, but later on experienced fundamental performance and capacity issues when production roll-out was scaled up. As tests with real users are often expensive and hard to organize, it is the tendency to keep the test group small. Load testing tools like Login VSI allow for easy to execute, cost-effective real-world full production load tests that will reveal and validate the true capacity of the proposed infrastructure. Business case: objective benchmarking helps international bank to optimize infrastructure choices A large international bank used Login VSI to compare Intel and AMD processors. Where one was faster but also more expensive, the test-data allowed for a fair comparison based on costs per VM. The same bank also used Login VSI to objectively choose the best hypervisor for their environment out of Citrix, VMware and Quest and to compare the performance impact of server side versus client side rendering. 4 No more VDI performance problems 3. Testing in production helps to avoid failure and associated costs In the later project and production stages testing is the way to avoid user infrastructure slowdown or failure including the resulting costs and irritations of problem solving and business interruptions. Organizations that experience this type of problems are seeking for a way to solve them. Organizations that are quite happy with the current performance are looking for ways to make sure it stays that way. The many real life business cases throughout this paper not only demonstrate the value of testing to prevent problems, but also the fact that these problems can happen to anyone, and may happen more often that you want. Every update, upgrade or any other change may have a very negative effect on your virtual desktops. It pays to be prepared for these scenarios, as prevention is always better than cure. Business case: testing helps to stay out of trouble, how to avoid 20% performance loss Lab tests show that the upgrade from Microsoft Office 2010 to Office 2013 results in a 20% reduction in performance. Most upgrades in software applications mean more functionality and a richer user environment. So a degradation of performance, or the need for more infrastructure, is inherent. For this reason it must be a standard procedure to test all software upgrades upfront to measure the exact impact, and necessary extra hardware resources, before implementation into production. Any untested upgrade may result in unhappy users, IT-staff stress, and business productivity losses. This is obviously true for larger but also for smaller production environments (of 50 to 100 desktop users). Business case: insufficient testing puts 25% of workforce out of business A European fundraiser for healthcare research relies on a Server Based Computing environment based on Citrix XenApp, to provide a productive desktop environment for 600 telephone fundraisers. The intended update to the PVS image was tested by a subset of 60 real users. This small scale test with real users did not reveal any performance problems and the update was rolled out into production. The next day 150 of the 600 staff were unable to work for a number of days causing serious loss of income. Management was very upset and ordered VDI testing to be fully integrated into the business continuity processes. All VDI related infrastructure changes are now tested full-scale with Login VSI before being implemented, and monthly stress tests are executed to prepare for other unforeseen potential issues. Business case: large government agency avoids disaster roll-out to 5000 users A large Dutch government agency was moving towards 15,000 virtual desktop users. They negotiated a fixed price deal, including all hardware needed, with a large service provider. When the first block of hardware for 5,000 users was implemented based on sizing estimations, the customer decided to validate the infrastructure before starting roll-out to the production end-users. The scalability tests with Login VSI showed that the infrastructure installed could only support 3,500 users. The numbers were used to negotiate a larger environment with the service provider, and a great disaster was prevented. 5 No more VDI performance problems 4. Traditional testing suites made testing expensive and awkward Testing with traditional testing environments used to involve a very tangible capital investment in large testsoftware suites and specialized test-hardware. The traditional test process involved weeks or sometimes months to install the test software and again lots of time to build and perform the actual tests. Professional testing engineers were needed to install the test environment, to build and run the tests, and to read and understand the performance test-results. So even if organizations were mature enough to recognize the risks of not-testing, the costs (in time, money and hassle) of the use of traditional testing environments were still so high that many organizations opted to ‘just see what happens’. A strategy with sometimes disastrous results… Business case: Fortune 100 health care company avoids disaster roll-out to 2000 users A Fortune 100 US health insurance company, used Login VSI to safely migrate to a new storage platform to better support their hosted desktop environment. Conventional tests by the different vendors of the separate components (storage, server, hypervisor) all showed all good performance. But tests of the complete infrastructure (all servers instead of a single server) with Login VSI hinted at possible problems. Further research showed a significant error in the storage configuration that would have caused serious performance problems when this system was rolled-out to all intended 2000 users. Business case: How testing before production helped a US law firm IT-director to keep his job For a successful migration project from fat clients to a centralized user environment providing a good user experience is key. After the original capacity planning based on assessments and best practices the IT director decided to validate the environment by load testing with Login VSI before going production. The tests showed that the planned infrastructure for 300 users, was only able to support 78 users. Logon times exploded from 12-20 seconds to 200-500 seconds. The tests also revealed serious mistakes in the way the storage and servers were configured. The original intention was to start the roll-out of the new virtual desktop environment to senior staff of the law firm. The testing with Login VSI not only prevented serious business disruptions at the law firm, but also an abrupt end to an IT directors career. 6 No more VDI performance problems 5. Login VSI makes VDI performance testing easy and cost effective Login VSI simulates out of the box workloads and does not require any additional infrastructure. Login VSI was designed by experienced VDI and SBC specialists, who created a tool that was easy to implement and easy to use, based on their own wishes and needs. Because Login VSI can be deployed very quickly it allows you to profit from the benefits of testing in every phase of your desktop virtualization project. Login VSI is designed for easy installation Where traditional test environments used to take up to four weeks to be installed and started, Login VSI can be installed and ready for use in less than four hours. Login VSI makes test creation and execution easy The industry standard workloads make starting a test easy and quick. The flow-based interface makes test building and execution easy for non-test professionals. Login VSI produces easy to understand results The index VSImax, indicating the maximum number of virtual users that can be served by the tested infrastructure with an acceptable performance, is easy to understand, making scalability comparisons between different tests comprehensive for all. An investment in Login VSI pays for itself Where traditional testing environments were very costly to buy, and to maintain, Login VSI introduces very competitive pricing models, based on a one time purchase of the software and yearly maintenance. Login VSI makes testing virtual desktop environments available and cost-effective for all By lowering the costs (in time and money) of VDI testing dramatically, Login VSI makes VDI performance testing accessible to all. This way we help organizations to reach the intended benefits of virtual desktops, without the risks and dangers of performance problems. A structured approach towards testing with Login VSI lets leading organizations in the world to build more flexible user environments, increasing their organization’s productivity, while reducing costs. 7 No more VDI performance problems 6. Investing in VDI performance testing: CAPEX and OPEX In financial management two terms are used to describe investments in IT (or other business costs). Capital Expenditures (CAPEX) refers to the original investments made in innovation projects. In IT this means all the costs needed to buy (hardware and software) and build a new infrastructure. Typically these type of costs are the responsibility of project managers. Operational Expenditures (OPEX) refers to the returning costs of products, systems or organizations. In IT this means the yearly operational costs for the management and maintenance of an IT infrastructure. Costs include people, support and maintenance contracts and more. Typically these type of costs are the responsibility of (e.g. virtual desktop-) infrastructure managers. If we expand on the numbers used earlier in this paper, we can use the following calculations as examples that can be used and adapted for your own organization’s situation. Relative investment of Login VSI as Capital Expenditure CAPEX per User Typical VDI infrastructure cost (1) $ 1.500 Typical Login VSI license cost (2) $ 56 Relative Investment 3,7 % (1) Source: Sample configuration in ‘Toolkit: Hosted Virtual Desktop Infrastructure Planner’, December 2012. By Federica Troni and Nathan Hill, Gartner. (2) Smallest Login VSI perpetual license + 1st year support The relative investment needed to purchase the load testing tool Login VSI is less than 4% of an average virtual desktop infrastructure (hardware plus software) investment. If Login VSI helps to make better and safer infrastructure decisions this can easily save you 4% of your total costs. Login VSI also helps to avoid serious production disturbances that can severely damage your business. As described in section 1 of this white paper, a 1% performance loss can add up to (a few) hundred thousand dollars in financial damage. Relative investment and ROI of Login VSI as Operational Expenditure OPEX per User Total salary cost of a knowledge worker (1) $ 40.000 Typical Login VSI license cost (2) $ 18 Relative Investment 0,045 % ROI in hours/days <1 hour.. (1) With a working year of 230 days, this makes a cost per working hour of 22usd. (2) 250 users, 5 year write off, 20% support The relative investment needed to include testing in your day-to-day business practice is less than a 0,5% of an end-users yearly salary cost. If testing saves each user 1 hour of trouble a year, the investment in a tool like Login VSI is already repaid. Every extra hour of trouble avoided increases the ROI dramatically. 8 No more VDI performance problems 7. The business case for VDI performance testing: a model to use Benchmarking different infrastructure options in the project phase, helps you: Compare and select the best performing products (and avoid technical problems) Compare and select the most cost-effective products (which helps to save costs) Make choices based on objective tests (which helps to avoid discussions afterwards) Compare old and new environments (which helps to build sound business-cases) Capacity planning and production readiness in the project phase, helps you: Validate sizing estimations and calculations (and avoid over-, or under-spending) Make a budget based on facts (and avoid financial disappointments later) Test the entire infrastructure before going production (and avoid performance issues) Load testing and stress testing in the production phase, helps you: Determine your systems maximum user load (which helps to support planned growth) Prepare for non-standard peak-usage scenarios (which helps to prepare for unplanned loads) Get an objective baseline measure of performance (and reduce expensive production problems) Testing the impact of every change in your VDI production environment helps you: Avoid unexpected performance problems (and avoid problems instead of fixing them) Test potential improvements upfront (and improve your infrastructure without risk) Safeguard the ‘health’ of your environment (and therefore reduce problems in production) 9 No more VDI performance problems 8. About Login VSI Login Virtual Session Indexer (Login VSI) is the industry standard performance and load testing tool for virtualized desktop environments like VDI and Server Based Computing. Login VSI can be used to test the performance and scalability of VMware Horizon View, Citrix XenDesktop and XenApp, Microsoft Remote Desktop Services (Terminal Services) or any other Windows based virtual desktop solution. Login VSI is a good choice for benchmarking and Proof of Concepts 100% vendor independent and 100% objective out of the box standard workloads make product comparisons easy Login VSI is used by all leading VDI-related technology vendors Login VSI is a good choice for capacity planning and production readiness easy to use through out-of-the-box workloads (where sufficient) precise through easy workload customization (where needed) used for sizing by SE’s of Cisco, HP, Citrix, VMware and many more Login VSI is a good choice for load testing, stress testing and baseline different standard workloads are available for different scenarios Login VSI allows for (close to) simultaneous logons or workloads workload content and phasing can be adapted to reflect real-life usage Login VSI is a good choice for change impact prediction ease of use allows for testing each intended change before production large end-user organizations use Login VSI as a part of their DTAP street perpetual licenses provide value for money and lifetime protection more information about Login VSI, or a free trial, please visit www.loginvsi.com. Benefits of Login VSI for the organization: Benefits of Login VSI for the IT manager: No frustrated desktop users Maintained management support No costly business interruptions More successful VDI projects No stressed desktop managers Happy end users, less complaints No frustrated customers You add to the companies health Avoid damage to reputation And you may get the corner office 10 No more VDI performance problems Appendix 1 Recognizing the risks of not testing: Questions you can ask yourself Why invest in Benchmarking different infrastructure options When evaluating new SBC or VDI products, are you interested in how they perform in your environment? Do you trust the claims vendors make about this? Would you trust real-life results better? Especially tested in your own environment? How would it help you if you had an easy to implement, easy to use tool to compare them on their performance and scalability? Have you or someone else ever made a wrong choice here? What are the consequences of a wrong choice.. for the users, for you, for the company, in terms of time, money, hassle, frustration? If you could test different products in a real-life but simulated environment before selection would this be of value? What would be the biggest benefit for the company? How could this make your life and the life of your datacenter staff better? Why invest in capacity planning and production readiness Do you plan to move from fat to thin clients? Is there growth expected in number of users. How do you test how much servers and storage you need to maintain a good user experience? How much do new servers cost? How bad is it if you bought too much capacity? How would this affect your budget, your credibility? How bad is it if you bought too little? What would be the biggest risk? What consequences? Did this ever happen? What happened then? How could it help you if you could simulate the workloads of your users to determine the capacity of one server, so you can determine how many you need? How could this help to prevent problems, save costs in hardware/ software/ datacenter space, power? Why invest in load testing, stress testing and baseline Do usage-peaks occur sometimes? Are they predictable (like logon-storms)? Are you 100% sure your new system is powerful enough to survive usage-peaks. Is there growth in the company? Can you handle the extra number of users? Do you know the maximum capacity of your system? How could knowing this help you? What would be the biggest problem if the system slowed down during a peak? What would be the consequences in time and money, for you, other users, other departments, and the company? What would be the biggest benefit to know the maximum load of your current system? Why invest in change impact prediction How important is performance? Do you ever experience issues here? Do users complain about performance? Do you know what causes these problems? Do you ever experience performance loss after installing a new version, update, upgrade, patch? What was the last time this happened? What happened? How much time was lost? Who suffered? What is the effect on the motivation of the users? What do they do when this happens? What is the effect on the business? How often does this happen? What would be the costs of this in time and money? What is the chance this happens again? Would it help if you could predict the effect on performance of all changes on beforehand? What would be the biggest advantage for you if you could predict the impact on performance of every change? What would be the biggest benefit for the company? How much money or time could you save? 11 No more VDI performance problems Appendix 2 6 Recommendations and Best Practices to avoid performance problems 1. Read the relevant test reports, validated designs and reference architectures that infrastructure vendors have published, based on the industry standard tool Login VSI (see www.loginvsi.com). 2. Test all infrastructure options proposed by the different vendors, in your own business environment. 3. Test hosted desktop infrastructures sized on calculations and best practices before going production. 4. Test all intended infrastructure changes before implementation for possible performance impact. 5. Test with the real production number of users. Subsets not always reveal all potential problems. 6. Test the entire infrastructure. Testing components or single servers, may not reveal all problems. Best Use Scenarios for Hosted Virtual Desktops, Mark A. Margevicius, Gartner “Problems with HVDs include scalability and application performance. Many organizations that have successfully deployed HVD in test/pilot mode experience scalability issues as the number of users grows. Simple pilots of 50 to 200 users are common and are, for the most part, successful. These pilot users are typically task-based, have the same software requirements, are LAN attached, and can be managed with traditional tools and techniques. However, as the number of users increase, so does the complexity. Organizations that create static VMs for each of their users are confronted with numerous PC images, exploding storage requirements, unique configurations for nonstandard users and general management complexity.” 12 #DesktopDestiny Nutanix Virtual Desktop Infrastructure and Healthcare Nutanix White Paper Virtual Desktop Infrastructure and Healthcare Virtual Desktop Infrastructure (VDI) continues to build momentum as a potentially transformative technology in terms of increasing IT efficiency. VDI can be particularly beneficial for the health care industry by better enabling health care institutions to meet the requirements for quality, speed and privacy in regard to patient care and data. This paper evaluates the usage of VDI in health care. ©2014 All Rights Reserved, Nutanix Corporation 1 Copyright 2014 Nutanix, Inc. Nutanix, Inc. 1740 Technology Drive, Suite 100 San Jose, CA 95110 All rights reserved. This product is protected by U.S. and international copyright and intellectual property laws. Nutanix is a trademark of Nutanix, Inc. in the United States and/or other jurisdictions. All other marks and names mentioned herein may be trademarks of their respective companies. ©2014 All Rights Reserved, Nutanix Corporation 2 Table of Contents 1.! Introduction .................................................................................................... 4! 2.! The Evolution to Virtual Desktop Infrastructure ............................................. 5! 3.! VDI Benefits for health care ........................................................................... 7! 4.! Reducing IT Costs with VDI and Nutanix ..................................................... 11! 5.! Why a Strategic Approach to VDI is Imperative ........................................... 17! 6.! Conclusion ................................................................................................... 19! ©2014 All Rights Reserved, Nutanix Corporation 3 1. Introduction Virtual Desktop Infrastructure (VDI) continues to build momentum as a potentially transformative technology in terms of increasing IT efficiency. VDI can be particularly beneficial for the health care industry by better enabling health care institutions to meet the requirements for quality, speed and privacy in regard to patient care and data. This paper evaluates the usage of VDI in health care including: • What is VDI and how does it differ from Server-based computing (SBC)? • VDI benefits for health care o Improved Clinical Efficiency o Improved IT Efficiency o Improved Security of PHI • Reducing IT costs with VDI and Nutanix • The challenge with traditional storage • Enabling VDI ROI with Nutanix • Why a strategic approach to VDI is imperative ©2014 All Rights Reserved, Nutanix Corporation 4 2. The Evolution to Virtual Desktop Infrastructure Many health care organizations are familiar with Citrix Presentation Server and/or Microsoft Terminal Server (now called RDS), which they use as part of a server-based computing (SBC) deployment. SBC allows multiple users to share the same Windows Server (RDS) operating system. Alternatively, VDI allows each user to run a separate Windows OS (for example Windows 7 or Windows 8) desktop session. Both VDI and SBC are similar in that they intelligently separate the personality of the user from the applications and abstract both from the OS. They enable a model of personal computing where the information belongs to the user and the device becomes a “choice” whether a PC, laptop, thin client, Mac, iPad, iPhone or Android tablet. Users can securely establish a session from anywhere that they can get to a browser. The session remains exclusively in the data center where it is secure, managed, backed up and replicated off-site for disaster recovery purposes. While Citrix created server-based computing almost 20 years ago, it has primarily been utilized for application delivery. Difficulties in resolving application incompatibilities, providing users with a familiar “look-and-feel” desktop, session lock down, printing, and administrative requirements have kept SBC from wide-scale adoption despite the cost advantages. Virtual Desktop Infrastructure (VDI), on the other hand, started around 2006, and increasingly captured the interest of IT professionals and business leaders already familiar with server virtualization. IT is generally more receptive to the simplicity of the virtual desktop concept than to the idea of enterprise SBC. Gartner refers to the concept of VDI as Hosted Virtual Desktops (HVD) while IDC calls it Centralized Virtual Desktops (CVD). The VDI industry has huge momentum and now includes not only VMware and Citrix, but also Microsoft, Red Hat, Quest (Dell) and many smaller niche players along with a rapidly growing ecosystem including organizations such as Unidesk, Liquidware and AppSense. SBC enables the use of thin clients, while VDI enables the use of either thin clients or zero clients. Zero clients are manufactured today by companies such as LG, Samsung, EVGA, Dell, and HP. Zero clients have no local OS at all, and are therefore particularly easy to support. Both thin clients and zero clients are fairly inexpensive and have no moving parts, local drives or fan noise. The devices are configured simply by plugging them in, enabling simple replacements in the event one fails. They eliminate the requirement for upgrading PCs or laptops on a regular basis as well as the necessity for users to double as desktop administrators. User productivity is enhanced while IT support time is reduced. ©2014 All Rights Reserved, Nutanix Corporation 5 Both SBC and VDI can reduce anti-virus costs, slash power consumption (by using terminals) and reduce downtime while users await new upgrades or help desk support. They empower users – giving them a new level of flexibility and agility. They facilitate acquisitions by enabling quick assimilation of new organizations into the existing desktop infrastructure while still allowing them to run their existing environments in parallel. They enable fast set-up of remote facilities and reduce time to market by accelerating application provisioning. Unlike SBC, the ability for users to work on a rich Windows 7 or Windows 8 desktop is one of the most compelling aspects of VDI along with no worry about application incompatibilities due to running on a specialized version of Windows Server (RDS). Other advantages include enhanced security posture, fault tolerance, superior loadbalancing, easier backups, lack of DLL conflicts and a potential pristine desktop every time a user logs in. VDI administrators do not need to be specialists in RDS or server registry hacks, and can utilize standard Windows printing. One of VDI’s most attractive capabilities is the ability to for health care workers who use multiple devices in order to work from home, outpatient facilities or even from multiple rooms. VDI offers a much more attractive alternative where users simply and securely log onto their virtual desktop from any device from anywhere and are consistently presented with an identical user interface. ©2014 All Rights Reserved, Nutanix Corporation 6 3. VDI Benefits for health care Unlike many businesses and organizations that might only have a handful of applications to support, health care facilities have scores or even hundreds. Increasing regulations in health care make information control more important than ever while expensive staff necessitates IT systems enabling as efficient use of their time as possible. The prevalence of outpatient services, industry consolidation and the push for Accountable Care require faster, simpler, affordable, and more secure deployments. The high cost of health care professionals means that increasing productivity through VDI may have even a more significant economic impact than any infrastructure-based cost reductions. And while infrastructure-based costs can represent immediate savings, VDI deployments in health care facilities are poised to enjoy a myriad of benefits in terms increased efficiencies and data security enhancements. Improved Clinical Efficiency • Improved Mobility. VDI truly lets mobile workers access their desktops efficiently and securely from anywhere they can get to a browser. In the world of ever expanding Accountable Care Organizations, industry consolidation and consultative partnerships the ability to deploy desktops in a matter of minutes saves time, money and improves access to critical patient data. With a web browser and user credentials end users, regardless of their location, have secure access to all desktop tools and available patient information. • Follow-me Desktops. Clinical staffs tend to log into desktops frequently – 50 times in a shift is not uncommon. It typically takes around three minutes or longer to boot up a standard desktop with data and applications. Utilizing Virtual Desktops clinical staff can both log on and disconnect from sessions very quickly, reducing access time by around 50%. Consistent desktops also eliminate the confusion of user interface changes when sharing or rotating between multiple workstations or device types. • Reduced Downtime. Failed devices are easily replaced and running in a matter of minutes without the need of rebuilding local drivers and connections to additional end point devices. The ability to quickly return care stations to working status improves the ability to keep utilization of expensive assets like the operation room, MR & CT areas at high levels. • Access. Ubiquitous access to health care applications will translate into productivity and patient care improvements, which can yield to significant benefits. Easier, universal and secure access to EHR, PACS, labs and centralized ©2014 All Rights Reserved, Nutanix Corporation 7 applications will empower end users at the point of care on any device. Eliminating the need for specific task dedicated workstations; virtual desktops will remove the need for multiple logins on different devices and merge the remote silos of clinical data onto a common platform. • Rapid scaling capabilities. The rapidly changing health care market forces the need to maintain flexible and adaptable operating environments. With the vast amount of changes in health care today providers need to remain flexible. Unlike PCs and laptops, which must be ordered, configured and provisioned – virtual desktops can be deployed in minutes. Health care facilities consequently gain much faster access to desktops required when acquiring new facilities, joining care networks or simply adding new applications. Improved IT Efficiency • Improved backup. Since all the virtual desktops reside in the data center, they are backed up regularly without requiring expensive local backup software on individual PCs and laptops. VDI also enables backing up the full desktop image meaning that it can be redeployed in a matter of minutes rather than the much longer period of time it can take to reimage a physical desktop. Third-party applications by companies such as Unidesk and AppSense give users the ability to roll back their own desktops without requiring IT administrative assistance should they need to recover deleted files. • Superior disaster recovery. While organizations may spend a great deal of money implementing data center DR plans, they often forget about the client side of the equation. Even the most sophisticated data center DR plans are rendered ineffective if users can’t access the client-server software they need in order to connect to their applications at the recovery site. And if their data is sitting on the hard drives of PCs or laptops in the affected building, their ability to fully recover can be seriously compromised. Virtual desktops eliminate all of these issues since they are continuously replicated to the DR facility along with the virtual servers. In the event of a disaster, users just need to get to a browser on any device from any location, and they can easily and instantly gain secure access to their applications and data at the recovery site. • Superior desktop management capabilities. Pushdown software applications are no longer required for effective desktop management. Indeed, virtual desktops provide the most efficient and effective desktop management possible by separating the desktops from the underlying hardware and associated issues that defective or incompatible hardware can cause. Dozens of desktop images no longer need to be maintained and deployed. Additionally, virtualizing the applications themselves adds yet another layer of abstraction and helps prevent application freezes due to DLL and registry conflicts. ©2014 All Rights Reserved, Nutanix Corporation 8 • Increased IT staff productivity. The IT staff no longer needs to maintain and deploy a vast array of desktop images. Virtual desktop snapshots (backups), management and administration are conducted as part of an overall virtual infrastructure environment utilizing optimized toolsets for the tasks. A failed PC or laptop is no longer a crisis or even really an inconvenience since a user can simply plug in another device and be back at work. Remote clinics no longer require emergency visits to replace failed servers or tape backup units. The IT staff’s ability to more effectively add hardware, troubleshoot remotely and even budget is all significantly enhanced. • Improved software license compliance and cost control. A VDI environment puts IT in control of all software since it all runs on the virtualization hosts. IT can easily track usage trends and help minimize licensing costs. More importantly, IT is now better able to both identify best practices in terms of optimal software as well as emphasize the elimination of redundant and overlapping software packages. • Superior user support. In most organizations there are users who seem to have a dark cloud over them when it comes to PCs or laptops. Their power supplies burn out, corrupting their desktops. They lose critical files even though they’re sure they’ve saved them. They inexplicably run slower or freeze up entirely every 3 or 4 weeks, but IT is never able to replicate the issues. These types of problems are dramatically reduced when an organization implements a cohesive virtual desktop strategy. The hardware based challenges are eliminated and IT now has the ability to quickly monitor, test, replicate and recover virtual desktops as needed. • Less downtime. User downtime is slashed in two ways. On the data center side, the virtual desktops now benefit from the same advantage that virtual servers have in very rapid recovery in the event of failure. As with servers, they can even utilize real-time clustering (using VMware Fault Tolerance) if needed. On the client side, downtime caused by hardware issues or incompatibilities is eliminated entirely while lock-ups due to DLL conflicts or malware are significantly reduced. Downtime is also no longer required for PC/laptop upgrades or refreshes. • User device proliferation. Users are increasingly demanding effective utilization of non-traditional devices such as iPads, Smart Phones and Android tablets. VDI enables IT to provide Windows 7 based desktops to these users complete with all of the authentication, security, reliability and management required as part of the organization’s governance policies. Improved Security of PHI • Enhanced logical security. When users have access to their physical PCs or laptops, they are easily able to infect their devices with viruses, spyware or other malware. With The Advisory Board Company estimates that list the black market ©2014 All Rights Reserved, Nutanix Corporation 9 price for an Electronic Medical Record at $50, theft of patient data is on the rise. Combined with painful HIPAA Omnibus fines – of up to $1,500,000 - and crippling damage to brand goodwill, mitigating data breach is paramount in health care. VDI limits the ability of end users to modify devices and centralizes control to help prevent against network based data breaches. • Enhanced physical security. A February 10, 2011 issue of Health care Informatics reported that two-thirds of all protected health care information breaches were due to theft of laptops and other portable devices. Centralizing data in a VDI deployment removes secure information from these endpoint devices and eliminates the need for purchasing and managing local firewalls and encryption software. Strategically implemented lost or stolen devices do not contain PHI in a VDI deployment and in the event of theft; VDI will increase the likelihood of determining a low probability of compromise. • Enhanced regulatory compliance. The ability to monitor every virtual machine in a central location makes it easier to prevent patient privacy issues and to comply with regulations concerning PHI. Eliminating the always-on workstation, end users are required to provide credentials when accessing a workstation. Not only can access be restricted, but also in a VDI deployment, desktop permissions can limit access to approved functionality only. • Improved patching. The ability to automatically and centrally patch monthly or weekly software updates enhances the capability to immediately and universally deploy at risk security updates. Compare VDI patching to the existing labor intensive and incomplete method of patching to hundreds if not thousands of physical end devices and the cost and compliance savings are enormous. Even if achieving a high success rate with current deployment methods, the time and effort spent to guarantee and document compliance is a challenge not worth risking. VDI can centralize, standardize and simplify patch application. ©2014 All Rights Reserved, Nutanix Corporation 10 4. Reducing IT Costs with VDI and Nutanix It’s been a commonly accepted industry maxim that virtual desktops might improve management, enhance user productivity, facilitate BYOD, enable superior DR, and so on – but forget about saving money. Virtualizing servers is fairly predictable for most organizations. IT can use various tools to gauge the number of likely candidates up front, and purchase the required infrastructure to enable an orderly transition to a virtualized environment. Users should, hopefully, not be impacted other than by improved performance and less or eliminated downtime from server maintenance or failures. Virtualizing desktops is far more challenging than virtualizing servers. Applications or usage patterns can easily change over time requiring unexpected resources. And a health care VDI initiative typically includes hundreds or thousands of users – each with their own expectations, application requirements and perceptions. Consider the workload generated by a standard clinical EMR user, versus a user in Radiology processing advanced CT images. Every user and therefor every workload in a VDI deployment is unique. Virtual desktops utilize write-heavy workloads with random 4K IO packets. This makes achieving consistent performance difficult: IOPS requirements can swing wildly depending upon usage patterns, time of day and type of applications being accessed. Boot storms, anti-virus scans and patch update cycles can all put sudden loads on the infrastructure and impact general performance. Users tend to be adverse to change in even the best of cases. If their performance varies under VDI – even if only during occasional boot or write storms, they often become quite vocal and can slow or kill a virtual desktop initiative. Ironically, it is better to have consistently sub-par virtual desktop performance rather than randomly fluctuate between sub-par and good. Other variables can also affect virtual acceptance. Many laptop users, for example, may be happy to exchange their devices for a virtual desktop that follows them around – particularly between offices or between their homes and offices. But other laptop users may require or simply demand a truly mobile device. As a result of the uncertainty regarding both the ultimate VDI user population and performance requirements, Health care institutions generally deploy a virtual desktop environment over a number of years, making adjustments as appropriate. IT commonly migrates users to virtual desktops during their normal PC or laptop refresh cycles by either locking down their devices to act like thin-client terminals, or replacing them with thin-client or zero-client devices. ©2014 All Rights Reserved, Nutanix Corporation 11 Implementing virtual desktops over time for an ultimately unknown population does not mesh well with traditional storage infrastructures. Organizations face either purchasing storage arrays up-front with far more capacity than required, or risk forklift upgrades down the road. The initial capacity must be adequate to handle any future growth in the user population, new applications or other unanticipated resource requirements, as well as spikes in intermittent resource utilization. The Challenge with Traditional Storage Most organizations, not unexpectedly, do a poor job of estimating the storage requirements up-front. A recent Gartner study of 19 organizations that deployed either VMware View or Citrix XenDesktop showed that 17 of the 19 spent more on storage than expected, and that storage, on average, accounted for 40% - 60% of the entire VDI budget. A Gartner analyst commented that the only reason two of the organizations managed to stay within their storage budget was that they purchased so much of it up-front. High initial storage cost combined with the difficulty in forecasting the parameters of a VDI deployment in terms of users and resource requirements years down the road tends to create project inertia. Adding to the consternation is the obvious disadvantage of consuming the excess storage capacity at a future date when it will be markedly inferior in comparison to new technologies. A virtual data center also changes the dynamics of the traditional stovepipe IT organizational model whereby the server, network and storage teams can no longer work effectively in silos. VDI requires further collaboration with desktop and application teams. A 2011 InfoWorld article stated that IT collaboration was the #1 obstacle to VDI adoption. Virtualization customers have demanded solutions that reduce management complexity, enhance collaboration, and that help eliminate inevitable finger pointing from different manufacturers of storage and servers. The datacenter manufacturers have responded. All the leading players have a version of what they refer to as a “converged infrastructure” that combines compute, storage and network resources either as products or as reference architectures. But calling these solutions “converged” is a misnomer. A better description would be “adjacent infrastructure” since the underlying compute and storage tiers must still be managed separately, and they still require an intermediate network to move data continuously between them. While these pre-packaged compute + storage solutions can substantially reduce the time required to implement the back-end VDI infrastructure, they can also exacerbate the difficulties organization face in moving ahead with VDI. Now IT must purchase not just the storage, but in some cases much of the server resources, up front as well. ©2014 All Rights Reserved, Nutanix Corporation 12 Enabling VDI ROI with Nutanix Google pioneered the web-scale infrastructure in the cloud provider space, and it is now utilized by every leading cloud provider. Web-scale enables consolidation, linear scalability, fractional consumption and an abstraction of the intelligence from traditional hardware arrays into software-defined storage. The compute and storage tiers combine into a single consolidated infrastructure. Nutanix brought this model to the enterprise by leveraging the hypervisor to virtualize the storage controllers themselves. Since every server is a virtual storage controller, the crippling boot and write storms common with traditional storage arrays are eliminated. The local disk combined with integrated flash and auto-tiering of workloads provides for a consistent user experience and, consequently, much greater user acceptance of the virtual desktop environment. The Nutanix Virtual Compute Platform installs in under an hour, and is managed by the virtualization administrators through the virtualization platform console, eliminating the requirement for storage and compute administer collaboration. Unlike traditional arrays, storage administrators do not continually field requests from the desktop team for more LUNs or IOPs. Most importantly, Nutanix enables the VDI environment to expand one server at a time. The much lower initial investment enables a quick payback period. And the overall spend is also reduced since Moore’s Law ensures declining costs relative to VM density. Utilizing Nutanix, health care institutions can inevitably fund their entire VDI projects including infrastructure, licensing and services – with just their normal refresh budgets for PCs and laptops. In fact, they almost certainly will have plenty of budget left over. The example below is based on one of Nutanix’s health care clients, a California County, who virtualized 2,560 PCs and laptops over 5 years at the rate of 606 virtual desktops created the first three years, and then 521 the last two years (to match the refresh rate of 5 years for PCs and 3 years for laptops). Existing PCs and laptops are locked down as thin-clients, and kept for 3 years after their normal refresh cycle, then replaced with 22” LG integrated zero-client monitors. The LGs are purchased for new users. Microsoft SA costs $50/user/yr. and VDA $100/user/yr. Utilizing Nutanix rather than the conventional storage and converged infrastructure solutions provides a projected 5-year positive cash flow of $247,902 vs. a initial investment of $595,843 which equates to an ROI of 42% and a 10.9 month payback. ©2014 All Rights Reserved, Nutanix Corporation 13 Including projected 5-year IT staff savings of $2,372,348 from migrating to virtual desktops brings the ROI up to 298% and reduces the payback period to 9.6 months. While each organization tends to have unique aspects of its environment to consider when evaluating projected cash flows from implementing VDI, some of the common ones are as follows: PC Costs: PC costs are calculated both for expected new PC purchases each year as well as for expected upgrades to existing PCs. PC costs should reflect not only the cost of the units, but also the relevant associated costs including: tax, shipping, cabling, set-up and configuration. In the County health care example above, this cost was calculated at $750. Laptop Costs: Only the laptops that can be virtualized should be considered as part of the cash flow analysis. These include laptops that can effectively utilize off-line VDI, and those laptops that are given to employees to work between the home and office. In the later case, the laptops can often be eliminated and the employees instead given a virtual desktop that is easily accessible from wherever they can get to a browser. As with PCs, laptop costs should incorporate all relevant tax, shipping, etc. as well as monitor and docking station if applicable. The total cost in the example above was calculated at $1,815 including monitor and docking station. PC/Laptop Disposal Cost: The health care organization in the example above had $100 disposal costs for disposing of old PCs and laptops including degaussing drives. This is fairly typical. ©2014 All Rights Reserved, Nutanix Corporation 14 Client Devices: Under the virtualization scenario, costs are calculated for expected new devices for new users. Many organizations choose to purchase lower cost thinclient or zero client devices which also require less power and support and in many cases can provide an improved user experience due to faster boot-up, less space requirements and no fan noise. IT Staff Costs: Associated IT staff costs with securing, managing, and backing up and supporting both physical desktops and their virtual equivalents. These include tasks such as help desk support, OS/application patching, desktop imaging/reimaging, user administration, hardware configuration, and application provisioning and upgrades. On the virtualization side, the appropriate increased cost, if any, for managing the virtual desktop infrastructure component of the private cloud. An IDC study says that it takes 12.2 hours, on average, to support a physical desktop per year and 5.2 hours to support a virtual desktop. Remote Clinic Costs: In many cases under VDI, the physical servers and related network infrastructures can be eliminated from smaller remote offices and the users instead run their desktops as virtual machines from the corporate data center. In these situations, the costs for the remote office servers, backup equipment, UPS, maintenance contracts, staff support, etc. can be calculated and contrasted against the much lower operating costs for consolidating the physical desktops to virtual machines in the data center. The County did not have any remote health care facilities. Microsoft Licensing Costs: Under a virtualization scenario, there may be increased annual Microsoft licensing costs for Virtual Desktop Access (VDA) licenses if the organization does not purchase Microsoft Software Assurance (SA) or utilizes thin clients or zero clients or other non-Windows devices. The organization in the example above utilized Microsoft SA. As it began replacing PCs/Laptops with zero-client devices, the VDA license costs were accrued. Note that there now is a way around this licensing if using Windows Server Datacenter Edition to make the virtual desktops. In fact, under this scenario licensing can even be lower than with PCs/laptops. The caveat is that all of the applications need to be Windows Server compatible. Other Potential Cost Savings: While not part of the County’s savings, organizations can also potentially benefit from the following areas: • PC & Laptop maintenance cost • PC & laptop power cost • The cost for maintaining and upgrading desktop management software. ©2014 All Rights Reserved, Nutanix Corporation 15 • Desktop backup software cost • Encryption licensing cost • VPN cost • Office space cost saved from having more employees work from home Investment Costs On the investment side, common variables to consider include: • Nutanix Virtual Compute Platform • Virtualization licensing (server and client) • Profile Management software licensing (if applicable) • Thin or zero clients (if applicable) • Professional services for VDI design and implementation ©2014 All Rights Reserved, Nutanix Corporation 16 5. Why a Strategic Approach to VDI is Imperative Most health care organizations treat physical desktops as a silo with separate IT staff dedicated to platform management, administration and maintenance. While the high costs of running a physical architecture make this stovetop approach pragmatic, it is no longer necessary when adopting a virtualized architecture. Virtual desktops become just another set of workloads running in the data center alongside the server VMs. They are administered with the same management console and benefit from the same virtual capabilities of snapshots, fault tolerance, DR replication, etc. Hospitals planning their VDI environments have an opportunity to incorporate virtual desktops as an integrated component of an overall virtualized data center. This strategic approach makes sense on many levels. A Bain & Company survey showed that hospital CIOs ranked IT interoperability as the most important strategic issue they face. Strategically virtualizing the desktops as part of the data center enables transformation into a private cloud with automated self-provisioning including metering, monitoring and chargeback. The increasing familiarity of IT staffs with server virtualization frequently emboldens them with the confidence to deploy a VDI solution; applying to the desktop the lessons learned from their server virtualization efforts. This approach, though, inevitably leads to trouble when expanded to an enterprise initiative. Wildly varying usage patterns, for example, can quickly oversubscribe memory and disk IOPs – creating widespread havoc among users. Anti-virus scanning configured for a traditional physical environment can quickly bring VDI performance to its knees. Lack of consideration of more demanding network capabilities or differing security requirements can cause VDI to fail. And disregard of the all-important user perceptions can torpedo what would otherwise have been a very promising virtual desktop deployment. Desktop virtualization demands a strategic approach incorporating the prerequisite assessment, planning, pilots, and managed execution required for a successful enterprise project. Objectives, including projected costs and savings, should be identified prior to starting the design. The planning and proof-of-concept phases can then be initiated within the context of providing a virtual desktop architecture optimized to meet the organization's objectives. A key objective for a VDI implementation should be to provide a very positive user experience from the first pilot all the way through the production roll-out. Carefully planned deployments should generate a positive buzz among users, leading to an enthusiastic acceptance of virtual desktops. ©2014 All Rights Reserved, Nutanix Corporation 17 The architecture requirements largely determine the VDI components such as hypervisor platform, application virtualization, client devices, personalization capabilities, and many, many other considerations. While Nutanix is a solution for all virtual workloads, not just desktops – it is particularly remarkable in VDI in comparison to traditional servers and storage: • Enables a consistent high-performance user experience by utilizing virtualized storage controllers and perfectly linear scalability. • Enables a VDI project to get off the ground with a low cost initial pilot solution that can then be expanded one node at a time as warranted. • Slashes the overall cost of the VDI project and incorporates advancements in flash, CPU, memory and disk as the virtual desktop initiative rolls out. • Eliminates the requirement for storage administration and for collaboration between compute/virtualization and storage teams. • Dramatically simplifies the VDI infrastructure. • Slashes datacenter requirements for space, power and cooling. • Dramatically reduces the risk of the VDI initiative. ©2014 All Rights Reserved, Nutanix Corporation 18 6. Conclusion The proliferation of PCs and laptops during the past 40 years has led to an extremely complex computing environment with disparate and often non-interoperable databases, software applications and equipment. This complexity is increasing still further as users demand access to their health care applications via iPads, smart phones and Android based tablets from multiple locations. Black market demand for health records, and new regulated security requirements, demand renewed attention to securing vulnerable physical endpoint devices. VDI, when built upon a Nutanix architecture, can serve as a unifying platform that simplifies the environment, eliminates technology islands and secures PHI all while reducing overall costs. The Nutanix VDI solution enables IT to ensure both enterprise-wide productivity and efficiency while providing users with a superior computing experience. ©2014 All Rights Reserved, Nutanix Corporation 19 #DesktopDestiny Citrix Enterprise mobility - trends 2014 Whitepaper Enterprise mobility trends 2014 Haal meer uit enterprise mobility management De onderneming van tegenwoordig is snel aan het veranderen. Het samenkomen van cloud, mobility, social networking en het internet, door analistenbureau Gartner “Nexus of Forces” genoemd, zorgt ervoor dat de meeste middelgrote en grote ondernemingen hun mobiele strategieën opnieuw onder de loep nemen. Medewerkers nemen hun eigen devices mee, downloaden hun eigen apps en creëren hun eigen IT. citrix.nl Whitepaper Enterprise mobility - trends 2014 Er zijn drie belangrijke mobiele trends waar grote ondernemingen op moeten reageren - trends die uiteindelijk de manier zullen veranderen waarop medewerkers hun taken uitvoeren, waar gegevens en apps opgeslagen en gebruikt worden en hoe productiviteit en samenwerking gemeten worden. Deze drie trends omvatten: • Beleid - veel organisaties stellen beleidsregels op voor mobiliteit als een middel om de toestroom van persoonlijke devices (BYOD) en de problemen met consumerisatie te beheersen. • Mobiele apps - smartphones en tablets zijn de drijfkracht achter apps binnen de grote onderneming. Momenteel zijn dit nog consumentgerichte apps, maar veel grote ondernemingen kijken naar manieren om de desktop mobiel beschikbaar te maken. • Beveiliging - organisaties kijken naar manieren om de beveiligingseisen te handhaven. De vijf fases van mobility De iPhone van Apple heeft veel veranderd voor enterprise mobility en bracht de huidige discussies op gang rondom mobiele apps, beveiliging, BYOD, consumerisatie en de methoden om deze veranderingen in te zetten. De belangrijke trends op het gebied van beleid (BYOD/consumerisatie, regelgevingen, beveiliging), mobiele apps en focus op beveiliging begonnen in 2007 toen iPhones de enterprisemarkt veroverden en de veel veiligere en beter beheersbare BlackBerry-devices vervingen. Dit was de start van wat Citrix® “De vijf fases van mobility” noemt (zie afbeelding 1). 2007 MDM 2013 2015 2016 2018 EMM Mobile Workspaces Mobiele partners Unified Enterprise Platform Afbeelding 1: De vijf fases van mobility De vijf fases van mobility beslaan de recente geschiedenis van enterprise mobility, waaronder mobile device management (MDM) en enterprise mobility management (EMM). De volgende fase, die eigenlijk pas in 2015 begint voor de grote onderneming, is wat wij ‘mobile workspaces’ noemen. Klanten die hun organisaties transformeren met Citrix Mobile Workspaceoplossingen, laten zien hoe virtualisatie-, citrix.nl networking- en cloudservices-technologieën nieuwe manieren creëren om beter te kunnen werken. Werknemers dienen toegang te krijgen tot een draagbare, altijd actieve, altijd verbonden werkomgeving die ze met zich mee kunnen nemen, ongeacht de locatie, ongeacht het soort device en ongeacht de verbinding die zij op dat moment gebruiken. Vervolgens zullen organisaties met hun partners en klanten samenwerken en ze helpen hun mobilitytraject te voltooien. Uiteindelijk, rond 2018, 2 Whitepaper Enterprise mobility - trends 2014 zullen organisaties op zoek gaan naar een manier om hun mobiele platformen te verenigen en medewerkers, partners en klanten te ondersteunen in iets wat wij een Unified Enterprise Platform noemen. Citrix springt nu al in op deze evolutie, beginnend met zijn belangrijkste competenties in MDM en EMM, en zal verder de mobiele behoeften van de internationale onderneming op het gebied van cloudservices, mobiele applicaties en beveiligingsoplossingen gaan ondersteunen. Mobiel beleid voor ondernemingen Een van de eerste belangrijke initiatieven is het ontwikkelen van beleid voor hoe mobility gebruikt gaat worden binnen de onderneming. Het mobiele beleid van de onderneming dient deze drie gebieden te omvatten: Maar ondernemingen moeten nu al beginnen met het bepalen van hun belangrijkste initiatieven op basis van huidige en toekomstige mobilitytrends. Zoals gezegd, zijn de belangrijkste trends dit jaar: beleid, mobiele apps en beveiliging. Laten we elke trend eens nader bekijken. Enterprise mobility - trends 2014 Ondernemingen dienen een strategie te ontwikkelen die het beheerproces van de ondernemingslevenscyclus volgt (zie afbeelding 2). Afbeelding 2: Ondernemingsproces voor de mobiele levencyclus Dit geeft ondernemingen een begin- en eindpunt bij het ontwikkelen van de strategie. Elke stap moet worden bepaald en er moet een strategie komen voor hoe deze stap bewerkstelligd wordt in de onderneming, en door wie. Deze stappen moeten zijn afgestemd op de belangrijkste trends voor enterprise mobility, waarvan er hier drie behandeld worden. citrix.nl • Gebruikers bepalen - het beleid dient de verschillende gebruikerssegmenten te bepalen. Hoewel beleid soms alle gebruikers omvat, kan het afwijken afhankelijk van de gebruikersvereisten. • Hardware, software en services - beleid dient aan te geven welke typen hardware, software (besturingssysteem, applicaties) en wireless services ondersteund worden. • Beveiligingsniveaus - beleid dient duidelijk te maken wat de beveiligingsbehoeften zijn van de onderneming, welke beveiligingsvoorzieningen gebruikt worden en de details rondom dataverlies, authenticatie- en versleutelingsrichtlijnen, richtlijnen voor beveiligingsprocedures, inclusief de procedure bij een verloren device. • Kosten - beleid moet in detail de verantwoording van de kosten, de richtlijnen voor uitgaven, etc. aangeven. • Regelgeving - richtlijnen moeten ook aansluiten bij de eisen van plaatselijke regelgeving. Het gebruiken van een telefoon, bijvoorbeeld, is op een aantal locaties verboden. Het beste advies is om van de gebruikers te vereisen dat ze zich houden aan de lokale wetgeving. Hoewel de meeste organisaties wel een soort van beleid hebben, beslaat dat meestal niet de grote gebieden van IT zoals beveiliging, netwerken en hardware. Het is beter om één, gecombineerd beleid te hebben dan vele afzonderlijk beleidsregels. Dat betekent niet meteen dan het beleid omvangrijk moet zijn. Probeer het beleid beperkt te houden tot maximaal vijf pagina’s zodat de gebruiker het ook daadwerkelijk zal lezen. Maak het verkrijgen van een nieuwe device of service afhankelijk van het akkoord gaan met het beleid. De meeste MDM-producten ondersteunen beleidsinspanningen en kunnen ook de instemming 3 Whitepaper met het beleid, evenals de locatie en de datum waarop het beleid gelezen is door de gebruiker vastleggen. Identificatie en beheer van de mobiele applicatie De meeste organisaties ontwikkelen nu actief hun strategie voor mobiele applicaties. Hoewel de meeste organisaties al wireless e-mail ondersteunen, willen ze zeker extra ondersteuning gaan uitrollen voor bedrijfsapplicaties - waarvan er veel gebruikt worden op laptops en desktops. Veel organisaties hebben echter moeite met het prioriteren en mobiliseren van hun applicaties. Welke apps moeten ondernemingen mobiliseren? Het antwoord van veel ondernemingen is “Geen idee” of “Alles”. Alles is een heel slecht maar gemakkelijk antwoord. Ondernemingen willen de huidige computingplatformen vervangen door een mobiele tegenhanger en denken dat ze daarom alles van de desktop/laptop moeten overzetten naar een smartphone/tablet. Dat is geen goed idee. Sommige mensen weten niet wat mobiel gemaakt moet worden omdat ze niet dichtbij de business staan. Ze richten zich op horizontale apps zoals e-mail of de agenda, maar lopen de kans bedrijfsen gebruikerspecifieke apps te missen die de bedrijfsprocessen ondersteunen. Het startpunt voor ondernemingen is gewoonlijk de wens om de productiviteit of omzet te vergroten. Dit zijn goede doelstellingen, maar om deze te bereiken moet een onderneming gebruikersvereisten vaststellen en deze linken aan persoonlijke, branche of zakelijke doelen. Hoe doen we dat? Denk eerst na over de doelen van de onderneming. Dit kunnen gebruikers-, afdelings- of zakelijke doelen zijn. Deze doelen helpen bij het vaststellen van het mobiele proces. Stop vervolgens met denken over apps. Bij slimmer denken gaat het om het mobiel maken van de data die vereist zijn voor de business, om de kosten te verminderen en de productiviteit, samenwerking of omzet te vergroten. Apps komen op een tweede plaats. Ze zijn belangrijk voor het opvragen en beveiligen van gegevens, maar geen topprioriteit. Denk vervolgens na over uw gebruikers. Niet iedereen is echt mobiel uitgerust voor de gewone werkdag. Natuurlijk werken veel mensen buiten kantooruren of ze willen gemakkelijkere toegang tot e-mail onderweg, maar wie zijn de echte citrix.nl Enterprise mobility - trends 2014 mobiele medewerkers binnen uw organisatie? En denk hierbij niet alleen aan de medewerkers op de weg of leidinggevenden, hoe zit het met de mensen in uw gebouwen of op uw terrein die misschien nooit achter hun bureau zitten? Denk over zowel het vergroten als het sparen van uw inkomsten. De businesscase helpt u bij het vaststellen welke gebruikers en data gemobiliseerd moeten worden. Nu het aantal devices en applicaties binnen de onderneming groeit, moet IT zich richten op automatisering van die applicatiegroei en hulpmiddelen vinden om die te ondersteunen. De adoptie van mobile application management (MAM) groeit snel omdat het de onderneming helpt bij het creëren, beveiligen, uitgeven, beheren en analyseren van mobiele, zakelijke applicaties. Tegenwoordig gebruiken de meeste EMM-oplossingen MAM als onderdeel van hun oplossing door datacontainers te ondersteunen die de bedrijfsdata kunnen beveiligen en beleid kunnen implementeren (zie de sectie “Mobiele datacontainers hebben zo hun voordelen”). In het afgelopen jaar is het idee van applicatiecontainers populair geworden. Met het gebruik van appcontainers kunnen apps gedwongen worden om het ondernemingsbeleid te ondersteunen (d.w.z. verplaatsing van data, knippen/ kopiëren/plakken, versleutelingsstandaarden, etc.). Dit ondersteunt een matig tot hoog niveau van beveiliging (hardwarebeveiliging is niet beschikbaar). Organisaties kunnen snel (binnen enkele minuten) bestaande apps omzetten (via “app wrapping”), of gemakkelijk code toevoegen aan nieuwe apps om beveiligings- en managementbeleid af te dwingen. Daarnaast werkt dit op zowel iOS- als Androiddevices, en is de beschikbaarheid dus hoog. Er zijn al duizenden beheerde en beveiligde apps beschikbaar in de Apple App Store en Google Play. Veel gebruikers kunnen misschien niet zien dat ze beveiligd zijn, maar ze zijn het wel. Dit is een belangrijk onderdeel van de toekomstige mobiele beveiligingsprogramma’s van ondernemingen. Mobiele beveiliging Er is in het verleden al veel geschreven over mobiele beveiliging voor grote ondernemingen. Organisaties die de afgelopen jaren BYOD hebben ondersteund, hebben het gevoel dat ze een deel van de controle kwijt zijn over waar hun data opgevraagd en bewaard 4 Whitepaper Enterprise mobility - trends 2014 worden. Ze zijn overgegaan van streng gecontroleerde systemen die verfijnd beleid toestaan naar licht gecontroleerde devices met een minimaal beleid. De meeste bedrijven hebben best practices gevolgd door data-encryptie, PIN-authenticatie en een aantal regels voor dataverplaatsing te ondersteunen. Maar op dit moment accepteren de meeste applicaties uit de publieke app stores geen verfijnd beleid voor DLP en datarestricties. Organisaties die hun eigen applicaties willen mobiliseren, willen ook met gebruik van MAM mobiel beleid garanderen. Mobiele beveiliging wordt grondig besproken in onze whitepaper “Veilige bedrijfsinformatie op Android-, Apple iOS- en Windows-tablets en -smartphones.” schakelen tussen twee systemen - is slecht. Dit beveiligingsniveau is gewoonlijk nodig bij bedrijfstakken met de hoogste beveiligingsbehoeften, veelal vanwege regelgeving. Overheden, financiële instanties en de gezondheidszorg zijn de belangrijkste doelgroepen. Mobiele datacontainers hebben voor- en nadelen Databeveiliging staat nog steeds bovenaan de lijst van CIO’s wat betreft consumerisatie en BYOD. Beveiliging is een voortdurende investering, nu zelfs nog meer met de opkomst van de mobiele onderneming. Een van de meest populaire mobiele beheersplatformen voor ondernemingen, XenMobile Enterprise, omvat een volledige suite van veilige mobiele apps die ondernemingen kunnen helpen hun data te behouden en beheren. Maar er heerst nog steeds veel misverstand over de verschillende containertechnologieën en -methoden voor het beveiligen van mobiele data. Elke containertechnologie heeft zijn voordelen, maar sommige hebben er meer dan andere. Voor een beoordeling is het belangrijk om naar deze vier hoofdgebieden te kijken: kosten, beschikbaarheid, beveiligingsniveau en gebruikerservaring. Er zijn grofweg twee manieren om data op mobiele devices in een container te plaatsen: via hardware- of softwaretechnieken. Hardwarecontainers werken in principe met twee systemen op één device - twee radio’s, DSP’s, geheugens, besturingssystemen, etc. Eén wordt gebruikt voor persoonlijke, de ander voor zakelijke data. De twee zullen elkaar nooit tegenkomen. Dus zelfs wanneer de persoonlijke kant een virus heeft en niet eens meer geactiveerd kan worden, zal de zakelijke kant nog steeds werken. Dit is een zeer krachtige, veilige oplossing. Het probleem is alleen dat deze oplossing niet op grote schaal beschikbaar is: het draaien van twee systemen kost veel geld en de gebruikerservaring - het heen en weer citrix.nl Populairder zijn de softwarecontainers, waarvan er drie verschillende soorten zijn: OS-gebaseerd, applicatie en thin-client. Sommige bedrijven promoten het gebruik van OS-gebaseerde containers. Er wordt veelal een soort hypervisor gebruikt om twee afzonderlijke besturingssystemen te draaien (op dezelfde hardwarelaag) - een voor zakelijk en een voor persoonlijk gebruik. Eén hardwareplatform houdt de kosten laag; het heeft een hoge mate van beveiliging omdat het data werkelijk scheidt. Daarnaast hoeven applicaties niet te worden herschreven of ontworpen voor een specifieke leverancier. Maar hardwarebeschikbaarheid is laag - niet elk Androiddevice wordt ondersteund, de container kan gebonden zijn aan specifieke leveranciers (bijv. Samsung Knox) en iOS wordt op deze manier niet ondersteund. De gebruikerservaring van “twee persoonlijkheden” is, hoewel het steeds beter wordt, niet iets wat organisaties al geaccepteerd hebben, dus wordt deze vaak laag beoordeeld. Thin-clientcontainers gebruiken webbrowsers om toegang te krijgen tot data en apps, of zijn zelf specifieke apps, zoals Citrix Receiver™. Ze zijn zeer veilig omdat ze ingesteld kunnen worden op het verwijderen van data zodra de verbinding verbreekt - data worden dus niet permanent lokaal opgeslagen. Dit kan echter een probleem vormen voor mobiele gebruikers die offline toegang moeten hebben tot data en apps wanneer ze niet verbonden zijn met een netwerk. In de toekomst kunnen er veilige datastores gecreëerd worden waarmee sommige apps en inhoud offline toegankelijk blijven. Maar afgezien daarvan zijn thin-clients uitstekend - ze hebben een hoge beschikbaarheid, zijn gemakkelijk te gebruiken, hebben lage kosten (afhankelijk van het soort) en zijn zeer veilig. Meer organisaties - vooral de organisaties die campusgericht zijn, of die medewerkers hebben die altijd verbonden moeten zijn zoals in de gezondheidszorg, horeca, het bankwezen en onderwijs - gebruiken thin-clientcontainers als onderdeel van hun mobiele strategie. Het aantal zal alleen maar groeien. 5 Whitepaper Enterprise mobility - trends 2014 Het gebruik van containers wint in versneld tempo terrein binnen grote ondernemingen. Het is nu zaak om veilige en gemakkelijk te beheren applicaties te creëren die het gemak en de rijke gebruikerservaring bieden van een persoonlijke app, en ondernemingen ook grip geven op de beveiliging en het verplaatsen van data. Dit zal de volgende kans zijn voor leveranciers op dit terrein om de functionaliteit en gebruikerservaring van beveiligde data te vergroten, terwijl ze ondernemingen en gebruikers de vrijheid geven die deze nodig hebben om hun werk te doen. aan de belangrijkste gebieden van beleidsbeheer, BYOD, mobiele apps en de hoogste mate van beveiliging. Citrix steunt de mobiele onderneming De strategie van Citrix ligt precies op één lijn met de opkomende behoefte van de internationale, mobiele onderneming. In 2013 heeft Citrix de XenMobile® Worx-apps gelanceerd - die onder andere de beheersbare, gecontaineriseerde e-mail-, kalender- en contactenapp WorxMail™ en de zakelijke webbrowser Worx Web™ omvat. Het idee is om de IT-behoeften voor hoge beveiligingsniveaus te ondersteunen via dataencryptie, beheerd openen in, beleid voor dataverplaatsingen (knippen/kopiëren/plakken) en andere eisen die IT mogelijk stelt. De organisatie vindt hierin ook ondersteuning voor het beheren van zakelijke data op devices van gebruikers bij een BYOD-beleid. Tegelijkertijd krijgen gebruikers een betere ervaring dan met de native apps. In e-mail is er bijvoorbeeld gelijk een bestandsbijlage beschikbaar en met één klik wordt ingebeld bij web conferences en conference bridges. Citrix heeft de oorspronkelijke ervaring verbeterd, wat ten goede kwam voor zowel de eindgebruiker als IT. Citrix biedt ook tools, in een SDK en verpakkende agent, waarmee ondernemingen hun eigen apps kunnen beveiligen en beheren via het Citrix XenMobile-platform. In 2014 heeft Citrix blijvende vooruitgang aangekondigd op dit gebied, met nieuwe apps zoals WorxDesktop™, WorxEdit en WorxNotes. Citrix zal meer apps blijven lanceren om in te vullen wat ondernemingen en gebruikers missen, dat wat het onderzoeksbureau Forrester de ‘app gap’ noemt. Tegelijkertijd zullen we blijven werken citrix.nl De ondersteuning voor ondernemingen door Citrix draait om de mobile workspace. Het idee is om alle gebruikers, devices en locaties te ondersteunen op het gebied van apps, data, persoonlijk of zakelijk, desktop of mobiel (zie afbeelding 3). . Afbeelding 3: De mobile workspace Citrix brengt zijn mobiele en virtuele werelden samen om mobility binnen de hele onderneming mogelijk te maken, ongeacht device of datatype. Toegang tot data over netwerken is essentieel om samenwerking mogelijk te maken en de efficiency te verhogen. Business Class verblijdt gebruikers en IT Toen ondernemingen voor het eerst met mobiele devices gingen werken, kozen ze voor zakelijke devices die krachtig in beheer en beveiliging waren, maar die niet altijd voor de beste gebruikerservaring zorgden. De consumerisatie van devices draaide dat om door een geweldige consumentenervaring te bieden, maar weinig op het gebied van beheer en beveiliging. Organisaties willen deze trend weer terugdraaien en Citrix richt zich op het bieden van het alternatief: een mobiel device dat de krachtige “business class”-ervaring biedt die gebruikers willen, met de beveiliging en het beheer waar IT om vraagt. 6 Whitepaper Enterprise mobility - trends 2014 Dit wordt gedaan door gebruikers een betere opkomende mobiele workspace-oplossingen en ervaring te geven binnen hun dagelijkse zakelijke enterprise mobility. apps dan hun native ervaring mogelijk ondersteunt. Citrix richt zich op workflows door te begrijpen hoe Best practices voor de mobiele onderneming zakelijke gebruikers hun apps gebruiken, en biedt Citrix raadt een aantal best practices aan voor shortcuts en optimalisaties die specifiek bedoeld ondernemingen wanneer ze mobility invoeren. zijn voor de zakelijke gebruiker. Zakelijke gebruikers Dit zijn onder andere: beantwoorden meer e-mails, creëren meer inhoud, werken meer samen dan de gemiddelde • Kijk naar de eisen van de gebruiker, de smartphone-gebruiker, en toch waren de meeste organisatie en IT - dit is de eerste stap in het apps niet afgestemd op hun behoeften. Citrix creëren van een strategie en beleid. Organisaties ondersteunt de schaalgrootte die zakelijke dienen de gebruikerseisen vast te stellen (apps, gebruikers nodig hebben in reactie op het data, soort mobility, benodigde devices). veelvoudig dagelijkse gebruik, dat vooral lastig is op de weg. • Groepeer gebruikers - creëer gebruikerssegmenten en -groepen voor afzonderlijk beleid en beheer op basis van de eisen. We raden voor de meeste ondernemingen niet meer dan tien De meeste zakelijke gebruikers hebben meer dan verschillende gebruikerssegmenten aan. twee mobiele devices en IT moet honderdduizenden devices kunnen ondersteunen. • Ontwerp beleid op IT-schaal - er dient één algemeen beleidsdocument te zijn binnen IT De mobiele oplossingen van Citrix zijn op schaal dat voor gebruikers gemakkelijk te lezen en af ontworpen voor IT om device-registratie, het te stemmen is. uitrollen van applicaties, provisioning en • Ontwikkel een businesscase - creëer waarde, rapportage te ondersteunen voor een groot bespaar kosten - dat zijn de beste manieren aantal gebruikers. Citrix XenMobile is geïntegreerd ® om mobiele plannen vooruit te helpen. met NetScaler , de marktleider op het gebied van enterprise gateways, en is getest op Bepaal specifieke doelen en stappen die ondersteuning van honderdduizenden nodig zijn om alles te bewerkstelligen. Sluit gelijktijdige transacties. Citrix komt de belofte na ook aan op zakelijke doelstellingen. om zowel IT als hun klant, de eindgebruiker, te • Creëer een Mobile Center of Excellence verblijden. mobility zit niet op slecht één plek. Een MCOE brengt de verschillende gebieden van IT, zoals Mobiele behoeften in de toekomst applicatie-ontwikkeling, netwerken, Citrix kijkt naar de toekomst van mobility, beveiliging, etc. op één lijn met de planning waaronder de ondersteuning van nieuwe devices, van mobility en het levenscyclusproces. Het is platformen en mobiele apps. Maar Citrix ziet ook ook een goede plek om nieuwe mobiele apps, dat mobility meer is dan alleen dat. Het Internet of devices en services te testen voordat ze in de Things (IoT), draagbare en virtuele computing werkomgeving worden geïntroduceerd. Maar die schaalgrootte is ook belangrijk voor IT. liggen allemaal op het door Citrix uitgestippelde pad. Citrix zal de markt blijven leiden door mobilefirst-initiatieven te ondersteunen, platformen binnen IT te integreren en alle technologische behoeften van de onderneming te ondersteunen, Citrix erkent dat elke klant anders is en zal dus met elke klant samenwerken om ervoor te zorgen dat hun mobiele strategie zowel vandaag als in de toekomst een succes is. niet alleen de mobieltjes. Daarmee onderscheidt Citrix zich in belangrijke mate en dat maakt het tot het toonaangevende platform voor de citrix.nl 7 Whitepaper Enterprise mobility - trends 2014 Hoofdkwartier Fort Lauderdale, FL, Verenigde Staten India Development Center Bangalore, India Hoofdkwartier Latijns-Amerika Coral Gables, FL, Verenigde Staten Hoofdkwartier Silicon Valley Santa Clara, CA, Verenigde Staten Hoofdkwartier Online Division Santa Barbara, CA, Verenigde Staten VK Development Center Chalfont, Verenigd Koninkrijk Hoofdkwartier EMEA Schaffhausen, Zwitserland Hoofdkwartier Pacifisch gebied Hongkong, China Over Citrix Citrix (NASDAQ:CTXS) is marktleider in virtualisatie-, netwerk- en cloud-infrastructuur en zorgt voor nieuwe manieren waardoor mensen beter kunnen werken. Citrix-oplossingen ondersteunen IT- en service-providers om virtuele en mobiele werkplekken te bouwen, beheren en beveiligen, waarmee ze naadloos applicaties, desktops, data en diensten leveren via ieder device, over ieder netwerk of cloud. Dit jaar viert Citrix 25 jaar innovatie, de vereenvoudiging van IT en grotere productiviteit door mobiele werkstijlen. Met een jaarlijkse omzet in 2013 van 2,9 miljard dollar worden Citrix-oplossingen gebruikt in meer dan 330.000 organisaties en door meer dan 100 miljoen mensen wereldwijd. Lees meer op www.citrix.nl. Copyright © 2014 Citrix Systems, Inc. Alle rechten voorbehouden. Citrix, XenMobile, WorxDesktop, NetScaler, WorxMail, Worx Web en Citrix Receiver zijn handelsmerken van Citrix Systems, Inc. en/of een van meerdere van haar dochterondernemingen. Ze kunnen geregistreerd zijn in de Verenigde Staten en in andere landen. Andere product- en bedrijfsnamen die hierin worden genoemd, kunnen handelsmerken zijn van hun respectieve organisaties. 0514/PDF citrix.nl 8 #DesktopDestiny VMware Using DaaS to Create the Ideal Desktop User Experience – Without a PC Using DaaS to Create the Ideal Desktop User Experience Without a PC W H ITE PA P E R Using DaaS to Create the Ideal Desktop User Experience - Without a PC Meeting User Expectations in the Mobile-Cloud Era With the ubiquity of end-user computing long established, organizations now are grappling with a tough dilemma: Users want enterprise-class performance and availability, but they demand the flexibility to use familiar devices and applications—anywhere, and at any time. Desktops as a service (DaaS) can be a great way to give users what they want and deliver a superior user experience, leading to greater productivity. End-user computing has undergone a revolution in recent years, as a proliferation in choices for devices, applications, network access methodologies and usage locations has opened up a world of possibilities. For IT organizations, however, giving users what they want in their clients—performance, breadth of applications, access to corporate services and data, security, fast problem solving and no-hassles onboarding—has been like herding cats. In particular, users want to use any of an array of client computing devices—desktops, notebooks, tablets or smartphones—and have a positive user experience. In fact, what they really want is for their business computing experience to be every bit as intuitive, flexible and even enjoyable as it is with their favorite consumer devices. Virtual desktop infrastructure (VDI) has been a good step in that direction for some organizations. But a number of enterprise IT professionals have discovered that implementing VDI entails certain challenges, such as back-end infrastructure requirements, deployment costs and the lack of sufficient in-house technical skills. DaaS Empowers End Users and IT There’s an alternative, however, that delivers the benefits of VDI while also providing a great end-user experience that offers flexibility, access to familiar devices and applications, enterprise-class performance and reliable, secure access: desktops as a service (DaaS). Desktop user productivity is driven by many factors, but undoubtedly one of the most important in today’s business environment is the ability to work anywhere on any device, as though it was hard-wired to enterprise resources, and maintain or even improve the quality and quantity of the device’s output. DaaS is unique in its ability to give users what they want, when and where they want it. As user expectations become more specific and pronounced, IT organizations are scrambling to come up with new ways to meet those expectations, whether they concern device usage, location independence, access to all available corporate data and applications, or even the ability to customize desktop usage to meet their own preferences. WH ITE PAPE R / 2 Using DaaS to Create the Ideal Desktop User Experience - Without a PC End Users’ Expectations IT organizations looking to build the business case for investing in DaaS solutions can point to an enhanced user experience as a key proof point to justify those investments. Among the most important user expectations of their desktop environment are: •Device independence. Users want—no, they demand—the ability to use their familiar and trusted consumer devices, such as tablets, smartphones or personal notebooks—rather than to be tied to corporate mandates on brands and form factors of clients. This is particularly the case with younger, mobile-savvy professionals who treat their devices as essential to how they work and live. •Location independence. Forget about just working at a coffee shop during lunch. Users today expect to work anywhere, at any time—home office, customer site, airports and other locations—when they need access to something in the corporate data center or in the cloud. •User self-service. This is increasingly important because no one wants to wait for an extremely busy and overworked support desk to come to their deskside or even take their physical machine for application access, problem remediation, security patches or other support issues. •Uninterrupted sessions. This “rapid resume” expectation is central to DaaS from a user perspective. Users want to be able to continue working at the same spot they left off during an office session, whether on the train going home or perusing their smartphones while waiting to pick up their kids. •Customizable desktop design. Users have become accustomed to “friendly” desktop designs that reflect their personal tastes and preferences for desktop organization. They expect to have device-aware application look and feel, rather than being forced to have their desktops conform to a desktop operating system appearance. Desktops as a service offers a compelling value proposition for an organization looking to invest in a new desktop environment that is more flexible, more affordable, easier to manage and faster to deploy—all while meeting users’ new and precise expectations. For IT organizations, DaaS also offers such benefits as improved security (because applications and data are secured in the cloud, not on the end-user device itself), faster onboarding of new users or temporary requirements for desktop access, and improved business continuity because DaaS eliminates the single point of failure that compromised end-user computing based upon physical desktops. VMware Horizon Air Desktops and Apps as a Service As the long-established market leader in virtualization, VMware is a logical choice for IT organizations looking to enable cloud-based virtual desktops to meet the needs of both their IT organizations and end users. WH ITE PAPE R / 3 Using DaaS to Create the Ideal Desktop User Experience - Without a PC VMware Horizon® Air™ Desktops and Apps (formerly known as VMware Horizon® DaaS®) enable organizations to meet their users’ expectations because it is designed for flexibility, performance, reliability and security. A key feature is the cloud-based service’s unification of desktop and application access on any device, while also supporting the same fully customized desktop look and feel they’ve grown used to on their personal mobile devices. Horizon Air Desktops and Apps enhance user satisfaction and productivity by allowing users to stop work at any time on their current devices without turning off their cloud-hosted desktops. Users can then log back into their virtual desktop or application from another location on whatever device they prefer to use. Deploying Horizon Air Desktops and Apps is simple enough to put minimal burden on IT staffs, allowing users to get up and running quickly and contributing to a positive user experience. Setting up virtual desktops takes only a few clicks, lessening the administrative burden for IT departments and making onboarding of new users a hassle-free experience. Each user can have their own virtual desktop, customized as they prefer by application or look and feel, in order to re-create the familiar user experience associated with their consumer devices. Users also can run their most demanding workloads on their DaaS-enabled device, enabling further flexibility to use those devices away from the office at any time. Simple Virtual Desktops Adaptive End User Experience Predictable Costs Integrated Security and Control Hybrid Cloud Flexibility Conclusion The very nature of client computing has changed in stark and important ways, driven in large part by new and important user expectations of how, when and where they will access enterprise applications, data and services. Users do not want to be encumbered by corporate standards on which PC to use—or whether to use a PC at all—nor do they want IT-placed limits on their ability to use technology for business benefit. Of course, this represents significant challenges for IT organizations that must balance users’ expectations with the harsh realities of budgets, staff expertise, security concerns and corporate governance policies. As a result, more and more IT organizations are turning to virtual desktops—specifically, cloud-based desktops as a service— in order to meet users’ expectations while managing costs, complexity and functionality. Horizon Air Desktops and Apps help IT departments in nearly all-sized organizations to simplify the delivery of cloud-hosted virtual desktops and apps to end users at a predictable cost. The service enables IT to save time and money, without sacrificing enterprise requirements for security and control. End users can be much more productive, with a complete workspace they can access from any device, anywhere. IT decision makers looking to build a strong business case for investing in DaaS solutions that create a superior user experience and drive higher productivity should consider VMware Horizon Air Desktops and Apps. It delivers a powerful combination of user customization, easy deployment, affordability and reliable, secure operation that is consistent with the industry-wide movement away from expensive, rigid physical desktops in favor of virtual desktops. For Additional Information For more information about Horizon Air Desktops and Apps, visit www.vmware.com/products/daas/. WH ITE PAPE R / 4 VMware, Inc. 3401 Hillview Avenue Palo Alto CA 94304 USA Tel 877-486-9273 Fax 650-427-5001 www.vmware.com Copyright © 2014 VMware, Inc. All rights reserved. This product is protected by U.S. and international copyright and intellectual property laws. VMware products are covered by one or more patents listed at http://www.vmware.com/go/patents. VMware is a registered trademark or trademark of VMware, Inc. in the United States and/or other jurisdictions. All other marks and names mentioned herein may be trademarks of their respective companies. #DesktopDestiny Matrix42 Mobile ITSM Is More Important than Ever! Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! Executive Summary: The Survey at a Glance Small and medium-sized businesses in the DACH region are also seeing a growth in the number of employees who use mobile devices such as tablets and smartphones. This presents a number of problems for IT organizations as the number and diversity of mobile devices is increasing workloads and the level of complexity for the Service Desk. In the survey, 57 percent of IT professionals indicated that an adequate solution for managing mobile devices is not currently used in their organization. Only seven percent could confirm that the ITSM tool used in their company could also support mobile devices. The issue of licensing was clearly also a sore point: 30 percent of those polled had to admit that their company does not have a license management solution for mobile devices and apps. Content 4 5 9 10 6 11 The Reality: Smartphones and Tablets but No Adequate MDM Solution The Challenge: Workplace Management with Mobile Devices Service Desks in Companies: Not Properly Prepared for Mobility The Matrix42 Approach: The Solution Is Simplicity Conclusion: Using Mobile ITSM to Counter the Rapid Growth in Mobility Appendix: Survey – Implementation and Demography 7 Reasons: Why Is Mobility Characterized by such a High Degree of Complexity? 8 Critical and Unresolved: License Management in the Mobile World Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 2 Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! Nowadays, the use of mobile devices in companies is generally taken for granted. However, a survey conducted by Matrix42 of 1,500 attendees at a recent trade show reveals that many companies are not properly prepared for the rapid growth in mobility that is currently sweeping across the IT departments of German companies. Not only are the solutions that are used by companies for IT Service Management (ITSM) mostly incapable of coping with the complexity that’s found its way into company networks as a result of mobile end devices and apps, many companies are still in the very early stages when it comes to compliance and license management for mobile devices and solutions. Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 3 The Reality: Smartphones and Tablets but No Adequate MDM Solution A brief glance at the IT end devices that are currently used by a large number of employees in German companies for day-to-day tasks shows that the situation has changed dramatically during the last five years: Mobile devices such as smartphones and tablets have taken both private and professional users by storm. The survey carried out by Matrix42 also made it clear that Apple iOS and Android devices are largely used in the majority of organizations. Which Smartphone Operating Systems Are Used in your Company? 100 % 80 % 60 % 40 % 20 % 0 % Very low use (< 10 % of employees) ■ Apple iOS ■ Google Android Low use (10 % to 29 % of employees) Normal use (30 % to 69 % of employees) High use (70 % to 89 % of employees) ■ Windows Phone ■ Blackberry OS Although the modern development towards mobile workers who can access their work and data while ‘always on’ seems in many ways to have happened already, the survey revealed huge deficits when it comes to topics such as Very high use (90 % to 100 % of employees) ■ Others the management and support of mobile devices as well as compliance and license management. 57 percent of the companies that were surveyed said that they do not currently have an adequate solution for managing these devices. Do You Know how your Mobile Device Management (MDM) Is Currently Operated? No Mobile Device Management is available 31 % 26 % I don’t know 17 % On-premise 16 % Cloud / SaaS Both 9 % Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 4 The Challenge: Workplace Management with Mobile Devices We cannot deny that traditional workplaces with ‘permanently installed’ PCs, which used to be allocated to a single user, are slowly but surely losing their right to exist. These stationary workplaces are giving way to mobile and flexible work environments that are presenting new challenges to IT teams and Service Desks, in particular: Mobility generates a multi-device work environment that must also be managed and supported by Service Desk staff. What Do You Think Are the Greatest Challenges Facing Workplace Management with Mobile Devices? (Multiple Answers Possible) Data protection 33 % 21 % Separation of private and business data and apps 13 % Access to apps and data 8 % Legal regulations Interfaces to business apps 7 % License management 6 % Lack of mobility strategy 6 % No IT support The respondents were also aware of these difficulties: 30 percent of respondents said that data protection was the greatest challenge for the management and support of mobile devices and 21 percent of those polled identified the separation of private and business data as a decisive factor for workplace management that in many 5 % ways also affects safety. The answers to the question concerning the number of tickets in the respondents’ company that previously involved mobile devices are also particularly interesting in this context: 59 percent of the organizations that were surveyed stated that this figure was between zero (!) and a maximum of 29 percent. Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 5 Service Desks in Companies: Not Properly Prepared for Mobility The question that remains then is ‘Why does it seem so difficult for many companies to manage and support mobile devices in the way that IT professionals have been doing for years with PCs and mobile devices such as notebooks and laptops?’ The answers to the question in the survey concerning the facilities and options available to IT support for supporting and maintaining mobile devices such as smartphones and tablets show a completely different picture. Which Facilities and Options Are Available to your IT Support Team for Supporting Mobile Devices? ■ Training of IT support staff (iOS, Android) 24 % ■ Nothing 22 % ■ Guidelines for using mobile devices 19 % ■ MDM tool 13 % ■ Social networks for peer-to-peer support 10 % ■ ITSM tool 7 % ■ I don’t know 5 % ■ Other options 1 % 20 percent of those questioned had to admit that their own IT support staff are simply unable to offer users support when it comes to problems with mobile devices, even though 24 percent of the companies that were surveyed stated that their IT support staff have received training in the iOS and Android operating systems. For mobile devices too, the solution to this problem is to combine the right IT Service Management (ITSM) with the right tools. However, a mere seven percent of survey respondents could claim that their ITSM solution also covers this increasingly important field of IT infrastructure. Many IT managers and administrators currently face the situation that further efforts are needed to cope with the increasing day-to-day use of mobile devices in their companies. They are quickly realizing that the Service Desk’s task of managing and supporting mobile users is much more complex and extensive than many IT professionals perhaps initially thought. They are powerless in the face of this dramatic rise in complexity, which is the inevitable result of their users’ new-found mobility. Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 6 Reasons: Why Is Mobility Characterized by such a High Degree of Complexity? Mobility is an extremely important topic for all companies. The IT managers and administrators involved in these issues, however, frequently find themselves confronted with the problem of increasing complexity. Why is this topic so multifaceted and why does it present a greater degree of diversity than was the case with the IT devices and applications that have been supported up to now? To solve this problem we must first look for the causes of this variance. A glance at the very heterogeneous and highly diversified landscape of mobile devices quickly reveals the factors that are primarily responsible for these difficulties: ›› A very wide variety of applications and devices: Service Desk staff and administrators need to deal with a huge conglomerate of different end devices and applications. This is exacerbated by the fact that very few companies and users have introduced some form of standardization for mobile devices and applications. Most IT employees find themselves confronted with a mix of Android and iOS devices as well as some Windows Phone devices and highly diverse hardware. ›› The transformation of the workplace: The traditional workplace with its permanently installed PC for one user is increasingly giving way to a more topical paradigm. It’s changing more and more to a work environment. Mobility inevitably results in a multidevice work environment that can quickly become a challenge for the Service Desk. For example, Service Desk staff need to know immediately which type of device a user is using when they contact them with a problem (such as ‘my app isn’t working again!’). A modern ITSM system must be able to meet this requirement. ›› Merging of business and private boundaries: End users are increasingly using their private smartphones and tablets in company networks. This means that they also contact the Service Desk if they have a problem with these private devices. What should IT professionals do in this situation? The first thing they must do is quickly and clearly identify whether the device in question is an end device that belongs to the company or whether it is a private device that belongs to the user. The ITSM solution in use must have a good and comprehensive inventory aspect. These three central points clearly demonstrate how the growing mobility of workers and the associated diversity of devices and applications in company environments are definitely increasing the number of calls made to the Service Desk. In general, however, this is usually the one area of an IT department that is understaffed and where all requests are handled by only one or two employees. It is not possible to give these IT specialists more work to do as they simply cannot cope with any more and the option of taking on more staff is not usually up for discussion in most companies. Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 7 Critical and Unresolved: License Management in the Mobile Work Environment It is not only the mobile devices themselves that are presenting IT teams and Service Desks with new tasks and associated new problems. Along with the mobile devices, a completely new approach to purchasing and using software on these devices is also finding its way into the IT landscapes of companies. Apps are no longer installed on users’ PCs via carefully regulated software distributions. Instead, users now install the apps that they need – or at least, think they need – themselves (mostly from the app stores of operating system suppliers such as Apple or Google). This software chaos will inevitably remind long-serving IT professionals of the time when PCs were first introduced in companies. This proliferation was already a major problem back then. To restore order to the various networks and systems, the necessary service and management tools had to be developed and put into operation. What Do You Use to Manage the Licenses on your Mobile Devices? Nothing 30 % I don’t know 25 % License management solution 15 % Enterprise App Store Include costs for apps in travel expenses 13 % 6 % Apple Volume Purchase Program (VPP) 5 % License vouchers 5 % An important part of this problem, and one that is unfortunately all too often criminally neglected by users, is the issue of licensing. Questions concerning licensing frequently remain unanswered, especially where apps, which are purchased and installed directly by the users on their devices, are concerned. The participants in this ITSM survey therefore also had to provide details of the technologies and solutions that are used in their companies to ensure that licenses are also managed correctly on mobile devices. The result was sobering and shows that greater mobility must also have an impact on license management. Over 50 percent of those polled do not use a license management system for mobile devices or were unable to say if and how this problem is solved in their company. Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 8 The Matrix42 Approach: The Solution Is Simplicity Matrix42 specialists are able to build on many years of experience in the areas of IT Service Management, Compliance and Mobility. In recent years, they have managed to identify the impact that the rapid expansion of user mobility and the use of many different end devices has already had and still has on these areas thanks to the many discussions conducted with companies from various sectors and the extensive customer projects they have been involved in. To summarize simply, these new working practices have an enormous influence on the entire area of IT Service Management. Mobility is the major topic for all companies and one that is bringing a new level of complexity to the Service Desk. IT managers who wish to tackle this complexity need to seamlessly integrate these mobility solutions into their existing ITSM tools. Matrix42 can help out here. Our smart solutions are designed to manage the increasingly complex choice of mobile devices in companies. IT SERVICE MANAGEMENT IN THE AGE OF THE CLOUD AND MOBILITY SUPPORT FOR MOBILE WORKING PRACTICES WORKSPACE 4.0 WORKSPACE 3.0 ONE WORKSPACE WORKSPACE 2.0 IT Service and Infrastructure Management for personal clouds WORKSPACE 1.0 Office/desk PC/laptop Multi-device work environment Devices/apps/date/ identities/IT services Tied to a certain place Device-centered User-centered Service-oriented 1. Revolution (IT) 2. Revolution (PC) 3. Revolution (Mobility) 4. Revolution (Cloud) Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 9 Conclusion: Using Mobile ITSM to Counter the Rapid Growth in Mobility The survey carried out by Matrix42 at this year’s CeBIT exhibition has brought the following fact to light: The rapid growth in mobility, which has already revolutionized the IT world of private users, is also affecting the world of professional users in companies. The survey also clearly shows that only a very few companies and IT organizations are already using ITSM solutions and software to manage their mobile end devices and successfully weather this storm: IT organizations and companies have a problem! The number of tickets will also inevitably increase along with the number of questions from users concerning how to solve problems specifically related to mobile devices and applications. The survey also showed that although the majority of IT professionals are well aware of the problem, German companies are not sufficiently equipped at present to successfully support the growing mobility trend at their Service Desks. Particularly when it comes to the requirements of the survey respondents, who clearly identify data protection and the separation of private and business data and applications as being the greatest challenges facing workspace management in the age of all-embracing mobility, it is clear that only intelligent ITSM solutions can help. In light of these problems, IT managers must invest in solutions that actively support Service Desk staff and administrators and directly alleviate the vast majority of these complex problems. The complexity that mobility is bringing to the Service Desk cannot be solved by introducing an even more complex IT Service Management system. Simplicity is the best solution here! If German companies want to weather this mobility storm successfully, then they must invest in automated tools for their Service Desks. This is the only way to ensure that employees, who in practice have neither the resources nor the time to fully deal with all aspects of the new technology, are properly supported in their work. Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 10 Appendix: Survey – Implementation and Demography The Matrix42 survey entitled ‘Mobile ITSM 2014’ was conducted at the CeBIT trade show in March 2014. A total of 1,509 people were interviewed. 74 percent of those surveyed were recruited from small and medium- sized companies with fewer than 1,000 employees. In the survey, the participants answered a total of eight multiple choice and weighted questions on mobile ITSM. How Many Employees Are Employed in your Company? ■ < 500 employees 64 % ■ 500–1,000 employees 10 % ■ 1,000–5,000 employees 13 % ■ 5,000–10,000 employees 3 % ■ > 10,000 employees 10 % Mobile Devices Conquer Companies: Mobile ITSM Is More Important than Ever! 11 Disclaimer This documentation is protected by copyright. All rights are reserved by Matrix42 AG. Any other use, in particular, distribution to third parties, storage in a data system, dissemination, processing, performance, and presentation is strictly prohibited. This applies to the entire document as well as to parts thereof. Subject to change without notice. Other company, trademark and product names, which are not expressly listed here, are trademarks or registered trademarks of their respective owners and are subject to trademark protection. Matrix42® is a registered trademark of Matrix42 AG. Matrix42 AG Elbinger Strasse 7 60487 Frankfurt am Main Germany Follow us Tel.: +49 (0) 6102 8160 Fax: +49 (0) 6102 816-100 E-mail:[email protected] www.matrix42.com #DesktopDestiny Global Knowledge vTerminology: A Guide to Key Virtualization Terminology Expert Reference Series of White Papers vTerminology: A Guide to Key Virtualization Terminology 1-800-COURSESwww.globalknowledge.com vTerminology: A Guide to Key Virtualization Terminology John A. Davis, VMware Certified Instructor (VCI), VCP5-DV, VCP5-DT, VCAP5-DCA, VCAP5-DCD, VCP-vCloud, VCAP-CID Introduction One of the most important steps in mastering a new technology is learning the associated terminology or vocabulary. In the Information Technology (IT) field, this can be a very challenging step, as much of the terminology is often used inconsistently. This white paper defines the terminology associated with IT virtualization. It is mainly vendor-agnostic, but it does provide some vendor-specific terms, product names, and feature names used by VMware, Citrix, and Microsoft. Commonly used core definitions are provided first and are followed by definitions related to storage and networks. Finally, definitions are provided that are specific to VMware, Citrix, and Microsoft. Core Definitions This section defines many of the most commonly used terms in the virtualization vocabulary. These are considered core, high-level terms. These are straight forward, commonly accepted definitions. Virtual Machine (VM) – A set of virtual hardware devices, including virtual CPU, virtual RAM, virtual I/O devices, and other virtual hardware devices. Software that resembles and behaves like a traditional, physical server and runs a traditional operating system (OS), such as Windows or Linux. Many products and technologies today provide a platform on which VMs can be built and run. Although these technologies may have many fundamental differences, they tend to share these characteristics: • Many VMs can run on each physical host concurrently. • VMs running on the same host are isolated from one another. • The OS installed in the VM is unaware that it is running in a VM. • Administrators and users in one VM cannot access the underlying host OS or the guest OS of other VMs running on the same host. Virtual Server – A VM running a server OS such as a Windows Server or a Red Hat Enterprise Linux Server. A virtual server typically runs one server-based application. Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 2 Virtual Desktop – A VM that is running a desktop OS, such as Windows 7 or Red Hat Enterprise Desktop. A virtual desktop typically has one direct, concurrent user. VM Template – An object that represents the “golden image“ of a particular virtual server build or virtual desktop build, typically including a well-configured OS and applications. Administrators can quickly deploy new VMs by automatically copying the template to create the new VM. VM Guest OS – The OS that runs in a VM. Virtual Hardware Device (Virtual Device) – A software component that resembles and behaves like a specific hardware device. The guest OS and software applications in the VM behave as though the virtual hardware device is actually a physical hardware device. A VM is a set of virtual hardware devices that correspond to the set of devices found in traditional, physical servers, such as virtual CPUs, virtual RAM, virtual storage adapters, and virtual Ethernet adapters. Virtual Network Interface Card (vNIC) – Software that resembles and behaves like a traditional Ethernet Adapter. It has a MAC address, and it receives and sends Ethernet packets. Virtual SCSI Adapter – Software that resembles and behaves like a traditional SCSI adapter. It can generate SCSI commands and attach multiple virtual disks. Virtual CPU (vCPU) – Software that resembles and behaves like a traditional, physical CPU. Depending on the underlying technology, vCPUs could be software-emulated or software-modified: • Software Emulated – A process that resembles and behaves like a specific model of a physical CPU that, in some cases, could be different than the model of underlying physical CPU in the host hardware. • Software Modified – A process that provides a filtered, indirect connection to the underlying host CPU. Typically, the vCPU provides subsets of the instruction and feature sets that are available on the host CPU. The vCPU traps and modifies privileged commands but sends other commands directly to the hardware. Virtual Disk – Resembles and behaves like a physical disk. It may be a file, a set of files, software, or some other entity, but to a VM, it appears to be a SCSI disk. For example, in Microsoft Hyper-V, virtual disks are referred to as VHD files with the file extension .vhd. Virtual Ethernet Switch (vSwitch) – Software that resembles and behaves like a physical Ethernet switch. It allows vNICS from multiple VMs to connect to virtual ports. It allows physical NICs to connect to virtual ports and serve as uplinks to the physical network. A vSwitch maintains a MAC address table and routes traffic to specific ports, rather than repeating traffic to all ports. It may include other features commonly found in physical Ethernet switches, such as VLANs. Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 3 Virtual Network – A network provided by virtual switches. It may be an extension of a traditional network that is built on physical switches and VLANs, or, it may be an isolated network formed strictly from virtual switches. Virtual Infrastructure – A collection of VMs, virtual networks and storage, and other virtual items that can deploy and run business applications, as an alternative to running applications directly on physical infrastructure. It allows IT personnel to install software applications in traditional OSs, such as Windows and Linux, without needing to know details of the underlying physical infrastructure. The OSs and applications run in VMs, in virtual networks, and on virtual storage. Virtual Desktop Infrastructure (VDI) – A set of virtual desktops running on virtual infrastructure. VDI often involves detailed optimization at the physical infrastructure, virtual infrastructure, desktop OS, and application levels to allow close to native performance. VDI management software automatically brokers and connects users to their virtual desktops. VDI management software also automatically provisions virtual desktop pools from VM templates. Cloud – A complex system that provides a set of services to consumers, without requiring the consumer to understand any of the underlying complexities of the system. Although this definition is simple, it is a highly accepted definition of the term, even when used to describe non-IT clouds. For example, some people consider electricity, water, and cable television services to be provided by clouds. Clouds provide some IT-based service, often utilizing virtual infrastructure. Businesses can use privately owned clouds, externally owned clouds, or both external and private clouds (hybrid clouds). Types of IT-based clouds include: • Infrastructure as a Service (IaaS) – IaaS provides virtual infrastructure as a service where consumers can easily implement and utilize VMs without needing to understand, manage, or own the underlying physical infrastructure. Examples of public IaaS providers are Hosting.com (http://hosting.com) and RackSpace (http://rackspace.com) • Software as a Service (SaaS) – Provides software applications as a service where consumers can easily use applications without needing to understand, manage, or own the underlying server operating systems, software applications, databases, or infrastructure. Examples of public SaaS are Google Apps (http://www.google.com/apps) and Salesforce CRM (http://www.salesforce.com/crm/). • Platform as a Service (PaaS) – Provides a software development platform as a service where consumers can easily build applications on a provided platform without any need to understand, manage, or own the underlying infrastructure. It allows developers to easily create applications that are easily portable. Examples of public PaaS are Microsoft Azure (http://www.windowsazure.com/en-us/) and Force.com (http://force.com). Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 4 Hypervisor – A thin OS designed solely to provide virtualization. It drives physical hardware, executes VMs, and dynamically shares the underlying hardware with the associated virtual hardware. It is not intended to serve directly as a general-purpose OS, but instead provides the platform on which VMs can run. Paravirtualized – A software component that is aware that it is running in a VM. For example, a paravirtualized virtual device driver runs in a VM that communicates with the underlying host OS. Typically, a paravirtualized driver is optimized to share queues, buffers, or other data items with the underlying host OS to improve throughput and reduce latency. For another example, Citrix XenServer runs paravirtualized OSs in VMs where the guest OS is modified to work very efficiently with the underlying hypervisor. P2V (Physical to Virtual) – The migration of a traditional server, such as a specific Windows 2008 sever, from physical server hardware to a VM. Clone – Typically refers to the action of copying one VM or VM template to create a new VM. During a clone operation, the VM files are typically copied, renamed, and modified to customize the new VM. VM Snapshot – A point-in-time capture of the state of a VM. Snapshots allow the user to revert the VM to a previously captured state. A primary use is to undo changes that were made in a VM but are no longer wanted. VM Migration – The movement of VMs from one resource to another, such as from host to host or datastore to datastore. Live VM Migration – Occurs while the VM is running. Cold VM Migration – Occurs while the VM is shut down. Resource Contention – A state where a VM is competing for a scarce resource with other VMs or overhead processes. For example, if the memory capacity of a host is currently fully utilized, and some VMs attempt to demand more memory, then memory contention occurs and some VMs may begin to swap to disk. Highly Available (HA) – A system or component that has some automatic protection in case of disruption. The protection may allow a small amount of unplanned downtime, but it will automatically correct the issue within a pre-determined time interval. VM High Availability (VM HA) – Ensures that a VM is automatically made available, although the host on which it runs fails. VM HA may require an automatic reboot of the VM on another host. Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 5 Fault-Tolerant – A system or component that has automatic, state-full protection in case of failure. For example, some software applications are designed to replicate state to multiple servers and databases to provide a fault-tolerant application. The failure of a server does not result in any loss of state of the application or any disruption to the end user. Fault-Tolerant VM – A VM that continues to run state-fully even if host hardware fails. This may be achieved by synchronizing the execution and state of multiple VMs running on multiple hosts. Provisioned Over-Commitment – A measurement, usually in percentages, by which the amount of provisioned virtual hardware is greater than the actual physical resources. For example, if a set of thin provisioned virtual disks is configured for a total of 3 TB, but the datastore where they reside is only 2 TB, then the overcommitment is 150 percent. Over-Committed – A state where the actual, attempted resource usage exceeds the capacity of the actual hardware resources. For example, if a set of VMs stored in the same datastore generate more I/O than the underlying LUN can accommodate, then the datastore is over-committed. Local VMs – VMs executed directly on a client system, such as the user’s PC. Some virtualization products, such as VMware Workstation and Microsoft Virtual PC, are designed solely for running local VMs. Some VDI products allow virtual desktops to run remotely in the datacenter, but also allow the user to check out a virtual desktop, execute the virtual desktop locally on a client system, and check in the virtual desktop upon completion. Thin Client – A client device that has a very lean implementation of Windows or Linux and is mainly intended to allow the user to connect to a remote virtual desktop rather than to run applications natively. Zero Client – A client device that is even leaner than a thin client. Typically, a zero client runs an embedded, proprietary OS and has no local disk. It is used to connect to remote virtual desktops. Virtual Machine Manager (VMM, also called a virtual machine monitor) – A process that controls the execution of a VM and brokers its use of virtual hardware with the underlying host. It notifies the host when the VM needs to access the physical resources. CPU Hardware-Assisted Virtualization – Features that are commonly provided on modern CPUs, allowing the host to offload some of the virtualization work to the CPU to improve performance. • Intel-VT and AMD-V – Features that provide hardware assist for the virtual CPUs by allowing the VMM to execute on the CPU at a level just below Ring 0, making its execution more efficient. • Intel EPT and AMD-RVI – Features that provide hardware assist for the virtual CPUs by allowing the translation of guest OS virtual memory pages to be cached on the CPU. These features improve the translation time and minimize the frequency in which the VM’s guest OS must perform translations. Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 6 Virtualized Application – A packaged software application that runs in a virtualized, runtime environment, where the application perceives that it is natively installed. For example, a virtualized Windows-based application accesses a virtual Windows registry and virtual file system that are created at runtime by the runtime environment by overlaying modifications in the package on the native registry and file system. Virtual Appliance – A pre-built VM containing pre-installed software that can be easily implemented. Typically, the appliance is downloaded from a website as an OVF file, deployed into the virtual infrastructure, and easily configured using the console of the VM and a web browser. Most virtual appliances allow very simple implementation, relieving the customer of a complex installation and configuration. Open VM Format (OVF) – A specification that can be used to export and import VMs from one virtual environment to another. Typically, virtual appliances are stored in the OVF format. Storage-Specific Definitions This section provides the definitions of storage-related terms. Raw LUN – An iSCSI or Fiber LUN that is connected entirely to a single VM, allowing the guest OS to access the entire LUN. A Raw LUN is one in which the host did not format the LUN with its own file system. For example, in vSphere, LUNs that are not formatted with VMFS are considered to be Raw LUNs when attached directly to VMs. Thick-Provisioned Virtual Disk – A virtual disk file in which disk space is pre-allocated. Thin-Provisioned Virtual Disk – A virtual disk file in which disk space is not pre-allocated, but instead increases on demand up to a pre-configured maximum. This is called dynamically expanding disks in Hyper V. Linked Clones – A set of virtual disks that service a set of related VMs, such that each virtual disk shares the same base disk file, but utilizes its own delta file. Runtime changes for each virtual disk are made only to the delta file associated with the virtual disk, not to the shared base disk file. VMware vCloud uses the term fast provisioning for the same purpose, and Citrix XenServer uses the term fast clone. Datastore or Storage Repository – Datastores, also called storage repositories, are file system partitions or shares that are accessible by the host server and commonly used for storing VMs. They are typically shared by multiple hosts and VMs for storing virtual disks, but can also hold other files, such as ISO files and templates. Network-Specific Definitions This section provides the definitions of network-related terms. Virtual Switch Port – A port on a virtual switch where virtual Ethernet adapters or physical uplinks may be attached. During their creation, virtual switches are typically configured with a specific number of virtual ports. Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 7 Virtual Switch Port Group – A group of ports on a virtual switch that are configured as a single entity, where each setting on the port group is automatically applied to each port in the group. Some vSwitch implementations require that VMs must be connected to port groups. Common port group settings include VLAN and security settings. Virtual Local Area Network (VLAN) – A logical network that can be configured within a physical network. The IEEE 802.1q network standard provides the full definition of VLANs. Many physical Ethernet switches and most virtual switches support VLANs. VLANs typically are assigned a unique IP subnet and are assigned a VLAN number between 0 and 4095. Private Virtual Local Area Network (PVLAN) – Frequently, conceptually identified as a VLAN within a VLAN, where a standard VLAN can be extended or subdivided into thousands of PVLANs. PVLANs allow network administrators to easily create protected, sub-networks that share the same IP subnet. VMware-Specific Definitions The following are terms, feature names, or product names that unique to VMware. For more details, visit VMware’s website: http://www.vmware.com/products/datacenter-virtualization/vsphere/overview.html VMware vSphere – A suite of products that provide reliable virtual infrastructure suitable for business-critical applications. VMware VMotion – A feature of VMware vSphere that provides live VM migrations from host to host. VMware Storage VMotion – A feature of VMware vSphere that provides live VM migrations from datastore to datastore. VMware vSphere Distributed Resource Scheduler (DRS) – A feature in vSphere that provides automated resource control. Its main function is to provide automatic load-balancing based on CPU and RAM usage in a cluster of ESXi hosts by utilizing VMotion. VMware vSphere Storage DRS – A feature in VMware vSphere that provides automated storage resource control. Its main function is to provide automatic balancing of disk space utilization within a cluster of datastores by utilizing Storage VMotion. It can also be used to automatically balance the I/Os in a cluster of datastores. vSphere High Availability (HA) – A feature of vSphere that provides automatic VM high availability against potential ESXi host failures. Whenever an ESXi host in a cluster fails, vSphere HA restarts the failed VMs on surviving ESXi hosts in the cluster. Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 8 VMware Tools – A software application that should be installed in VMware-based VMs. It provides the latest virtual device drivers. It also runs paravirtualized services that communicate to the ESXi host to allow features such as time synchronization and heart beats. VMware VMFS (Virtual Machine Files System) – A file system designed to efficiently allow shared access from multiple ESXi servers, while supporting very large files. A VMFS datastore is a disk partition formatted with VMFS or a set of VMFS-formatted partitions (VMFS Extents) that are spanned to form a single VMFS. VMFS datastores are typically used to store VMs that run on VMware ESXi. Citrix-Specific Definitions The following are terms, feature names, or product names that unique to Citrix. For more details, visit Citrix’s website: http://www.citrix.com/products/xenserver/overview.html Citrix XenServer – A product that provides reliable virtual infrastructure suitable for business-critical applications. Citrix XenDesktop – A suite of applications that provides virtual desktops. Citrix XenApp – Allows multiple users to share a single desktop remotely. Citrix XenMotion – A feature of Citrix XenServer that provides live VM migrations from host to host. Citrix XenServer Storage Motion – A feature of Citrix XenServer that provides live VM migrations from datastore to datastore. Citrix XenServer Tools – A software application that should be installed in XenServer-based VMs. It provides the latest virtual devices drivers. Microsoft-Specific Definitions The following are terms, feature names, or product names that unique to Microsoft. For more details, visit Microsoft’s website: http://www.microsoft.com/en-us/server-cloud/windows-server/server-virtualization.aspx?EP=200072479 Microsoft Hyper – A hypervisor in a Windows server that can run multiple Windows-based VMs. Quick Migration – A feature of Microsoft Hyper-V that provides planned and unplanned migrations of VMs from host to host, requiring about 60 seconds of downtime. The VM is suspended during the migration. Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 9 Live Migration – A feature of Microsoft Hyper-V that provides live VM migrations from host to host, requiring no downtime. Quick Storage Migration – A feature of Microsoft Hyper-V that provides migrations of VMs from datastore to datastore, requiring about 60 seconds of downtime. The VM is suspended during the migration. Storage Live Migration – A feature of Microsoft Hyper-V that provides live VM migrations from datastore to datastore, requiring no downtime.. Summary IT professionals should strive to learn the proper meanings of terms used in the IT virtualization vocabulary and ensure that they and their colleagues share the same definitions. Learn More To learn more about how you can improve productivity, enhance efficiency, and sharpen your competitive edge, Global Knowledge suggests the following courses: Citrix Microsoft VMware Virtualization Visit www.globalknowledge.com or call 1-800-COURSES (1-800-268-7737) to speak with a Global Knowledge training advisor. About the Author John A. Davis has been a VMware Certified Instructor (VCI) and VMware Certified Professional (VCP) since 2004, when only a dozen or so VCIs existed in the U.S. He has traveled to many cities in the U.S.., Canada, Singapore, Japan, Australia, and New Zealand to teach. He splits his time between teaching and delivering professional consulting services that are 100 percent focused on VMware technology. Copyright ©2013 Global Knowledge Training LLC. All rights reserved. 10 #DesktopDestiny Telindus Software defined: the game changer White paper Software defined: the game changer White paper Inhoud 1Inleiding 3 2 Van virtualisatie via hyper-converged naar software defined 4 3 Software defined 6 4 Software defined infrastructuur 8 5Marktontwikkelingen 13 6 14 De uitdagingen voor de IT-afdeling 7Conclusie 15 8 16 Over Telindus 1 Inleiding White paper Het datacenter wordt steeds belangrijker. Trends en ontwikkelingen als BYOD, draadloos internet, desktopvirtualisatie en 4G zorgen voor de nodige druk op het datacenter. De afgelopen jaren is er veel veranderd als we kijken naar de complexiteit van de IT-infrastructuur. De grote driver achter deze veranderingen is virtualisatie. Voorheen kon je spreken van losse eilandjes; storage, netwerk en compute waren afzonderlijke componenten die wel invloed op elkaar hadden, maar er was geen sprake van integratie. Virtualisatie heeft dit veranderd. De impuls die virtualisatie de IT-business hiermee heeft gegeven, heeft de IT volledig getransformeerd. Componenten zijn niet meer los van elkaar te zien. Enerzijds heeft virtualisatie hierdoor alles eenvoudiger gemaakt, maar tegelijkertijd zorgt het er ook voor dat je als IT-manager van álle componenten de juiste specialistische kennis moet hebben. Iets wat in de praktijk nog lastig te realiseren blijkt. Deze complexiteit in combinatie met de aanhoudende behoefte aan kostenbesparingen heeft geleid tot een nieuwe game changer: software defined. Kort gezegd wordt hiermee de intelligentie volledig losgemaakt van de hardware, waardoor de complexiteit uit de infrastructuur gehaald wordt. In deze whitepaper gaan we uitgebreid in op de diverse facetten van software defined infrastructuren. Want deze ontwikkeling heeft niet alleen invloed op het datacenter, maar op de hele infrastructuur: van datacenter tot access en connectivity. Des te meer reden om te weten wat het inhoudt en wat het kan betekenen voor uw IT-organisatie. Om de implicaties goed te begrijpen, gaan we eerst een klein stapje terug. Waar komen we vandaan en waar gaan we naar toe? 3 2 Van virtualisatie via hyper-converged naar software defined Voordat we de definitie van software defined induiken, is het goed om te weten wat er aan deze ontwikkeling vooraf is gegaan. Welke technologieën staan aan de basis van software defined en waar worden deze technologieën door gedreven? Virtualisatie als basis Het is alweer zo’n zeven jaar geleden dat VMware de IT-business een nieuwe impuls gaf met een ware transformatie van IT tot gevolg. Toen al draaide het allemaal om meer doen met minder. Virtualisatie heeft de mogelijkheden van IT vergroot, maar in tegenstelling tot in het begin draait het nu allang niet meer alleen om consolidatie. ‘Bijkomende’ voordelen als beschikbaarheid, flexibiliteit en snelheid zijn essentieel geworden. Zeker nu de IT-manager steeds sneller tegemoet moet komen aan de wensen van de business. Best-of-breed infrastructuur De best-of-breed infrastructuur is zoals we die al jaren kennen; de system integrator adviseert welke oplossing het beste aansluit bij de wensen van de klant, maatwerk dus. Voor de IT-manager betekent een best-of-breed infrastructuur dat er voor het onderhoud en beheer van de omgeving veel kennis nodig is van alle aspecten van het datacenter. Daarom zijn er specialisten nodig op de IT-afdeling of worden gedeeltes uitbesteed. Het feit dat er individuele componenten geselecteerd worden, heeft tot gevolg dat er losse investeringen gedaan worden. Netwerk, storage en servers, alles heeft een eigen life cycle. In de praktijk betekent dit dat er ieder jaar budget apart wordt gehouden voor investeringen in specifieke vervangingen of uitbreidingen. In plaats van één moment van investeren, wordt dit verspreid over enkele jaren. Innovatie In de praktijk blijkt dat CIO’s nog altijd teveel projecten laten lopen vanwege het budget. Immers, één van de taken van de CIO is om te bezuinigen zonder dat dit ten koste gaat van het resultaat. Hierdoor wordt de behoefte aan nieuwe businessmodellen steeds groter. Want een hoger budget, betekent niet automatisch dat er ook meer ruimte voor innovatie is. Sterker nog, in verhouding tot de kosten voor het dagelijks beheer verandert er waarschijnlijk weinig. White paper Maar liefst 73 procent (Forrester Research, Inc., IT Budget Allocations) van het budget van de CIO gaat naar dagelijkse zaken, zoals beheer, stroom, licentiekosten, resources, et cetera. Kortom, OPEX, ‘keeping the lights on’. Een snelle rekensom leert dat er dan 27 procent overblijft voor innovatie. Maar zo simpel is het helaas niet. Van oudsher worden netwerk, storage, servers en virtualisatie beschouwd als losse projectgebieden. Om ieder projectgebied up-to-date te houden, worden er losse investeringen gedaan, waar door de jaren heen geld voor apart gezet wordt. In de praktijk betekent dit dat er om de 7 à 8 jaar investeringen worden gedaan om de infrastructuur actueel te houden. Buiten de 73 procent voor dagelijks beheer, verdwijnt er ook ieder jaar 23 procent van het budget in de spaarpot voor toekomstige investeringen aan de infrastructuur. De CIO met bijna lege handen achterlatend: vier procent voor innovaties is immers niet veel. Hoewel de budgetten gegroeid zijn en de CIO innovatie ook hoog op zijn prioriteitenlijst heeft gezet, is er in feite weinig ruimte voor vooruitgang, terwijl de afhankelijkheid van IT voor de business steeds groter wordt. Juist hier spelen de nieuwste technologieën sterk op in. Converged infrastructures Hoewel de ontwikkeling al eerder was ingezet, werden converged infrastructures in 2012 echt een hot topic. Er vonden veel ontwikkelingen plaats en de aandacht voor deze oplossingen nam toe. Het belangrijkste kenmerk is dat de onderlinge componenten zo ver geïntegreerd zijn, dat ze bijna niet uit elkaar te halen zijn. Denk aan storage, servers, netwerk en virtualisatie. Converged architecture oplossingen zijn gebaseerd op best practices en bewezen technologie. Er zijn twee varianten in de markt; referentie-architecturen en pre-build infrastructures. Referentie-architecturen zijn architecturen waarbij de componenten en architectuur al vastliggen, maar de oplossing nog wel gebouwd moet worden. De IT-manager schaft dus in één keer een complete oplossing aan, maar de oplossing biedt nog wel ruimte om zelf wijzigingen aan te brengen. Een pre-build infrastructure is de tweede variant. Ook dit is een complete oplossing waarin de verschillende componenten zijn geïntegreerd, maar in tegenstelling tot de referentie-architectuur is de building block al gebouwd en wordt dus kant en klaar geleverd. Hierdoor is er voor de IT-manager minimaal ruimte voor wijzigingen in de architectuur. 4 White paper Van virtualisatie via hyper-converged naar software defined Converged architecture oplossingen zijn gebaseerd op best practices en bewezen technologie. Dit heeft een aantal belangrijke voordelen: - Snelle time to market - Hoge beschikbaarheid -Schaalbaar - Minder management consoles - Garantie door workload-certificatie - Tijd en budget over om aan innovatie en functionaliteit te besteden - Betere ondersteuning business-doelstellingen In de praktijk kan ICT niet altijd maximaal faciliteren in de groei van de business, vaak doordat het moeilijk is om te anticiperen op business-veranderingen. Referentiearchitecturen op basis van best practices voorkomen veel tijdverlies, budgetoverschrijding en verhogen de kwaliteit. Daarnaast biedt de volledige integratie van de diverse projectgebieden mogelijkheden om ruimte in het IT-budget over te houden voor innovatie. In plaats van ieder jaar een investering in storage en/of netwerk, et cetera, zet je met een converged architecture oplossing één schaalbare totaaloplossing neer. Hyper-converged infrastructures De naam zegt het al, hyper-converged infrastructures gaan nog een stapje verder dan converged infrastructures. Daar waar converged infrastructures een vooraf geconfigureerde samenstelling zijn van verschillende op zichzelf staande componenten, storage, servers en netwerk, is een hyper-converged infrastructuur één enkel component waarin compute en (lokale) storage gecombineerd is. Verschillende van deze gelijke componenten kunnen eenvoudig aan elkaar gekoppeld worden om direct de performance en opslag te vergroten (scale-out architectuur). Hyper-converged infrastructures zijn volledig geïntegreerde oplossingen die gebouwd worden op basis van industriestandaard componenten. Het unieke aan deze infrastructuren is de bovenliggende software. De hardware is vergelijkbaar met een traditionele server met lokale storage en de software verbindt meerdere van de componenten als één logisch geheel. Bij inzet van deze oplossing is een traditioneel SAN dan ook niet langer een vereiste als basis voor virtualisatie. Hiermee breken hyper-converged infrastructuren met de klassieke architecturen die allen gebruikmaken van centrale storage als basis voor virtualisatie. De storage in deze oplossingen is software-gebaseerd, waardoor de storagecapaciteit lineair mee kan groeien met de servers. Waar in traditionele infrastructuren storage nog vaak de bottleneck is, verandert dat met hyper-converged infrastructures. De oplossing is opgebouwd uit clusters die bestaan uit building blocks van servers, waarop een zeer hoog aantal virtuele items per building block kan draaien. Dankzij de softwarelaag wordt alle interne storage gezien als één diskpool, waardoor capaciteit en performance lineair schalen. Daarnaast bevinden storage en rekenkracht zich nu in één appliance, wat een uitdaging betekent voor de traditionele serverleveranciers. Minder componenten, betekent ook minder aansluitingen. Minder aansluitingen waar meer gebruik van gemaakt wordt door onder andere de mogelijkheid om lineair te kunnen schalen. Deze verandering van de IT-infrastructuur vereist ook een andere blik op de netwerkinfrastructuur. Ook de netwerkleveranciers staan dus voor een uitdaging om hier op in te kunnen spelen. Waar het beheer van converged infrastructures al sterk vereenvoudigd is ten opzichte van de klassieke infrastructuren, geldt voor hyper-converged infrastructures dat er maar één managementinterface is, waardoor het beheer veel makkelijker wordt. De overall trend is dat software steeds geavanceerder wordt. Voorheen werd alle logica ingebouwd in hardware, waardoor ontwikkeltijden lang waren. Doordat CPU’s nu extreem krachtig zijn, kunnen de systemen het ook aan als de intelligentie in software gebouwd wordt. Deze ontkoppeling van de software (de intelligentie) van de hardware is de basis van een software defined infrastructuur. Door de software minder afhankelijk van de hardware te maken, wordt er meer flexibiliteit gebracht in de volledige IT-infrastructuur en dit zorgt ervoor dat IT en de business nog dichter bij elkaar gebracht worden. Dankzij de snelle time-to-market, schaalbaarheid en vereenvoudigd beheer, kunnen business-doelstellingen beter ondersteund worden. Hyper-converged infrastructures zijn een eerste stap richting software defined infrastructures. Virtualisatie heeft de mogelijkheden van IT vergroot, beschikbaarheid, flexibiliteit en snelheid zijn essentieel geworden 5 3 Software defined White paper De achterliggende gedachte van converged is het samenbrengen van verschillende componenten tot één om zodoende het beheer te vereenvoudigen. Een converged infrastructuur bestaat uit drie componenten, compute, storage en networking. Deze samengestelde bouwblokken worden ingebracht in een bestaande omgeving. Een omgeving die veelal uit meer diensten bestaat, zoals bijvoorbeeld beveiligingsapparatuur (firewalls). Componenten met elk hun eigen configuratie en daarbij horende beheer. met een externe managementlaag meerdere apparaten aan te sturen, wil niet zeggen dat in de hardware geen software-intelligentie meer aanwezig is. In de meeste gevallen is er namelijk nog steeds specifieke intelligentie aanwezig in de hardware. De hardware voert een taak uit die niet door de losgetrokken software kan worden overgenomen. Wel kan dit een eerste stap naar een volledige software defined oplossing betekenen. Een software defined oplossing heeft de volgende drie kenmerken: Daar waar binnen converged infrastructuren beheer steeds meer gecentraliseerd kan worden, blijft de omliggende omgeving achter. Flexibiliteit in bijvoorbeeld het meebewegen met configuratieveranderingen van de omgevingen zijn daarom lastig en tijdrovend. 1. Abstraction Scheidt de intelligentie van de hardware. Traditioneel worden de afhandelingen volledig door de hardware uitgevoerd. De logica is volledig gekoppeld aan de hardware. Door het loskoppelen van de software kunnen we veel flexibeler omgaan met de resources. Dit is te vergelijken met drones: vliegtuigen die onbemand zijn en op afstand worden bestuurd. Normaal gesproken zit een piloot (software) in het vliegtuig (hardware). De piloot besluit hoe het vliegtuig in te zetten, maar is beperkt tot dit enkele vliegtuig (services kunnen niet zomaar overgezet worden op een ander vliegtuig indien dat gewenst is). Een drone wordt op afstand bestuurd. De software (piloot) zou zelfs een andere drone kunnen bedienen indien dit benodigd is. De piloot is inzetbaar op ieder gewenst moment. Door de configuratie minder afhankelijk te maken van de hardware-onderlaag kunnen we eenvoudiger de configuratie verplaatsen binnen het gehele datacenter. Iets wat virtualisatie voor serversystemen reeds heeft bewerkstelligd, wordt nu doorgetrokken naar overige diensten binnen de infrastructuur. Hardware wordt een hulpmiddel om taken uit te voeren op het moment dat services erop landen. Het gaat niet meer om de hardware, maar om de configuratie, de software: software defined. Software defined draait volledig om het scheiden van de intelligentie van de hardware door middel van orchestratie. Is dit helemaal nieuw? Nee. Denk maar aan telefoons en SAN’s. Apparatuur is al op afstand te programmeren door er een script tegenaan te houden. Software defined gaat echter een stap verder. We spreken dan over gestandaardiseerde onafhankelijke scripts. Maar wat is precies de definitie van software defined? Hierover verschillen de meningen nogal. In de markt zijn eigenlijk drie verschillende reacties te horen op software defined: 1. Deden we altijd al (bijvoorbeeld mainframes of op het gebied van storage) 2. Afzonderlijke managementlaag over de hardware 3. Het lostrekken van de software van de hardware De derde reactie is de enige juiste. Bij software defined infrastructuren doet de hardware er niet meer toe, het draait volledig om de software. Dit is bij eerdere ontwikkelingen niet het geval. Om die reden is ook het lostrekken van de managementlaag van de hardware geen software defined. Dat het mogelijk is om 2. Poolen Door het loskoppelen van de intelligentie van de hardware kunnen resources gecombineerd worden in een policy: poolen. Hierdoor kunnen verschillende resources tegelijkertijd worden geconfigureerd. Configuraties zoals dat op dat moment wenselijk en benodigd is zoals in de policy aangegeven. De componenten hoeven niet meer op voorhand ingesteld te zijn met de benodigde configuratie. Op dit moment worden policy’s nog veelal handmatig en per activiteit ingevoerd. Met software defined worden verschillende op zich staande opdrachten gekoppeld, waardoor je er met één policy voor kunt zorgen dat er bijvoorbeeld tien opdrachten worden uitgevoerd. Als op voorhand duidelijk is dat een bepaalde dienst een zekere workload en/of service nodig heeft, kunnen verschillende op zich staande opdrachten voor bijvoorbeeld een VLAN, de lijnen, de toegang tot de storage, de beveiliging, et cetera gekoppeld worden en door één policy worden aangestuurd. Zoals uitgelegd in de drone-metafoor: meerdere drones kunnen vanuit een centraal systeem worden gestuurd om zo een gezamenlijke opdracht uit te voeren. 6 White paper Software defined 3. Automate Het uiteindelijke doel van een software defined omgeving: het automatiseren. Door na te denken over wat je als IT-afdeling wilt bieden, is het mogelijk om te standaardiseren. Dit kan door het toekennen van een naam aan een policy, bijvoorbeeld platinum. Het maken van backups of het instellen van firewalls, allemaal zaken die op voorhand kunnen worden ingeregeld op basis van onder meer een gebruikersprofiel of afdelingskenmerken. In de toekomst kan het zelfs zo zijn dat de gebruikers zelf kiezen hoe vaak ze een backup willen laten maken en dus zelf de policy kiezen. Klaslokaal Om software defined goed uit te leggen, biedt een vergelijking met de werkwijze in een klaslokaal uitkomst. In een traditionele situatie geeft de leraar les, hij vertelt en de kinderen leren. Hij leert zijn studenten dat het ‘ik vind’ is en ‘hij vindt’, maar uiteindelijk bepalen de leerlingen hoe ze het opschrijven en dus of er fouten in zitten. De intelligentie zit dus bij de leerlingen. Waar we met software defined heengaan, is dat de intelligentie verdwijnt uit de losse componenten (de leerlingen). Leerlingen hoeven niet te weten hoe een woord geschreven wordt. De leraar dicteert en zij schrijven het gewoon over. Met andere woorden, de hardware hoeft niet te weten hoe een opdracht tot stand komt, maar voert de opdracht ingegeven door de externe software gewoon uit. Complexiteit Om nu te stellen dat software defined volledig nieuw is? Nee, echter het concept breed doorvoeren wel. Niet enkele componenten binnen de IT-infrastructuur, maar alle componenten in de IT-infrastructuur beantwoorden aan software defined. De behoefte aan het wegnemen van complexiteit uit de ITinfrastructuur is groot. Op dit moment is het al mogelijk om hardware onafhankelijk van de software te laten draaien, maar policy’s moeten veelal nog handmatig geprogrammeerd worden. Dit brengt risico’s met zich mee. Want hoewel IT-afdelingen minder hoeven te programmeren, mag er met datgene wat nog wél geprogrammeerd moet worden niets mis gaan. Alles is immers met elkaar verbonden. Software defined is het dicteren van opdrachten. De IT’er dicteert en de software schrijft het over. Fouten die gemaakt worden, zijn dus van menselijke aard. De uitdaging hierbij is dat software zo ver wordt doorontwikkeld dat het wel zelf kan denken en er minder input nodig is van mensen. Met software defined wordt de beheerslast aanzienlijk verminderd, maar het systeem moet natuurlijk nog altijd gebouwd en in de gaten gehouden worden. Hier zijn dan ook nog steeds experts voor nodig. In hoofdstuk 6 gaan we verder in op de uitdagingen van software defined voor het IT-management, maar eerst gaan we dieper in op de rol van software defined binnen de infrastructuur. Software bepaalt De desktopwereld is een mooi voorbeeld van waar de hardwarewereld heen gaat. De gebruikers bepalen welke desktop zij willen gebruiken en kunnen er vanuit gaan dat de meest gangbare software op iedere laptop draait. Of ik nu een latop van merk x of y heb, door de uniformiteit in aansturing zal de gebruikte software op beide laptops gebruikt kunnen worden. Deze onafhankelijkheid is in de hardwarewereld nog niet aan de orde: het behouden van dezelfde features, ongeacht welke hardware je gebruikt. Met software defined bepaalt de software de functionaliteit en de geschiktheid, alle hardware kan hetzelfde. Bij software defined infrastructuren is de hardware volledig ondergeschikt aan de software 7 White paper 4 Software defined infrastructuur De IT-infrastructuur bestaat uit drie lagen die in het licht van het moderne datacenter niet meer los van elkaar te zien zijn; de datacenter-laag, connectivity-laag en de access-laag. Met het oog op deze onderlinge integratie is het belangrijk om het niet over losse ontwikkelingen als software defined storage (SDS) of software defined networking (SDN) te hebben, maar om te focussen op de keten. Uiteraard zijn SDS en SDN daar wel onderdeel van. Beide ontwikkelingen bevinden zich echter nog in twee compleet verschillende fases. Software defined storage Er is nog veel verwarring over de term software defined zoals we dat ook gezien hebben met cloud en de diverse As a Service variaties. In 2013 heeft International Data Corporation (IDC) daarom getracht duidelijkheid te scheppen door een definitie van software defined storage te geven: “De aanpak van IDC definieert software-gebaseerde storage als een storagestack die geïnstalleerd kan worden op commodity resources (x86 hardware, hypervisors of cloud) en/of op kanten-klare computing hardware. Om in aanmerking te komen voor SDS, moet de software-gebaseerde storage stack een volledig pallet aan storagediensten bieden en een verbond smeden tussen de onderliggende dataplaatsing om voor datamobiliteit tussen de gebruikers van deze vorm van resources te zorgen.” Software defined networking Software defined networking zet misschien pas in 2015 echt door. SDN draait om het scheiden van de managementlaag van de datakant van het netwerk, de intelligentie van de hardware. Op dit moment zijn die nog volledig verweven met elkaar. Wat al eerder gerealiseerd is voor servers, staat nu ook te gebeuren voor het netwerk. Het is nog niet mogelijk om de netwerkconfiguratie op te pakken en over te zetten naar een ander datacenter, terwijl de markt hier wel behoefte aan heeft. Het wegnemen van de complexiteit uit netwerkinfrastructuren is een belangrijke drijfveer voor SDN. De wens is om een datacenternetwerk te hebben dat zich gedraagt als één switch. Waarbij bijvoorbeeld niet honderden of duizenden switches apart beheerd hoeven te worden, maar slechts één hoofdswitch geprogrammeerd wordt. In de huidige situatie zijn netwerken vendorspecifiek en daar wil de markt vanaf. Dit heeft natuurlijk invloed op de strategieën van leveranciers, omdat zij zich nu vooral onderscheiden op basis van de hardware. Hoe zij hiermee omgaan en wat dit betekent voor de markt, is te lezen in het volgende hoofdstuk Een voorbeeld waaruit blijkt dat binnen de storagemarkt harden software al langer gescheiden kunnen worden, is tiering. Door middel van tiering wordt data geautomatiseerd op verschillende disks opgeslagen, de software herkent welke capaciteit de applicatie nodig heeft. Dit zorgt er bijvoorbeeld voor dat er geen onnodige dure diskruimte gebruikt wordt voor applicaties die nauwelijks aangeschreven worden. Daarnaast zorgt het scheiden van de intelligentie van de hardware er voor dat systemen makkelijk opgepakt en verplaatst kunnen worden, waardoor de flexibiliteit in het datacenter toeneemt. Het is belangrijk om te focussen op de keten 8 White paper Software defined infrastructuur Access-laag Binnen de access-laag draait het erom dat gebruikers op een betrouwbare en veilige manier toegang krijgen tot het internet, kantoor of datacenter. Of dit nu vanuit kantoren, thuis of overige flexibele werkplekken is. Denk hierbij aan kantooromgevingen met zowel bedrade als draadloze verbindingen, toegang vanuit huis naar een kantooromgeving, enzovoorts. De belangrijkste trend in dit domein is dat IT-afdelingen steeds sneller moeten kunnen reageren op vragen vanuit de business. Dit vraagt om flexibiliteit en slagkracht. Met software defined wordt er geautomatiseerd geprogrammeerd op het moment dat dat nodig is. Stel dat een eindgebruiker toegang wil tot zijn e-mail. Op het moment dat hij deze start, wordt er gekeken naar wat hiervoor nodig is en worden de juiste configuraties binnen de IT-infrastructuur op basis van software gemaakt. Autorisatie wordt gecheckt, benodigde verbinding, bandbreedte en security worden ingeregeld, enzovoorts. Verschillende devices worden zo vanuit één centraal punt gemanaged en geautomatiseerd geconfigureerd: point solutions in de software. De IT-infrastructuur wordt geprogrammeerd op het moment dat het nodig is. Om plaats-, apparaat- en tijdonafhankelijk gebruik te kunnen maken van applicaties is toegang nodig. Toegang tot bijvoorbeeld Office, e-mail en natuurlijk internet. Op dit moment worden deze configuraties gemaakt voordat de gebruiker de gewenste applicatie daadwerkelijk aanspreekt. Dit kost veel tijd en haalt bovendien de flexibiliteit uit de infrastructuur. Infrastructuren zijn vooraf gedefinieerd, dus op het moment dat er iets moet veranderen naar aanleiding van een businessaanvraag kost dat tijd. Users Management Access Security Services Connectivity Datacenter Applications 9 White paper Software defined infrastructuur Connectivity-laag In de connectivity-laag staan verbindingen centraal: verbindingen binnen een campus, tussen kantoren onderling, van het datacenter naar kantoor en tussen datacenters onderling. Door centralisatie in het datacenter gaat er steeds meer data over de lijnen en is de afhankelijkheid ervan enorm toegenomen. Op het gebied van connectivity is de vraag vanuit de business niet veranderd, maar de eisen zijn dat zeker wel. De verbindingen moeten sneller, 24/7 beschikbaar zijn en veilig. Daarnaast dienen de verbindingen zich transparant te gedragen, niet gebonden aan enkele toepassingen. IT-managers staan voor de uitdaging hoe om te gaan met deze eisen. Hoe kunnen huidige systemen aangepast worden? Lange trajecten die doorgaans kostbaar zijn. Veel organisaties kiezen er daarom voor om te roeien met de riemen die zij hebben. Hardware is een wezenlijk onderdeel van het geheel, het verzorgt immers de benodigde performance. En vervangingen van hardware zijn nodig om de steeds groter wordende eis en verwachtingen bij te kunnen blijven. Maar vervangingen staan ook voor migraties met daarbij behorende herconfiguraties. Door de configuratie los te kunnen laten van de hardware kan functionaliteit los worden gekoppeld van systemen. Services kunnen worden geboden en hoeven zo niet te worden hergeprogrammeerd. Enkel de vervanging (wellicht zelfs uitbreiding) van de hardware zorgt ervoor dat de functionaliteit weer op de gewenst snelheid wordt geboden. De nieuwe netwerkinfrastructuur wordt eenmalig gebouwd en vervolgens door middel van programmering vanuit een centraal punt virtueel ingericht, zodat deze meervoudig, dynamisch en automatisch inzetbaar is voor meerdere gescheiden toepassingen. Om echt een kostenbesparende oplossing voor de lange termijn te implementeren moet een nieuwe netwerkinfrastructuur vanaf de grond gebouwd worden, met nieuwe componenten. Software defined kan hier in de toekomst een kostenbesparende rol innemen. Niet voor iedere toepassing specifieke hardware inrichten, maar enkele hardware softwarematig voor meerdere doeleinden flexibel kunnen inrichten. Minder componenten, minder beheerslast en kostenbesparend. Users Management Access Security Services Connectivity Datacenter Applications 10 White paper Software defined infrastructuur Datacenter-laag Het datacenter is cruciaal in de IT-infrastructuur. De verandering van hardwaregeoriënteerd naar softwaregeoriënteerd zal dit alleen nog maar vergroten. Binnen het datacenter is er reeds veel veranderd door de komst van virtualisatie. Vooral op compute gebied is het normaal geworden dat de software niet meer gebonden is aan de hardware. Door dit concept door te voeren naar de access- en connectivity-laag worden de afhankelijkheden alleen maar groter. Niet alleen zijn de componenten als network, storage en compute onlosmakelijk met elkaar verbonden. Door de flexibiliteit die software defined gaat brengen, zullen ook de access- en connectivity-laag onlosmakelijk verbonden zijn met het datacenter. Moderne access points (toegangspunten voor WIFI) werken al op een wijze die binnen software defined kan vallen. Net als bij andere apparatuur bezit ieder access point software die moet worden geconfigureerd. Voor een goed bereik binnen een kantooromgeving worden er al snel 10-tallen van deze componenten ingezet. Al deze access points dienen elk afzonderlijk te worden geconfigureerd. Bij moderne access points draait de software niet meer op het access point zelf, maar als een virtueel systeem in het datacenter. Dit vergt nogal wat inbeelding. Waar de access point typisch een component in de access-laag was en geen afhankelijkheid van het datacenter had, is het nu een component geworden die de access-laag creëert, maar zich ook zelf in het datacenter bevindt. Users Management Access Security Services Connectivity Datacenter Applications 11 White paper Software defined infrastructuur IT-infrastructuur volledig geïntegreerd Binnen alle lagen, connectivity, access en datacenter, geldt hetzelfde: niet eenmalig opdracht a inrichten, maar de hele keten automatiseren van a tot z wanneer hier behoefte aan is. Deze manier van werken is te vergelijken met een snelweg. Vier banen zijn in gebruik door het verkeer. Indien er voor hulpdiensten de behoefte is om er snel doorheen te kunnen, wordt er een baan gereserveerd voor deze hulpdiensten. De inzet van de beschikbare infrastructuur is opeens anders geworden. Veranderingen kunnen worden doorgevoerd naar gelang de vraag, zonder fysieke aanpassingen aan de infrastructuur. Deze manier van werken brengt flexibiliteit op de IT-afdeling naar een volgend niveau. Users Management Security Access Connectivity Services Datacenter Applications 12 5 Marktontwikkelingen Een ontwikkeling als software defined boort een volledig nieuwe markt aan. Veel infrastructuurleveranciers verkochten al software, maar altijd in combinatie met hardware. Vanwege de behoefte aan flexibiliteit bij de eindgebruikers, zijn er op dit gebied nu grote veranderingen gaande. Op welke manier spelen leveranciers in op deze ontwikkeling? Met name voor netwerkleveranciers staat er veel te gebeuren. In de huidige markt kiezen klanten vaak noodgedwongen voor één vendor, maar wanneer hardware en intelligentie van elkaar gescheiden wordt, betekent dit dat leverancieronafhankelijk gekozen kan worden voor verschillende oplossingen. Dit zorgt er voor dat IT-managers minder afhankelijk zijn van hun leverancier, een scherpere onderhandelingspositie hebben en makkelijker kunnen meegaan met nieuwe initiatieven, bijvoorbeeld eenvoudiger overstappen van een private naar hybride cloud. Voor leveranciers betekent dit een flinke omslag in hun dienstverlening en productontwikkeling. Want hoe zorg je er als leverancier voor dat klanten niet alleen voor jouw hardware kiezen, maar ook softwarelicenties gaan afnemen? Innovators en followers Het onderscheidend vermogen van technologie zit in de software. Hardware is eenvoudiger te vervangen en bovendien is dat niet waar de dienstverlening op leunt. De traditionele leveranciers moeten dus nadenken over nieuwe softwaremodellen op basis waarvan zij hun diensten kunnen verkopen. Een aantal grote vendoren heeft zich hier al volledig op gestort, de innovators. Zij komen al met concrete oplossingen en richten hun portfolio er op in. Maar ook zij staan nog aan het begin en hebben nog een lange weg te gaan. Daarnaast zijn er veel open source initiatieven die het voortouw nemen in deze ontwikkeling, denk bijvoorbeeld aan de open standaard voor netwerkswitches OpenFlow. Als we kijken naar software defined networking ligt het voor de hand dat de traditionele netwerkleveranciers er voor gaan kiezen om specifieke features in de software te bouwen, waardoor taken bijvoorbeeld beter of sneller lopen. Het creëren van voorwaarden die de kans vergroten dat klanten uiteindelijk voor zowel de hard- als software van één leverancier kiezen. Dit is te vergelijken met de aanschaf van een auto. Als je je rijbewijs hebt, kun je in iedere auto rijden. Alle auto’s brengen je van A naar B, White paper maar hoe comfortabel dat gaat, hangt af van de combinatie van losse componenten. De auto die je uiteindelijk koopt, heeft voor jou net dat beetje extra dat hem onderscheidt ten opzichte van de andere auto’s. De vraag is: hoe belangrijk zijn de onderlinge verschillen? En hoeveel is de markt bereid te betalen voor het onderscheidend vermogen? Hardwareonafhankelijke oplossingen zijn prettig voor de klant, maar in de praktijk lijkt de markt ook gebaat te zijn bij een totaaloplossing. De hardware blijft belangrijk en het is afwachten of je als IT-manager inderdaad wel zit te wachten op meerdere leveranciers. Want waar ga je dan heen bij problemen? En hoe selecteer je de juiste componenten? Het netwerk is cruciaal voor de dienstverlening, waardoor de klant kiest voor zekerheid. Om die reden is te verwachten dat er op het gebied van software defined weer veel nieuwe samenwerkingen zullen ontstaan tussen hard- en softwareleveranciers. In het verleden is al gebleken dat dergelijke samenwerkingen kennis en kunde uitstralen en dat is waar de klant naar op zoek is. Daarnaast liggen ook overnames voor de hand om het portfolio aan te vullen. Hoewel hardware ondergeschikt wordt aan software, zal het belang van hardware nooit verdwijnen. IT is als nutsvoorzieningen, de eindgebruiker verwacht gewoon dat het werkt. Water door roestige pijpen is echter niet aantrekkelijk. Voor lekker water moeten de leidingen schoon zijn. Dit geldt ook voor IT. Om de intelligentie uit software optimaal te kunnen benutten, moet er een betrouwbare basis van hardware worden gelegd. Traditionele leveranciers moeten nadenken over nieuwe softwaremodellen 13 6 De uitdagingen voor de IT-afdeling Hoewel software defined nog volop in ontwikkeling is, is het een serieuze trend die nu al veel aandacht vraagt van de IT-manager. Hier is echter veel kennis voor nodig. De rol van de IT-manager is de afgelopen jaren veranderd en deze verandering zal ook met de komst van software defined verder doorzetten. IT wordt binnen veel organisaties nog te vaak gezien als een kostenpost, maar met de samensmelting van IT en business wordt IT echt faciliterend. U vraagt, wij draaien. Aan de IT-manager de taak om zich continu af te blijven vragen hoe hij waarde kan toevoegen aan de organisatie. Met software defined oplossingen is het mogelijk om sneller te schakelen, waardoor IT in staat gesteld wordt om de enabler van winst te worden. Aan de andere kant wordt het gebruik van IT voor de eindgebruiker eenvoudiger en sneller, omdat hij bijvoorbeeld aan de hand van self-service portals zelf keuzes kan maken, maar tegelijkertijd wordt de IT complexer. IT’ers zullen hun kennisgebied moeten verbreden. Het beheer wordt vereenvoudigd, omdat alles vanuit één centraal punt gemanaged kan worden, maar het feit dat oplossingen volledig gecentraliseerd en verder geïntegreerd worden, vraagt om brede én specialistische kennis. Expertises worden alleen maar belangrijker, omdat de infrastructuur ingewikkelder wordt. Alle lagen binnen de infrastructuur zijn met elkaar verbonden, dus de afhankelijkheid neemt toe. Met software defined hoeft er minder geprogrammeerd te worden, maar het belang dat het goed gedaan wordt neemt toe. Daarnaast werkt het systeem volledig geautomatiseerd, maar het moet wel in de gaten gehouden worden. Eén enkele fout in het centrale geautomatiseerde systeem kan de complete omgeving negatief beïnvloeden. Ook hier zijn experts voor nodig. White paper Naar de eindgebruiker verbetert de dienstverlening doordat er snel gereageerd kan worden op vernieuwingen. Het opschalen in hardware is eenvoudiger, omdat de functionaliteit in de software zit. Ook het ‘oppakken’ van de infrastructuur wordt eenvoudiger, bijvoorbeeld voor verhuizingen van datacenters, het uitrollen van desktops of het overstappen naar een externe cloudomgeving. Software defined infrastructuren stellen de ITafdeling in staat direct te reageren op vraag vanuit de business, waarmee de toegevoegde waarde van IT nog zichtbaarder wordt. De rol van de IT-manager is de afgelopen jaren veranderd en deze verandering zal ook met de komst van software defined verder doorzetten 14 7 Conclusie Software defined is here to stay, zoveel is duidelijk. Met recht een game changer, omdat het niet alleen invloed heeft op de dagelijkse praktijk van de IT-manager, maar ook op de dienstverlening van de leveranciers en ontwikkelaars. Het is niet de vraag óf zij iets gaan doen met software defined, maar op welke manier. Het feit dat klanten minder afhankelijk zijn van hun leverancier klinkt op zichzelf als een ontwikkeling met alleen maar voordelen, maar klanten moeten zich wel realiseren dat het ook voor complexiteit kan zorgen. De eisen aan de infrastructuur veranderen namelijk niet, deze moet optimaal functioneren en volledig in dienst staan van de business. Het samenstellen van de infrastructuur op basis van losse componenten vraagt om expertise van de verschillende onderdelen en zorgt bovendien vrijwel automatisch ook voor verschillende aanspreekpunten bij leveranciers. In dit opzicht zal de rol van de system integrator groter worden als centraal middelpunt. Met de komst van converged en hyper-converged infrastructures is de infrastructuur al steeds verder geïntegreerd. De domeinen access, connectivity en datacenter zijn hierdoor volledig op elkaar afgestemd en op sommige terreinen zelfs al versmolten met elkaar. Met de opkomst van software defined zal er een volledige integratie komen, waarbij aan de ene kant de flexibiliteit toeneemt, maar tegelijkertijd de complexiteit toeneemt. White paper IT-managers moeten de ontwikkelingen rondom software defined continu in de gaten houden. Wat betekent het voor de eigen infrastructuur, hoe gaan uw leveranciers er mee om, wat verwacht u dat software defined voor voordelen en uitdagingen oplevert? Het datacenter wordt steeds belangrijker voor de continuïteit van uw organisatie. Oplossingen die de flexibiliteit verhogen en de beheerslast verlagen, helpen u bij het aantonen van de toegevoegde waarde van uw IT-afdeling. De IT-afdeling is geen apart eiland meer binnen de organisatie en dit geldt ook voor de diverse componenten in uw datacenter. Het heden en de toekomst draaien volledig om integratie en samenwerken. Bent u er klaar voor? Met de opkomst van software defined worden alle componenten binnen de IT-infrastructuur volledig geïntegreerd 15 8 Over Telindus White paper Telindus, onderdeel van de Belgacom Groep, is de onafhankelijke specialist en leverancier op het gebied van access, connectivity en datacenteroplossingen in combinatie met managed services en multi-vendor support. De eisen aan IT worden steeds extremer, waardoor kennis van de keten nodig is. Doordat individuele componenten in zowel de datacenter-, connectivity- als access-laag steeds verder integreren, zijn deze niet meer los van elkaar te zien. De kennis en expertise van Telindus op het gebied van end-to-end infrastructuuroplossingen sluiten hier naadloos bij aan. Met deze oplossingen richt de organisatie zich op het garanderen van optimale en veilige toegang tot de volledige infrastructuur en maximale beschikbaarheid: overal, vanaf iedere plek. Telindus heeft strategische partnerships met belangrijke virtualisatie-, netwerk-, storage-, backup-, telecom- en securityleveranciers als Ciena, Cisco, Juniper, EMC, NetApp, VMware, CommVault, Quantum, Nutanix, Transmode, Vasco Data Security, RedSocks, VCE en Riverbed. Daarnaast beschikt de organisatie over een geavanceerd democenter waar de nieuwste technologieën live gedemonstreerd worden. Voor meer informatie bezoek www.telindus.nl of volg Telindus via twitter.com/ telindus_NL en de LinkedIn company page Telindus Nederland. Copyright © Telindus, 2014 Alle rechten voorbehouden. De informatie in deze whitepaper is met zorg samengesteld. Toch kan Telindus geen enkele aansprakelijkheid aanvaarden voor de gevolgen van onvolledigheid of onjuistheid van het materiaal in deze whitepaper. Telindus, Krommewetering 7, 3543 AP Utrecht T +31 (0)30 247 77 11, [email protected], www.telindus.nl, twitter.com/telindus_nl #DesktopDestiny Atlantis & Dell Dell Hyperscale VDI Dell Hyperscale VDI Delivering cost effective virtual and shared desktops to large scale enterprises in collaboration with Atlantis ComputingTM Detailed White Paper A detailed white paper Document Revision Version Description Date Author 1.0 Initial version for publication January 2014 Neil Hallworth Dell Hyperscale VDI – A Detailed White Paper THIS PAPER IS FOR INFORMATIONAL PURPOSES ONLY, AND MAY CONTAIN TYPOGRAPHICAL ERRORS AND TECHNICAL INACCURACIES. THE CONTENT IS PROVIDED AS IS, WITHOUT EXPRESS OR IMPLIED WARRANTIES OF ANY KIND. ALL RESULTS ARE APPLICABLE TO THE TESTED WORKLOADS AND CONFIGURATIONS AT THE TIME OF TESTING. VARIATIONS IN ANY APPLICABLE PARAMETER(S) MAY AFFECT RESULTS ACHIEVED. Copyright © 2014 Dell Inc. All rights reserved. Reproduction of this material in any manner whatsoever without the express written permission of Dell Inc. is strictly forbidden. For more information, contact Dell. Dell, the Dell logo, and the Dell badge are trademarks of Dell Inc. Microsoft and Windows are registered trademarks of Microsoft Corporation in the United States and/or other countries. VMware is a registered trademark of VMware, Inc. Citrix and XenDesktop are registered trademarks of Citrix Systems, Inc. Atlantis Computing, Atlantis ILIO, Atlantis ILIO Diskless VDI, In-Memory VDI, In-Memory Storage, Atlantis ILIO for XenApp, Atlantis ILIO FlexCloud and Atlantis ILIO Persistent VDI are trademarks of Atlantis Computing, Inc. Other trademarks and trade names may be used in this document to refer to either the entities claiming the marks and names or their products. Dell Inc. disclaims any proprietary interest in trademarks and trade names other than its own. January 2014 Dell Hyperscale VDI – A Detailed White Paper Contents 1 Executive Summary ........................................................................ 6 2 Introduction ................................................................................. 8 3 Solution Overview ......................................................................... 11 3.1 Architecture Principles ......................................................................... 11 3.2 Logical and Physical Architecture ............................................................ 11 3.3 Workload Sizing In This Document ........................................................... 14 3.4 Persistent Desktop Solution ................................................................... 16 3.4.1 Recommended Configuration: .......................................................... 18 3.4.2 Key Features: .............................................................................. 18 3.4.3 Density Results: ........................................................................... 18 3.5 Non-Persistent Solution ........................................................................ 19 3.5.1 Recommended Configuration: .......................................................... 20 3.5.2 Key Features: .............................................................................. 20 3.5.3 Density Results: ........................................................................... 20 3.6 Shared Desktop (XenApp) Solution ........................................................... 21 3.6.1 Recommended Configuration: .......................................................... 22 3.6.2 Key Features: .............................................................................. 22 3.6.3 Density Results: ........................................................................... 23 4 Testing Approach .......................................................................... 24 4.1 Testing Approach – “Full Fat” XenDesktop Solutions – Persistent and Non-Persistent24 4.1.1 Tested Compute Configuration 1 XenDesktop with Atlantis ILIO ................. 24 4.1.2 Tested Compute Configuration 2 XenDesktop with Citrix PVS vDisks ............ 24 4.1.3 Tested Compute Configuration 3 – Baseline for XenDesktop ...................... 25 4.1.4 VMware vSphere - Configuration ...................................................... 25 4.1.5 Host Storage ............................................................................... 25 4.1.6 Networking ................................................................................. 25 4.2 Testing Approach – Shared Desktop (XenApp) Solutions .................................. 25 4.2.1 Tested Compute Configuration 4 High Spec Server for XenApp .................. 26 4.2.2 Tested Compute Configuration 5 Low Spec Server for XenApp ................... 26 4.2.3 Host Storage ............................................................................... 26 4.2.4 Networking ................................................................................. 26 5 Persistent and Non-Persistent Desktops: Testing In Detail ....................... 27 5.1 Infrastructure Components .................................................................... 27 5.1.1 Active Directory Prerequisites. ......................................................... 27 5.1.2 vSphere Prerequisites .................................................................... 27 5.1.3 XenDesktop Desktop Delivery Controller ............................................. 27 5.1.4 Citrix Web Interface ...................................................................... 27 5.1.5 Citrix License Server ..................................................................... 28 5.1.6 User Profile Implications ................................................................ 28 5.1.7 Master Image VM .......................................................................... 28 5.1.8 Desktop Pools and User Access ......................................................... 28 5.1.9 Citrix Agent and Receiver ............................................................... 28 5.1.10 Antivirus on the VMs .................................................................... 28 5.1.11 Load Generation ......................................................................... 29 5.1.12 Assessment/Monitoring Tools ......................................................... 29 5.2 Testing ............................................................................................ 30 Dell Hyperscale VDI – A Detailed White Paper 5.2.1 Testing Methodology ..................................................................... 30 5.2.2 User Workloads ............................................................................ 31 5.3 Test Results Summary .......................................................................... 32 5.4 Test Results: Details ............................................................................ 33 5.4.1 Configuration 1 Part A: XenDesktop with no IOPS burst test - Results .......... 33 5.4.2 Configuration 1 Part B: XenDesktop with IOMeter Burst Test with internal HDDs - Results ........................................................................................... 39 5.5 Configuration 2: XenDesktop Citrix vDisk Provisioning Services (No IOPs Burst Testing) – Results .................................................................................... 44 5.6 Configuration 3: Baseline XenDesktop server with 15K HDD, no storage nor provisioning optimisation ........................................................................... 53 6 Shared Desktops (XenApp) .............................................................. 58 6.1 Infrastructure Components .................................................................... 58 6.1.1 Active Directory Prerequisites .......................................................... 58 6.1.2 vSphere Prerequisites .................................................................... 58 6.1.3 Citrix Web Interface ...................................................................... 58 6.1.4 Citrix License Server ..................................................................... 58 6.1.5 User Profile Implications ................................................................ 58 6.1.6 Published Desktop Application ......................................................... 59 6.1.7 Published Application User Access ..................................................... 60 6.1.8 Citrix Receiver ............................................................................ 60 6.1.9 Antivirus on XenApp ...................................................................... 60 6.2 Load Generation ................................................................................. 61 6.2.1 Login VSI – Login Consultants ........................................................... 61 6.3 Assessment/Monitoring Tools ................................................................. 61 6.3.1 Windows Performance Monitor ......................................................... 62 6.4 Testing ............................................................................................ 62 6.4.1 Testing Methodology ..................................................................... 62 6.5 User Workloads .................................................................................. 63 6.6 Test Result Summary ........................................................................... 64 6.7 Test Results: Details ............................................................................ 65 6.7.1 Configuration 4: XenApp High Spec Server – Results ............................... 65 6.7.2 Compute Configuration 5: XenApp Low Spec Server – Results .................... 69 7 About the Author and Contributors ................................................... 73 8 Hardware and Software Components ................................................. 74 8.1 Persistent Desktop Typical Hardware Configurations ..................................... 74 8.1.1 Persistent Desktop Compute – Rack Server - Dell PowerEdge R620 With Full “lights out” iDRAC Hardware Management .................................................. 74 8.1.2 Compute – Blade Server – Dell M620 With Full “lights out” iDRAC Hardware Management ...................................................................................... 76 8.1.3 Storage For Persistent Desktops........................................................ 78 8.2 Non-Persistent Desktop and Shared Desktop Typical Hardware Configurations ..... 80 8.2.1 Compute – Rack Server - Dell PowerEdge C6220 II .................................. 80 8.3 Storage Optimization Software for Persistent, Non-Persistent and Temporarily Persistent Solutions***............................................................................... 83 ...................................................................................................... 83 Dell Hyperscale VDI – A Detailed White Paper 1 Executive Summary Desktop virtualization (VDI) – full client or shared desktops - can provide clear and quantifiable benefits to organizations of all sizes. However, many larger organizations have approached the adoption of desktop virtualization beyond 20% of the workforce with caution: deployments at this scale are perceived to be complex and there are lingering concerns about performance and cost when scaling out to 80%+ of the workforce. This paper illustrates why desktop virtualization at hyperscale in these organisations is now viable using a combination of disruptive Dell and complementing technologies because of the following four converging indicators: progression of desktop virtualization management technology; optimization of internal server storage; acceleration of thin-client deployment and wide adoption of server virtualization and cloud services. To be successful, desktop virtualization deployments must satisfy users, IT organizations and finance departments. Users are looking for the same user experience they enjoy with their current physical desktops with the mobility to access their desktops and applications from any device. IT organizations want proven and reliable solutions that simplify operations, lower deployment risks and ensure high availability and disaster recovery. The finance department wants predictable CAPEX (capital expenditure) costs that are comparable to physical PCs with tangible reductions in datacentre OPEX (operational expenditure) costs. Dell is responding to this opportunity by committing resources to create a powerful customer-centric portfolio of desktop virtualization solutions. Our hyperscale virtualization solution complements our existing portfolio of on- and off-premise virtualization solutions. Dell and Atlantis leverages their expertise in servers, storage, networking, virtual desktops, clients, software, and services to provide reduced SAN and SAN-free solutions that meet the demands of a business case to support hyperscale user volumes with optimization that reduces CAPEX and OPEX. The Dell and Atlantis Computing VDI solution is simple to deploy and manage and provides PC performance while reducing deployment cost and risk. The joint solution delivers a density of 280 virtual desktops in 2U of datacentre space, increases IOPS (input / output operations per second) per user to approximately 400 while reducing the storage needed per server. Now larger organisations can deliver on the promise of virtualization to the complete workforce with a solution the delivers the following benefits: Cost effective: saves hundreds of dollars per desktop by increasing storage efficiency and density. Atlantis ILIO optimization software leverages a solution built on Dell servers and internal SATA disks that supports 280 virtual desktops in a 2U datacentre footprint.; User experience: deliver PC performance, including faster boot/login times, near-instant application launches, and search speeds that will exceed user expectations; Scalable – large steps or smaller building blocks: proven reliable and flexible solutions that scale to tens of thousands of users without the risk of storage or network bottlenecks, while enabling high availability and disaster recovery; Dell Hyperscale VDI – A Detailed White Paper Enterprise class interoperability: the joint solution is integrated with VMware vMotion, DRS and HA where required and minimizes replication resources and recovery time; Reduced footprint: by reducing SAN requirements (for persistent desktops), eliminating SAN (for non-persistent desktops and XenApp) and leveraging a high density server form factor, the Dell solution requires a smaller data center footprint compared to a traditional solution; Reduced complexity: automated deployment and configuration that reduces mistakes; simplified architectures that lower the footprint, operational, cost and performance risks of deploying VDI. Dell Hyperscale VDI – A Detailed White Paper 2 Introduction After enjoying widespread adoption and success in the server arena, virtualization has rapidly expanded into end-user computing, from application virtualization to increasingly versatile desktop virtualization that includes personalization tools and persistent environments. Today, virtualized desktops regularly meet the expectations of users, IT organizations and finance departments for specific use cases (e.g. developer sessions, flexible working for executives, highly mobile employees) within very large enterprises, but cannot always be justified in more widespread use cases (e.g. task workers, call centres). In an era in which end users are having a greater influence on decisions, IT and finance departments are increasingly challenged by cost containment, external forces such as compliance, resource optimization, and flexibility. There is a pressing need to find a truly cost effective and flexible platform that is simple to deploy and scale, easy to control and manage, and capable of delivering a faster-than-PC-experience allowing a roll-out of virtualized desktops to a much larger proportion of the user base in large enterprises. Adoption drivers for desktop virtualization in large enterprises can be categorized into three groups (see Table 1). These drivers are constant across all industry segments, but their degree of emphasis can change based on specific use cases. For example, the financial industry may emphasize enhanced security, compliance and targeted adoption and so roll-out speed may be cautious, while academic institutes may be primarily concerned with end-user productivity, ubiquity and cost of ownership with roll-outs being in large peaks at the commencement of a new term’s intake. Table 1 – Which category of VDI adoption best matches your organisation? Category Challenges Organisational Objectives No or very little adoption of VDI Cost and complexity of deploying a new infrastructure, particular SAN technologies; Move to VDI or shared desktops to deliver: User flexibility; Risk of vendor lock-in with “block” solutions – the new legacy; User experience; BYOD (Bring Your Own Device); Adopt thin clients or re-purpose existing desktops. Increased IOPs with Windows 7 and Windows Server 2008R2; Deployment risk; Business case difficult to justify. Dell Hyperscale VDI – A Detailed White Paper Reduced complexity of image management; Security / compliance; Cost pressures; Location independence; Better power management; Deploy in large deployments or small building blocks; Category Challenges Organisational Objectives Up to 20% of users on VDI but the business case does not support the remaining 80% of the workforce Organisation very aware of the existing acquisition and running costs of existing VDI solutions; Business case difficult to justify for high volume user base; Roll-out the benefit of VDI to a wider user base whilst delivering a new business case paradigm suitable to high user volumes; Existing solution based on complex & expensive (usually SAN – storage area network) storage; Adopt thin clients or re-purpose existing desktops; This solution reduces the cost of VDI deployments and provides an improved user experience. Vendor growth units not aligned to rollout plans. Business management aware of the existing cost of VDI and will not support wider adoption; Adopt a different delivery platform to remove cost and complexity from the solution; Existing user base not cost effective; Vendor lock-in to complex and expensive solutions; Migrate from persistent to nonpersistent or shared desktops; Reduced cost of deployment; Performance not always meeting requirements or expectations; Newer technologies offer a better management platform but business case for migration is difficult to justify. Reduce operational costs associated with racks, power, cooling and management. More than 20% of users on VDI but operational costs are outstripping business benefits Adopt thin clients or re-purpose existing desktops; Due to these differing drivers and adoption levels, Dell recognises that VDI solutions that essentially replicate server virtualisation infrastructures are either over engineered for VDI, do not provide adequate performance or only meet the demands of a small percentage of the user base. Whilst many vendors are promoting complex, expensive and locked-in “one size fits all” infrastructures, Dell proposes the adoption of a more flexible architecture – one where the delivery model (and associated adoption and total ownership costs) reflect the delivery method and user profile. When operating at hyperscale user numbers in large enterprises, Dell architecture can be tailored to match the oftenconflicting priorities of rollout plans, reduced purchase costs, reduced TCO (total cost of ownership), user experience and usage profiling. This is where the Dell Hyperscale solution delivers benefits. Successful deployments start with evaluating desktop usage in an organization and identifying the appropriate target end users—workloads— identifying who will have a clear and immediate benefit from desktop virtualization, and then matching those benefits to the best fit platform to deliver against performance, operating cost and service level requirements. VDI is a software technology for desktop virtualization that hosts a desktop OS (operating system) within a virtual machine running on a hosted, centralized, or remote physical server. Dell has found that many organizations deploy VDI to only a limited percentage of the total desktop end-user base. Virtualization experts from the Dell Desktop Virtualization Solutions (DVS) Group can accomplish a strategic analysis of end users through an indepth professional assessment of their desktop environment. . Once you fully understand your user profiles, the infrastructure can be matched to suit their performance and serviceability needs and their value to the organisation. This is the Dell difference – we have a reference architecture which can meet all of these needs at the most cost effective price point – when it comes to VDI, one size does not fit all. Despite tangible benefits, desktop virtualization is struggling to break out of a small, focussed deployment arena. Complexity, user experience, performance and attendant cost often emerge as a Dell Hyperscale VDI – A Detailed White Paper highly relevant inhibitor, slowing the expansion of current VDI implementations to broader ranges of desktop end users. Some vendors are offering one-stop solutions that are best suited to high value users with robust persistence and recoverability requirements. Deploying this type of solution to high volumes of users with repeatable desktop or shared sessions does not make economic sense at such scales. Now Dell adds a new approach to our broad portfolio of products – one that complements your existing deployment, one that seeks to expand capacity, not rip and replace, and one that seeks to simplify deployment and growth that matches your user roll-out plans Customers who are seeking the following enhancements for their VDI solutions can now consider a different way of achieving their objectives: Massive Scale o 10’s of thousands of users with a wide variety of requirements across applications, security, availability and other dimensions Lower unit and operational costs o Both per seat but also in smaller increments that allow them to scale up capacity to match deployments o Management consolidation and efficiency has the potential to deliver large OPEX benefits over the lifetime of the systems versus existing end user compute models o Larger customers do not want to scrap their existing VDI and VDI management infrastructures nor introduce disruptive network components – rather they wish to augment these to maximize their existing investments. o Smaller data centre footprint Lower risk o Automation o Centralized control o Operational flow o End-point flexibility Agility o Incremental capacity easily deployed without large upfront CAPEX – both in terms of management & storage infrastructure and user host nodes o Linear scale up to over 100,000+ seats o Ability to deploy VDI or app streaming options based on user need across spectrum of service requirements User experience o Performance of a physical desktop/laptop o Near instant application launches o Faster boot/login times o Fast desktop and email search times Dell Hyperscale VDI – A Detailed White Paper 3 Solution Overview Architecture Principles 3.1 Dell has based this solution on the premise that one size does not fit all for hyperscale VDI deployments – mapping user profiles and service requirements to the correct infrastructure delivers the opportunity to grow your virtual desktop services to cover the majority of your user population. This architecture is both flexible and modular and builds from the following principles: Deploy infrastructure to match the user workload profile using the latest VDI optimized technology solutions; Deploy virtual desktop workloads to infrastructure that matches service availability to service level requirements; Build the management software (Citrix or VMware View) on robust and resilient infrastructure – service levels depend entirely upon the availability of these elements; Deploy the volume workloads to the lowest cost modular platform, delivers user service levels through the management layer, rather than the infrastructure layer; Solution can be deployed to greenfield, growth or re-platforming environments; Solution is ideal for organisations migrating from Windows XP to Windows 7 and/or Windows 8; Cost effective to deploy and manage; Deliver exceptional user experience; Modular growth and linear scalabilty to match deployment plans. The recommended solution has been identified as a result of testing a number of hardware and software combinations against the above principles. 3.2 Logical and Physical Architecture The logical architecture diagram in Figure 1 illustrates the main components of the solution. Traditional elements such as SAN storage, Citrix or VMware View management layers are detailed in other Dell White Papers available here. This paper deals with the differentiated elements of storage optimisation and modular building blocks – particularly around the scale-out compute modules that deliver the persistent, non-persistent XenDesktop VDI and shared desktop XenApp sessions. Dell Hyperscale VDI – A Detailed White Paper Figure 1 – Logical Architecture Highly resilient management layer – delivers the service level required Replicated servers deliver persistent desktop sessions – with server-based storage optimisation greatly reducing the traffic to and from the SAN storage, giving performance improvements on a smaller SAN footprint High volume low cost delivery of non-persistent and shared desktop sessions. Storage optimisation delivers high performance and low cost on server internal storage. No SAN. No Fabric for these workloads. In physical terms, Figure 2 illustrates how a complete environment would be deployed, across 2 data centres. Note that the elements which deliver the service management layer are optional to the solution for those customers who already have these elements in place, In such cases Dell will complement those deployments and grow the persistent, non-persistent and shared desktop user base in a cost effective way. If you already have highly resilient solutions in place for persistent desktops, then Dell will complement those deployments and grow the non-persistent and shared desktop capacity. If your existing VDI desktops are struggling to perform on the existing infrastructure then we offer a storage optimized solution that applies multiple storage optimization technologies, such as application analysis, IO processing and inline de-duplication to the storage volume which reduces the requirements on storage volume performance and capacity inside the server. This significantly reduces server to SAN traffic and SAN storage requirements without those timeconsuming and slow SAN de-duplication routines. Dell Hyperscale VDI – A Detailed White Paper Figure 2 – Physical Deployment ~ 60% of Users ~ 15% of Users ~ 10% of Users Highly resilient management layer – delivers the service level required – use existing management suites or deploy new from Dell Full Client Full Laptop ~ 15% of Users Thin Client Displaying Persistent VDI Thin Client Displaying Non-Persistent VDI Hosted shared desktop sessions from low cost internal storage Dell modular internal storage servers Thin Client Running Streamed Apps Tablet Phone Presentation Translation Displaying Streamed Apps App Streaming Presentation Servers Broker User state Full Client VM Persistent Full Client VM Persistent Broker Server App Streaming User State Provisioning Server VM Server VM Full Client VM Non-Persistent Hypervisor Low Cost Pod Based Architecture Session recovery provided by Broker or App Streaming Server Hypervisor Dual DC SAN Attached Resilient Server Architecture Highly resilient persistent desktops layer – use existing infrastructure or deploy new, high performance, storage optimized, smaller SAN solution from Dell SAN DATA CENTRE 1 Hypervisor Mgmt DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS DAS Compute DAS Network Pod 1 SAN Serving Apps to: thin clients; full client VM stateless; full client VM stateful; full client; mobile & home devices Full Client VM Non-Persistent DATA CENTRE 2 Compute DAS Network Pod 2 Compute DAS Network Pod n Compute DAS Network Pod 1 DATA CENTRE 1 Compute DAS Network Pod 2 App Packaging Server Physical or Virtual Resilient Modular, internal storage optimised Dell building blocks to deliver low cost nonpersistent and shared desktop sessions DAS Compute DAS Network Pod n DATA CENTRE 2 Adoption approach will be aligned to the current position of the organisation – as one of the 3 categories listed in Table 1. Table 2 below gives examples of how each category of organisation can adopt all or part of the flexible Dell architecture. Table 2 – adoption options to match starting point and objectives Category Organisational Objectives Infrastructure Deployment No or very little adoption of VDI Move to VDI or shared desktops to deliver: Deploy Dell resilient management infrastructure. user flexibility; reduced complexity of image management; Dell storage optimised resilient SAN infrastructure for small number of persistent sessions. BYOD; security / compliance; cost pressures; Initial deployments of Dell modular solution for nonpersistent and shared desktops at low cost to match initial user base. location independence; Add further Dell modules to match expansion rollout plans. better power management; deploy in large deployments or small building blocks. Adopt thin clients or re-purpose existing desktops. Dell Hyperscale VDI – A Detailed White Paper Category Organisational Objectives Infrastructure Deployment Up to 20% of users on VDI but the business case does not support the remaining 80% of the workforce Rollout the benefit of VDI to a wider user base whilst delivering to a new business case paradigm suitable to high user volumes. Add non-persistent desktop and shared desktop Dell modules to existing infrastructure. Add Dell modules over time to match rollout plans. Retain existing resilient management infrastructure OR Replace existing persistent infrastructure with Dell storage optimised solution with deduplication inside the server. Significantly smaller SAN deployment with higher performance than traditional. Deploy Dell modular optimised solutions for non-persistent VDI and shared desktop sessions, matching deployment volumes to rollout plans. Adopt thin clients or re-purpose existing desktops. More than 20% of users on VDI but operational costs are outstripping business benefits Adopt a different delivery platform to remove cost and complexity from the solution. Migrated from persistent to nonpersistent or shared desktops. Reduced cost of deployment. Adopt thin clients or re-purpose existing desktops. Implement a BYOD plan. For persistent and non-persistent desktops, Dell collaborated with Atlantis Computing to develop this solution. Atlantis ILIO uses a unique combination of storage technologies to shrink the run-time storage footprint of virtual desktops by up to 90%, allowing virtual desktops to be cost-effectively run directly from internal server disks instead of external storage. This provides far better performance than external storage. This simplified architecture supports linear scalability around server resources instead of expensive shared network resources, significantly reducing both the storage and network infrastructures required to support virtual desktop projects. Atlantis ILIO is a 100% software solution that deploys automatically and transparently without requiring any changes to existing desktop images or administrative processes or procedures. With support for all major virtual desktop platforms, it offers a solution that is broadly applicable across different hypervisors, storage, deployment types and industries. The remainder of this paper documents how Dell has created a performance optimised, low cost persistent, non-persistent desktop and shared desktop modular approach to VDI. The testing for nonpersistent desktop sessions was performed using Citrix XenDesktop on VMware vSphere with Atlantis ILIO. However, the principles equally apply to VMware’s Horizon View infrastructure, which should be considered as an option for those organisations that have an existing deployment of this technology. 3.3 Workload Sizing In This Document Typically vendors state that their servers / storage / pod etc. is capable of running hundreds or thousands of virtual desktops. The IOPs which would be available to each user session in these designs is typically much lower than that of a physical PC and will give a poor user experience. In reality, customer deployments never reach these claimed deployment levels as much more realistic, active and randomised workload testing is required to determine real world densities– as used in the Dell testing reported in this white paper. Dell testing is conducted as follows: Dell Hyperscale VDI – A Detailed White Paper Stress the environment until one of the resources (e.g. CPU utilisation, memory utilisation, storage (utilisation or capacity)) reaches its maximum; Stress the environment until the identified resource limitation above is running at 85% of maximum; Ensure that, when the server is running at the above identified 85% resource point: o Login VSI Index (a measure of the performance of the host server) remains comfortably below the point at which this value climbs steeply; o Stratusphere UX (a tool for measuring the user experience) records the user experience in the top right corner of the performance quadrants. When developing the flexible VDI infrastructure articulated in this paper, Dell worked with a number of global customers to define a realistic workload profile – one that reflects actual resource allocations for VMs in real World large enterprises. We worked with industry recognised stress testing and user experience monitoring tools. Throughout this paper, when we refer to a virtual desktop workload we are using the following parameters: Resource allocations per VM: 2 vCPU 2GB RAM 40GB HDD capacity 15 IOPs average Workload within the VM: Based on Login VSI Medium Running the randomised workload illustrated in Figure 4. Dell Hyperscale VDI – A Detailed White Paper Figure 4 – Randomised workload operating in each VM: This approach ensures that our customers can have confidence in our documented VDI session density per server. Within this paper we clearly report results of actual testing performed by Dell. In some instances we have extrapolated that data into an alternative platform of similar configuration – where we have made these extrapolations we clearly identify this. VDI session density per server in this document is based heavily on our real world testing. Wherever there are variations away from the workload and profile (e.g. changes to per VM resource allocations; different applications running within the VMs) that we have used in our testing, this will affect the density achieved in actual installations. This includes much higher user density levels where the resources allocated to each user session are lower than those used in this testing. 3.4 Persistent Desktop Solution Persistent desktops are those where the user sees exactly the same desktop experience every time they log into their session. Any changes they make to that desktop are permanent, and are visible to Dell Hyperscale VDI – A Detailed White Paper the user every time they log in. Typical use cases are application developers and senior company executives. These are the users sessions that Dell recommends are delivered on highly resilient hardware to ensure that the changes made to the desktop can be recovered in the event of the loss of a component or multiple components of the service. Within the architecture described above, Dell recommends the inclusion of Atlantis Computing’s ILIO storage optimization software within the server to significantly reduce the volume of traffic travelling to and from the SAN storage layer. Performing storage optimisation inside the server eliminates many of the performance issues associated with traditional SAN based solutions – particularly relating to latency times. It also eliminates the wait time associated with running out-of-band de-duplication routines so typical of SAN based de-duplication. Connectivity to storage can be simpler and with lower capacity whilst SAN storage capacity can also be much smaller, saving deployment and operational costs on support, monitoring and SAN software licencing. Service levels for a persistent workload are delivered by the infrastructure in combination with the management suite provided by VMware and / or Citrix. The persistent data (such as user state) is held on shared SAN storage and replicated across site so that the sessions can be recovered from the storage layer in the event of server failure, storage failure or loss of a data centre. Figure 3 – Persistent Desktop Sessions Persistence Cost Per User Density Best Good Good Dell Hyperscale VDI – A Detailed White Paper 3.4.1 Recommended Configuration: Recommended server specification: o PowerEdge R620, 1U, servers with iDRAC hardware systems management. Test results extrapolated from the identical CPU and memory specification of the C6220 platform o Atlantis ILIO storage optimization software (see section 8.3 for more details about Atlantis ILIO) VDI – PowerEdge Sandy Bridge R620 - 15K drives with Atlantis ILIO 2 x Intel Xeon Sandy Bridge E5-2680 @ 2.7 GHz 192 GB RAM H710 RAID controller 10Gb Network Card VMware vSphere ESXi 5.0 on MicroSD VDI – PowerEdge Ivy Bridge R620 - 15K drives with Atlantis ILIO 2 x Intel Xeon Ivy Bridge E5-2680v2 @ 2.8 GHz 256 GB RAM H710 RAID controller 10Gb Network Card VMware vSphere ESXi 5.0 on MicroSD Dell Compellent or Dell EqualLogic SAN storage; iSCSI or Fibre Channel SAN connectivity fabric. 3.4.2 Key Features: Atlantis ILIO Virtual Machine provides storage optimization for virtual desktops – reduced storage capacity and reduced dependency on SAN connectivity latency. Eliminates requirements for de-duplication technology and caching modules / storage tiers within the storage layer. Virtual desktop density extrapolated from the test data captured from the C6220 server platform of exactly the same CPU and memory specification. 3.4.3 Density Results: R620 Sandy Bridge Server 70 XenDesktop Persistent Users Dell Hyperscale VDI – A Detailed White Paper 3.5 Non-Persistent Solution Non-persistent VDI sessions are typically those where the users need a consistent desktop image delivered to them, perhaps with their department specific applications, but do not need in the ability to make permanent changes to that desktop. Typical use cases are call centres and process workers. Sometimes a non-persistent session can be delivered as though it was persistent (the user sees the same desktop every time they log in, so they see changes they make to that desktop over time), but the changes they make to the desktop are not of long-term value. In this case, what appears to be a persistent session is actually temporarily persistent and can therefore be delivered under the same service levels as a non-persistent session. Dell Hyperscale VDI delivers this workload on an internal storage solution, optimised for VDI workloads. Because there is no SAN storage or storage fabric within this solution, complexity is reduced, operating costs are significantly lowered and user experience is significantly improved. Without using storage or provisioning optimisation, a traditional 1 U server with internal storage will support approximately 22 users. However, the Dell Hyperscale solution supports 70 users within the same server specification by exploiting the benefits provided by Atlantis ILIO storage optimization software. Service levels for a non-persistent workload are delivered by the excellent service level management facilities provided by VDI provisioning suites such as VMware Horizon View or Citrix 7. In the event of server failure or the loss of a data centre the user session is newly provisioned on alternative hardware or location with a brief interruption. Persistence Cost Per User Density Not suitable Very Good Very Good Dell Hyperscale VDI – A Detailed White Paper 3.5.1 Recommended Configuration: Recommended server specification: o PowerEdge servers – 4 servers of 2 x Intel Xeon Sandy Bridge E5-2680, 192GB, 6 x internal 300GB 15k HDDs in 2U of rack space o Atlantis ILIO storage optimization PowerEdge C6220 Sandy Bridge Non-Persistent Server 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 256 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Card PowerEdge C6220 Ivy Bridge Non-Persistent Server 2 x Intel Xeon Sandy Bridge CPU E5-2680v2 @ 2.8 GHz 256 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Card Note: we expect an Ivy Bridge server to offer approximately 25% greater user density than the Sandy Bridge server, however test results for this configuration were not available at time of publication. 3.5.2 Key Features: Storage internal to the server – no SAN nor NAS required Atlantis ILIO VM provides storage IO optimization for virtual desktops utilising 15K SAS internal disks. Benchmarked with a Login VSI Medium workload with a 40GB virtual desktop image. 3.5.3 Density Results: Single C6220 Sandy Bridge Server Single C6000 Chassis (4 Servers in 2U) 70 Non-persistent Users 280 Non-persistent Users Dell Hyperscale VDI – A Detailed White Paper 3.6 Shared Desktop (XenApp) Solution Shared desktop sessions are typically those were the users need a consistent set of applications delivered to them, but do not need to see the same individual desktop each time they log in. Typical use cases are call centres, process workers, remote workers and Bring Your Own Device users. The Dell solution tested a single Windows Server and single XenApp instance per physical server. Compared to multiple server VMs on a physical server, savings are delivered by reduced operating system instances and the attendant patching and systems management licences. Service levels for a shared workload are delivered by the management suite provided by Citrix. In the event of server failure or the loss of a data centre the user session is newly provisioned on alternative hardware or location with a brief interruption. In some scenarios a number of virtualised XenApp server instances on one host may better meet customer application and service management requirements. Persistence Cost Per User Density Not appropriate Excellent Excellent Dell Hyperscale VDI – A Detailed White Paper 3.6.1 Recommended Configuration: Recommended hardware specification: PowerEdge C6220 Sandy Bridge XenApp Server 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 128 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Card PowerEdge C6220 Ivy Bridge XenApp Server 2 x Intel Xeon Sandy Bridge CPU E5-2680v2 @ 2.8 GHz 192 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Card Note: we expect an Ivy Bridge server to offer approximately 25% greater user density than the Sandy Bridge server, however test results for this configuration were not available at time of publication. 3.6.2 Key Features: Direct bare metal install of Windows Server – saves on operating system licences, maintenance costs and software licencing for systems management tools, anti-virus and hypervisors etc. Benchmarked with VSI Medium Login VSI workload. 2 specifications of servers were tested: o Intel Xeon Sandy Bridge E5-2680 8 core 2.7 GHz CPU with 128GB RAM o Intel Xeon Sandy Bridge E5-2620 6 core 2.0 GHz CPU with 64GB RAM Dell Hyperscale VDI – A Detailed White Paper 3.6.3 Density Results: Single High Spec Intel Sandy Bridge Server (R620 or C6220) C6000 Chassis (4 Servers in 2U) 160 Shared Desktop Sessions 640 Shared Desktop Sessions Single Lower Spec Intel Sandy Bridge Server (R620 220)or C6 C6000 Chassis (4 Servers in 2U) 90 Shared Desktop Sessions 360 Shared Desktop Sessions Dell Hyperscale VDI – A Detailed White Paper 4 Testing Approach This section of the document summarises the testing approach and results for the elements developed specifically for the Dell Hyperscale VDI solution – namely the introduction of Atlantis ILIO to provide storage and IOPs optimisation and the alternative Citrix PVS to provide a “thin provisioning” deployment of XenDesktops using vDisks. Further information on existing elements of the persistent desktop solution such as Dell Compellent storage, Dell Force10 networking and PowerEdge servers can be found at www.Dell.com or by discussion with your Dell Account Team. Testing Approach – “Full Fat” XenDesktop Solutions – Persistent and Non-Persistent 4.1 4.1.1 Tested Compute Configuration 1 XenDesktop with Atlantis ILIO PowerEdge C6220 - 15K drives with Atlantis ILIO 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 256 GB RAM RAID Controller 6 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10 10Gb Network Card Key features of this test include Atlantis ILIO storage optimization within the server XenDesktops delivered via Citrix MCS (Machine Creation Services) Persistent or non-persistent virtual desktops The Atlantis ILIO VM configuration used: 2 CPU’s, 36863MB RAM, with storage provided by a 700GB NFS Volume on 800GB VMFS from 6x 15K 300GB drives in RAID10. No memory or CPU reservations on the appliance. 4.1.2 Tested Compute Configuration 2 XenDesktop with Citrix PVS vDisks PowerEdge C6220 with Citrix PVS 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 256 GB RAM RAID Controller 6 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10 10Gb Network Card Key features of this test include Dell Hyperscale VDI – A Detailed White Paper Optimised vDisks – virtual desktops delivered by Citrix Provisioning services No storage optimization 4.1.3 Tested Compute Configuration 3 – Baseline for XenDesktop PowerEdge C2206 with XenDesktop VDI 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 8 core 256 GB RAM RAID Controller 8 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10 10Gb Network Card Key Aspects of this test of Session Host Virtual Desktop include Internal HDDs only – no storage optimization We then extrapolated the results to a 6 disk configuration to compare against the solutions that were tested with storage optimization 4.1.4 VMware vSphere - Configuration For this test it was not required to architect or construct a complex VMware vSphere backend. From a vSphere perspective it was a very simple platform – a single vCenter, with a single management ESXi Server running the “Backend” components and then the different server hardware platforms “Compute” under consideration/test. 4.1.5 Host Storage As there was no SAN or NAS under test all host level storage was defined within the server. The following storage configurations wer tested: RAID 10 15K x 6 traditional HDD configured as VMFS RAID 10 15K traditional HDD configured as VMFS with ILIO layering NFS 4.1.6 Networking As part of the testing we used Dell Force10 s4810 10Gb network switches. 4.2 Testing Approach – Shared Desktop (XenApp) Solutions This section of the document summarises the testing approach and results for the elements developed specifically for the Dell Hyperscale VDI solution – particularly, in the case of shared desktops, the use of a bare metal build as an alternative to multiple VMs running on a hypervisor. Further information on existing elements of the solution for the Citrix and VMware management layers, such as Dell Compellent storage and PowerEdge servers, can be found at www.Dell.com or by discussion with your Dell Account Team. Dell Hyperscale VDI – A Detailed White Paper 4.2.1 Tested Compute Configuration 4 High Spec Server for XenApp PowerEdge C6220 – High Spec XenApp Server 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 128 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10 10Gb Network Card Key features of this test include Single bare metal install of Windows Server 2008 R2 Single install of XenApp 6.5 within Windows Server 4.2.2 Tested Compute Configuration 5 Low Spec Server for XenApp PowerEdge C6220 Low Spec XenApp Server 2 x Intel Xeon Sandy Bridge CPU E5-2620 @ 2.7 GHz 64 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10 10Gb Network Card Key features of this test include Single bare metal install of Windows Server 2008 R2 Single install of XenApp 6.5 within Windows Server 4.2.3 Host Storage As there was no SAN or NAS under test - all host level storage was defined within the server. The test was conducted using 2 x 300GB 15k SAS HDDs within the server 4.2.4 Networking As part of the testing we used Dell Force10 s4810 10Gb network switches. Dell Hyperscale VDI – A Detailed White Paper Persistent and Non-Persistent Desktops: Testing In Detail 5 Infrastructure Components 5.1 For the persistent and non-persistent VDI desktop testing, we used the Citrix XenDesktop platform to deliver and broker the virtual desktops that would be load tested: Provisioning Services 5.6: Used to deploy and broker streamed Virtual Desktops during POC. Machine Creation Services 5.6: Used to broker persistent desktops created via script. XenApp v6.5: Used for shared desktops. Whilst the testing utilised the Citrix product suite previous testing results within Dell, that compare the 2 platforms, indicate that similar density results are expected on the host servers in a VMware View environment. 5.1.1 Active Directory Prerequisites. Citrix requires certain changes to Active Directory, in particular a service account to manage the activity between the Connection Servers, Composer and vCenter. The following items were installed and verified; OU for Virtual Desktops (This is where the Virtual Desktops will reside within Active Directory) User Account for vCenter Server (Service Account for vCenter Operations) OU for Login VSI users There are other configurations options outlined in the Citrix documentation however they fall outside of the scope of our testing and have not been included. 5.1.2 vSphere Prerequisites A base vSphere infrastructure was provided prior to deploying the Citrix components. All of the following were installed and verified. Storage Networks ESXi Hosts and vCenter. Once the prerequisites are in place the XenDesktop Installation is completed. The different Citrix components and their design considerations are outlined in the following sections of this document. 5.1.3 XenDesktop Desktop Delivery Controller Citrix XenDesktop Delivery controller manages authentication, brokering, desktop assembly and delivery. It also allows the use of different hosting infrastructure including VMware vSphere (as used in this test) or Microsoft Hyper-V. 5.1.4 Citrix Web Interface Citrix Web Interface is used to allow access to both XenDesktop (desktops) and XenApp (applications). It acts as the connection point for Citrix Receiver and is used for this purpose in this testing. Dell Hyperscale VDI – A Detailed White Paper 5.1.5 Citrix License Server Citrix License server is used as a central administration point for all Citrix infrastructure licensing in the environment. All of the various Citrix infrastructure components in the test are connect to the license server. 5.1.6 User Profile Implications For this test we used different user profiles for 2 scenarios: For the “Full Fat” persistent desktops we used user profiles. For the PVS desktops, we used a User Profile Manager v4 from Citrix to redirect user profiles to a file server on the infrastructure. Typically in production environments, Citrix User Profile Manager or an alternative user personalization tool such as AppSense, RES or Liquidware Labs would be utilised. 5.1.7 Master Image VM The next step of the deployment involved the creation of the “Master” or “Parent” Desktop VM. As the workloads are going to be tested against a Windows 7 VM, this needs to be built and optimized for use with XenDesktop. The following configuration was used for the XenDesktop VMs: Windows 7 Image Used In This Test 2 x vCPU 2GB RAM No Memory Reservations 40GB C:\ 5.1.8 Desktop Pools and User Access The type of persistent / non-persistent desktop under test is a “Full Fat” image that is provisioned via PowerCLi through VMware vCenter. Typically desktops are brokered through Citrix Machine Creation Services, with the exception of the Citrix PVS test which is based on optimized write cache Virtual desktops delivered and brokered via Citrix Provisioning Services. 5.1.9 Citrix Agent and Receiver Each of the desktops was running the Citrix Desktop Agent and within each of the Login VSI launchers we ran the Citrix Receiver software in order to run up the virtual desktop sessions. 5.1.10 Antivirus on the VMs In order to ensure the environment is as representative of a production environment as possible, AntiVirus was deployed to all servers and virtual desktops. The environment used McAfee VirusScan Enterprise 8.7i. This was managed centrally by the ePolicy Orchestrator that controls agent deployment, definition updates and policies. There are a number of exclusions that were configured to optimise performance of the On-Access scanning for the testing environment, these are listed in the table below; Dell Hyperscale VDI – A Detailed White Paper Exclusion Exclude Sub folders Read/Write Notes C:\*.* Yes Read Pagefile.sys No Read/write C:\windows\system32\spool Yes Read/write Print spooler directory – Best practice C:Program Files\Liquidware Labs\Connector ID\tntgrd.exe No Read/write Liquidware Labs Stratusphere monitoring agent service This prevents files from the C drive of the desktops being scanned since these are scanned prior to setting the drive as read only, from which point on no permanent changes will be maintained across reboots of a machine. Any files written (e.g. temporary files will be scanned on write) Table: Antivirus Exclusions These exclusions were set in a policy on the ePolicy Orchestrator server and deployed to all virtual desktops within the environment. Load Generation 5.1.11 5.1.11.1 Login VSI – Login Consultants The Login VSI tool (developed by Login Consultants) was used to generate the desktop workloads. Login VSI is a widely used tool for testing VDI environments and server-based computing / terminal services environments. It installs a standard collection of desktop application software (e.g. Microsoft Office, Internet Explorer, Adobe Acrobat Reader etc.) on each VDI desktop. It then uses a launcher system to connect a specified number of users to available desktops within the environment. Once the user is connected the workload is started via a logon script, which starts the test script once the user environment is configured by the login script. Each launcher system can launch connections to a number of 'target' machines (i.e. VDI desktops) the launchers are managed via a Microsoft Management Console which is used to configure whether the sessions are launched in parallel (sessions are created from each launcher in a round robin mechanism) or sequential (all sessions to be connected from each launcher are connected before the next launcher is used). Assessment/Monitoring Tools 5.1.12 The tools outlined below were used to monitor different aspects of the environment during testing. These tools complement the results generated by the Login VSI Login tool. Dell used these tools to analyse the host and desktop performance within the environment and therefore determine the number of desktop that can be supported by each host (or the overall bundle) in a way that closely maps to a production environment as is possible. 5.1.12.1 Liquidware Labs Stratusphere UX Stratusphere UX was used during each test run to gather data relating to User Experience and desktop performance. Data was gathered at the Host and Virtual Machine layers and reported back to a central server (Stratusphere Hub). The hub was then used to create a series of “Comma Separated Values” (.csv) reports which have then been used to generate graphs and summary tables of key information. In addition the Stratusphere Hub generates a magic quadrate style scatter plot showing the Machine and IO experience of the sessions. The Stratusphere hub was deployed onto the infrastructure network therefore its activity did not impact the servers being tested. This infrastructure network represents an existing customer environment and also includes the following services; ● Active Directory Dell Hyperscale VDI – A Detailed White Paper ● DNS ● DHCP ● Anti-Virus ● VMware vCenter Stratusphere UX calculates the User Experience by monitoring key metrics within the Virtual Desktop environment, the metrics and their thresholds are shown in the following screen shot; Figure 1: Stratusphere UX metrics Since each metric has a specified weight these results for each metric are combined to provide an overall UX score. 5.1.12.2 VMware vCenter VMware vCenter was used to gather key data (CPU, Memory, DataStore and Network usage) from each of the desktop hosts during each test run, this data was exported to .csv files for each host and then consolidated to show data from all hosts. We also captured the relevant screenshots. 5.1.12.3 Iometer Iometer is an I/O stress testing tool based on a client–server model, where one instance of the Iometer graphical user interface is managing one or more 'managers' (each one representing a separate Dynamo.exe process) which are creating I/O with one or more worker threads. Iometer performs Asynchronous I/O - accessing files or block devices (later one allowing to bypass the file system buffers). This allows I/O to be stress randomly over a period of time. 5.2 5.2.1 Testing Testing Methodology The testing undertaken by Dell was intended to provide a set of results that were as closely aligned with a production environment as possible within a lab-based environment. Multiple runs for each workload were completed to allow the team to understand and record any performance differences within the environment. The following testing scenarios were completed for each user workload: Dell Hyperscale VDI – A Detailed White Paper ● Pipe-Clean Run 1 ― The pipe-clean run is used to ensure all components within the environment are functioning correctly and results are being gathered as expected. ● Run 2,3 – Single Server, Pre-booted ― All hosts are available, all desktops are powered on and ready for users to connect, the desktops are left to idle for 20 minutes after the last desktop registers as available with the connection servers. This idle period allows VMware ESXi to have optimised memory usage through Transparent Page Sharing. Login VSI has two modes for launching user’s sessions: ● Parallel ― Sessions are launched from multiple launcher hosts in a round robin fashion; this mode is recommended by Login Consultants when running tests against multiple host servers. In parallel mode the VSI console is configured to launch a number of sessions over a specified time period (specified in seconds); ● Sequential ― Sessions are launched from each launcher host in sequence, sessions are only started from a second host once all sessions have been launched on the first host and this is repeated for each launcher host. Sequential launching is recommended by Login Consultants when testing a single desktop host server. The VSI console is configure to launch a specified number of sessions at a specified interval specified in seconds. As all of the configurations under test were Single Server tests, we used the “Sequential” launch mode exclusively. The single server test runs were configured to launch user sessions every 30 seconds, the user sessions were left to run for 15 minutes after the last user connected prior to the sessions being instructed to log out (referred to as “Active State”). 5.2.2 User Workloads The desktop under test is the Medium Login VSI image. Details of the vCPU and memory configuration for each of these workloads are defined within the Citrix Integration section of this report. The tasks undertaken by the users in the workload are outlined below: ● VSI Medium Workload ― This workload emulates a medium knowledge working using Office, IE and PDF. Once a session has been started the medium workload will repeat every 12 minutes. During each loop the response time is measured every 2 minutes. The medium workload opens up to 5 apps simultaneously. The type rate is 160 microseconds for each character. Approximately 2 minutes of idle time is included to simulate real-world users.; ― Each loop will open and use: o Outlook 2007, browse 10 messages. o Internet Explorer, one instance is left open (BBC.co.uk), one instance is browsed to Wired.com, Lonelyplanet.com and heavy flash app gettheglass.com. o Word 2007, one instance to measure response time, one instance to review and edit document. o Bullzip PDF Printer & Acrobat Reader, the word document is printed and reviewed to PDF. Excel 2007, a very large randomized sheet is opened. o o PowerPoint 2007, a presentation is reviewed and edited. 7-zip: using the command line version the output of the session is zipped. o Dell Hyperscale VDI – A Detailed White Paper Test Results Summary 5.3 The tested configurations, density of sessions at 85% of the constrained resource and the constrained resource are summarised below: Configuration Single Server Density IOPs per User Resource Constraint Optimization Config 1 70 Up to 400 CPU @ 85% Atlantis ILIO & 15k internal HDD Config 2 70 ~ 13 CPU @ 85% Citrix vDisks (IOPs not stress tested on this solution) Config 3 22 ~ 50 (baseline) HDD Capacity None (IOPs not stress tested on this solution) With the Login VSI Medium workload, including 2 vCPUs and 40GB HDD, we saw 2 different resource constraints when testing without any form of reduced storage provisioning (Citrix PVS vDisks) nor storage optimisation (Atlantis ILIO): CPU was the limiting factor across two configurations. Within the tests, we regard the CPU as constrained between 85% and 90% peak average. This allows for bursts of CPU activity without compromising the platform; Disk capacity of the internal disk solutions. Using reduced storage provisioning (Citrix PVS vDisks) or storage optimisation (Atlantis ILIO) resolved this limitation. We stress tested the Atlantis ILIO solution for IOPs and achieved an excellent performance. We did not stress test Citrix PVS vDisks for IOPs – this solution would continue to be constrained by the low level of IOPs available from the non-optimised internal HDD storage. At no point in any of the tests were we at risk of a memory constraint. Also, as we had full 10Gb connectivity across the platform and test harness - no network constraints were encountered. This is evident in the all of the test results. Atlantis ILIO was part of several configurations under test. From our testing we observed the following when Atlantis ILIO was used: For the 70 persistent desktops the storage utilised on the internal HDDs was reduced from 2.8TB to 40GB; With IOMeter testing we observed peaks of 20,000 IOPS hitting the Atlantis ILIO NFS datastore. On the backing disk, this was seen to be well under 1,000 IOPS. The Atlantis ILLIO VM is deployed via OVF and included deployment services which help automate installation and configuration. The following results are a taken from a representative test run for each test type on each of the configurations. Dell Hyperscale VDI – A Detailed White Paper Test Results: Details 5.4 5.4.1 Configuration 1 Part A: XenDesktop with no IOPS burst test - Results The first configuration under test was the PowerEdge server using Intel Xeon Sandy Bridge processors with Standard 15K SAS disks optimised with Atlantis ILIO Version 3.2.0.5. This was the configuration of the Server: PowerEdge C6220 - 15K drives with Atlantis ILIO 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 256 GB RAM RAID Controller 6 x 300GB 6GBps 15k SAS 2.5’ Hard Disks – RAID 10 10Gb Network Key features of this test included: Full fat desktops brokered via Citrix MCS (Machine Creation Services); Atlantis ILIO storage optimization. Atlantis ILIO v3.2.0.5 Virtual Machine 2 x vCPU (No Reservation) 36GB RAM (No Reservation) 700GB NFS Volume (onto 800GB VMFS-5) To prove the storage optimization that Atlantis ILIO provided, 5 separate tests were run, a pipeclean test first, then 4 tests to assess performance. Of the performance related tests, we aimed to achieve optimal CPU and memory utilisation, and this was completed on the final test of 70 persistent virtual desktops. The results below are from the recommended configuration of 70 desktops and using Atlantis ILIO optmisation. Significant storage optimisation was provided by the Atlantis ILIO, with only 40 GB of storage used by the 70 desktops under test. The level of de-duplication may not always be this effective as virtual desktop sessions vary by user profile. Also for the test an excellent subjective user experience was reported from observing the VSI sessions on the Login VSI console. VSIMax was not reached during the Login VSI run. It is also worth noting that much higher VM densities would be achieved where each VM is allocated lower resources for CPU, memory and / or HDD capacity. Dell Hyperscale VDI – A Detailed White Paper 5.4.1.1 Desktop Host Performance – CPU We can see here that for the 70 user test at the peak of ”Active State” for the VSI test we running at around 85% CPU. This is our ideal level of this metric for this test. Without Atlantis ILIO the density of users was constrained by HDD capacity to 22 users. 5.4.1.2 Desktop Host Performance – Memory Consumed RAM peaked at under 150MB, which is less than 85% of the recommended 192MB configuration. Dell Hyperscale VDI – A Detailed White Paper 5.4.1.3 Desktop Host Performance – Disk Latency NFS No issue with NFS latency which remains around below 10 milliseconds during the normal session run time. Latency VMFS Dell Hyperscale VDI – A Detailed White Paper No issues with VMFS latency which remains below 15 milliseconds during the normal run time. IOPS NFS Observed IOPs of approximately 900 during normal run time (approx 13 per VM). IOPS VMFS IOPs of approximately 800 observed on VMFS disks – well within the disk performance parameters. Dell Hyperscale VDI – A Detailed White Paper 5.4.1.4 Desktop Host Performance – Network Network traffic peaking at around 3Gbps proving the benefit of a 10Gbps connection. Dell Hyperscale VDI – A Detailed White Paper 5.4.1.5 End User Experience – Stratusphere UX Stratusphere UX showing all user experience to be in the top right hand quadrant – indicating an excellent performance, as seen from the user perspective. 5.4.1.6 Login VSI Dell Hyperscale VDI – A Detailed White Paper Login VSI gradually increasing as users are logged into their virtual desktop sessions. The most important element of this graph is that it does not display an hockey stick curve. An hockey stick would indicate a problem with resource utilisation on the host server. Also, VSIMax was not approached during the test. Configuration 1 Part B: XenDesktop with IOMeter Burst Test with internal HDDs - Results 5.4.2 We tested configuration 1 with an Iometer “Burst Test”. The burst test ran inside one of the 70 VMs running on the host as the VSI Login test was executing and stresses the disk IO of the host. Here is the outline instruction on how we executed the Iometer burst test: Install Iometer into one of the VMs; Load up icf file containing the burst test; On the disk targets tab select C: drive and increase number of outstanding IOs to 30. On the access specification tab, add all of the access specifications except idle. The order was not changed to ensure that the “RUN before testing” is first. Dell Hyperscale VDI – A Detailed White Paper The burst test was started just after the VSI Login test start. As the burst test took 3 hours to complete we made the decision to start it immediately. During the test we observed CPU Max of approx. 93% during active state which supports Dell’s choice to publish the virtual desktop density at 85% of the constrained resource – here we can see that the host is utilising part of the CPU headroom we have allowed for unusual peak activity such as this stress test. 5.4.2.1 Burst Test Desktop Host Performance – CPU Here we see the CPU peaking at around 93%. Dell recommends virtual desktop density (in this case 70 user sessions) at 85% of the constrained resource. Here we see the ability of the host platform to cope with unusual peaks in workloads such as this IOPs stress test. Dell Hyperscale VDI – A Detailed White Paper 5.4.2.2 Burst Test - Desktop Host Performance – Memory The red line is memory allocated by the hypervisor. The blue line is memory consumed by the host. This graph demonstrates the consumed memory running at 40GB during the steady state – well within the server’s capacity. The peak shown during VM start up and login in time at the start of the graph is also well within Dell’s recommended configuration of 192GB. 5.4.2.3 Burst Test Desktop Host Performance – Disk NFS Latency Disk latency as seen by the hypervisor is generally below 10 milliseconds which will be delivering an excellent user experience, even during this extreme IOPs test. Dell Hyperscale VDI – A Detailed White Paper VMFS Latency Disk latency as seen at the disk is around 5 milliseconds – again, this will be delivering an excellent user experience, even during this extreme IOPs test. NFS IOPS Here we see the extreme IOPs being fed to the Atlantis ILIO virtual machine – peaking at around 20,000 reads and 18,000 writes. Dell Hyperscale VDI – A Detailed White Paper VMFS IOPS Here we see the IOPs being fed by the Atlantis ILIO virtual machine to the internal HDDs in the server – demonstrating the effectiveness of the storage optimisation provided by ILIO. 5.4.2.4 Burst Test - Desktop Host Performance – Network Again we see no stress on the 10GbE network connectivity Dell Hyperscale VDI – A Detailed White Paper 5.4.2.5 End User Experience – Stratusphere UX Stratusphere UX showing all user experience to be in the top right hand quadrant – indicating an excellent performance, as seen from the user perspective, even when we have stressed the host server with an extreme level of IOPs. Configuration 2: XenDesktop Citrix vDisk Provisioning Services (No IOPs Burst Testing) – Results 5.5 Citrix Provisioning Services provisions an optimized virtual Desktop which is streamed from a master image. All that is written to the local storage is the delta file/vDisk. We used an Intel Xeon Sandy Bridge equipped PowerEdge server with no storage optimizations and with the PVS provisioning technique defined above. Dell Hyperscale VDI – A Detailed White Paper PowerEdge C2206 with PVS 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 256 GB RAM RAID Controller 6 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10 10Gb Network Key features of this test include: Optimised vDisks – virtual desktops delivered by Citrix Provisioning services; No storage optimization software. As per the other tests, we are using the Login VSI Medium Windows 7 workload specification. However as it is a non-persistent desktop top utilising vdisk deltas, it will not consume 40GB on the underlying disk per virtual desktop but will consume around 70GB of disk for write caching. In regards to the Citrix Provisioning Server we used, it had the following specification: 2 x vCPU, 24GB RAM, 100GB VMDK D: For the purposes of this test we also recorded the performance of the PVS Server. Using PVS, we overcame the storage capacity limitations of the internal HDD storage, as the results show. We were able to support 70 virtual desktops at 85% CPU peak average utilisation. However, this would still be limited in its ability to provide IOPs to the virtual desktops. We did not perform the IOPs stress testing for this configuration. As Atlantis ILIO has the advantage of offering many more IOPs per desktop in addition to the reduced disk capacity consumption and many organisations are not ready to move to Citrix vDisks, the Dell recommendation in this paper is to utilise Atlantis ILIO on all persistent and nonpersistent host servers. Atlantis ILIO is also an option to increase IOPs performance in a PVS solution. Dell Hyperscale VDI – A Detailed White Paper 5.5.1.1 Desktop Host Performance – CPU As per the tests we ran with the persistent desktops, we saw practically identical CPU consumption for the PVS test. Dell Hyperscale VDI – A Detailed White Paper 5.5.1.2 Desktop Host Performance – Memory Memory consumption of 75GB is well within the specification of the server. Dell Hyperscale VDI – A Detailed White Paper 5.5.1.3 Desktop Host Performance – Disk IOPS Here we see the disk IOPs operating at an average of 7.5 per second, not stressing the host. Latency Disk latency peaking at 6 milliseconds will give an excellent user experience. Dell Hyperscale VDI – A Detailed White Paper 5.5.1.4 Desktop Host Performance – Network Again we see the network connectivity being within the server’s specification. Dell Hyperscale VDI – A Detailed White Paper 5.5.1.5 End User Experience – Stratusphere UX Stratusphere UX showing all user experience to be in the top right hand quadrant – indicating an excellent performance, as seen from the user perspective. 5.5.1.6 Login VSI Dell Hyperscale VDI – A Detailed White Paper Again we see the Login VSI Index Average climbing gently as users are logged into the virtual desktops. The important aspect of this measure is that it does not “hockey stick” as the server reaches the 70 desktop sessions – thus deomstrating an excellent user experience. 5.5.1.7 PVS Provisioning Server Graphs CPU Here we see the provisioning server CPU working hard as virtual desktops are provisioned but then reducing over time as the desktops move into steady state running. Dell Hyperscale VDI – A Detailed White Paper Memory Here we see the provisioning server memory working hard as virtual desktops are provisioned but then reducing over time as the desktops move into steady state running. Datastore Here we see read requests being busy during creation and steady state running. Dell Hyperscale VDI – A Detailed White Paper Network Here we see the benefit of a 10GbE connection as network traffic peaks at 8Gbps Configuration 3: Baseline XenDesktop server with 15K HDD, no storage nor provisioning optimisation 5.6 This configuration was tested to provide a “baseline” where we could gauge performance of the persistent and non-persistent virtual desktops running on standard 15K SAS drives with no storage optimizations. PowerEdge C6220 Server with 15k HDD Internal Storage 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 256 GB RAM RAID Controller 8 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 10 10Gb Network Card Dell Hyperscale VDI – A Detailed White Paper Key features of this test include: 8x 300GB 15k SAS HDD; Full fat virtual desktops brokered via Citrix MCS (Machine Creation Services). In total we ran 3 tests against this hardware, each with 25 desktops. 25 desktops was based on the capacity constraints of the internal HDD storage. The VMFS volume was 1.1TB in size – 25 desktops at 40GB each accounted for 1TB of space on the volume. It is important to note that due to the disk capacity constraint we were not able to drive CPU or memory stress levels on this platform. From this test we extrapolated that it would be possible run 20-22 virtual desktops on the server with a disk configuration of 6 x 15K drives with no storage optimization. This demonstrates the effectiveness of using Atlantis ILIO storage optimisation or Citrix PVS “thin provisioning” to deliver the required density on this form factor. Atlantis ILIO also increases the IOPs available to the virtual desktops to ensure an excellent user experience. The subjective user experience was excellent. 5.6.1.1 Desktop Host Performance – CPU CPU Performance not an issue, approx 35% CPU utilization at peak. Dell Hyperscale VDI – A Detailed White Paper 5.6.1.2 Desktop Host Performance – Memory Consumed memory of 56GB with Active Memory during active state around 25GB. 5.6.1.3 Desktop Host Performance – Disk Latency Disk latency of 4.5 milliseconds will give an excellent user experience. Dell Hyperscale VDI – A Detailed White Paper IOPS IOPs are not stressing the server. 5.6.1.4 Desktop Host Performance – Network Due to the low number of virtual desktops running in this configuration, the network connectivity was not stressed. Dell Hyperscale VDI – A Detailed White Paper 5.6.1.5 End User Experience – Stratusphere UX As expected, with such a low density of virtual desktops on the host, the user experience reported is in the top right hand corner, indicating and excellent result. However, we were not stress testing IOPs during this test which could have given a different user experience result. 5.6.1.6 Login VSI Login VSI Index Average showing no performance issues. Dell Hyperscale VDI – A Detailed White Paper 6 Shared Desktops (XenApp) The objective of these tests was to identify the density of XenApp v6.5 shared desktop user sessions that can be achieved on the platform under test. Infrastructure Components 6.1 6.1.1 Active Directory Prerequisites Citrix requires certain changes to Active Directory, in particular a service account to manage the activity between the Connection Servers, Composer and vCenter. The following items need to be configured and are detailed in the configuration workbook: OU for Virtual Desktops (This is where the Virtual Desktops will reside within Active Directory); o We added an additional child OU to house XenApp servers. User Account for vCenter Server (Service Account for vCenter Operations); OU for Login VSI users. There are other configurations options outlined in the Citrix documentation however they fall outside of the scope of our testing and have not been included. 6.1.2 vSphere Prerequisites vSphere infrastructure was provided to host the Citrix management servers. vSphere was not a component on the XenApp servers themselves. All of the following were installed and verified: Storage; Networks; ESXi Hosts and vCenter. Once the prerequisites are in place the XenDesktop Installation can be started. The different Citrix components, and their design considerations are outlined in the following sections of this document. 6.1.3 Citrix Web Interface Citrix Web Interface is used to allow access to both XenDesktop (desktops) and XenApp (applications). It acts as the connection point for Citrix Receiver and is used for this purpose in the POC. 6.1.4 Citrix License Server Citrix License server is used as a central administration point for Citrix infrastructure licensing in the environment. All of the various Citrix infrastructure components in the POC connect to the license server. 6.1.5 User Profile Implications For the Session Hosted XenApp desktops, we used a User Profile Manager v4 from Citrix to redirect user profiles to a file server on the infrastructure. Typically in production environments you would use Citrix User Profile Manager or another user personalization tool such as AppSense, RES or Liquidware Labs. Dell Hyperscale VDI – A Detailed White Paper 6.1.6 Published Desktop Application The next step of the deployment involved the creation of the Session Hosted Published Desktop. As we have 2 separate desktops under which the workloads are going to be tested against, we created 2 separate published application desktops, each of which was pointing at either the high specification or low specification server. As this was a XenApp test we did not have to define hardware settings at the VM level as per XenDesktop. These are the settings used for both the XAHighDesktop (High Specification Server) and XALowDesktop (Low Specification Server). Dell Hyperscale VDI – A Detailed White Paper The Login VSI Medium workload was then tested against each of these Published Application Desktops. 6.1.7 Published Application User Access For the purpose of the tests we simply provided our “Domain Users” group access to the published applications. 6.1.8 Citrix Receiver Each of the Login VSI launchers we ran the Citrix Receiver software in order to run up the published application. 6.1.9 Antivirus on XenApp In order to ensure the environment is as representative of a production environment as possible AntiVirus was installed on each XenApp Server. The environment used McAfee VirusScan Enterprise 8.8. This was managed centrally by the ePolicy Orchestrator which controlled agent deployment, definition updates and policies. As per Citrix best practice, there are a number of exclusions that were configured to optimise performance of the On-Access scanning, these are listed in the table below: Dell Hyperscale VDI – A Detailed White Paper Exclusion Exclude Sub folders Read/Write Notes C:\*.* Yes Read Pagefile.sys No Read/write C:\windows\system32\spool Yes Read/write This prevents files from the C drive of the desktops being scanned since these are scanned prior to setting the drive as read only, from which point on no permanent changes will be maintained across reboots of a machine. Any files written (e.g. temporary files will be scanned on write) Print spooler directory – Best practice Table 1: Antivirus Exclusions 6.2 6.2.1 Load Generation Login VSI – Login Consultants The Login VSI tool (developed by Login Consultants) was used to generate the desktop workloads. This is a widely-used tool for testing VDI environments and server-based computing / terminal services environments. It installs a standard collection of desktop application software (e.g. Microsoft Office, Adobe Acrobat Reader etc.) on each VDI desktop. It then uses launcher systems to connect a specified number of users to available desktops within the environment. Once the user is connected the workload is started via a logon script which starts the test script once the user environment is configured by the login script. Each launcher system can launch connections to a number of 'target' machines (i.e. VDI desktops) the launchers are managed via a Microsoft Management Console which is used to configure where the sessions are launched in parallel (sessions are created from each launcher in a round robin mechanism) or sequential (all sessions to be connected from each launcher are connected before the next launcher is used). 6.3 Assessment/Monitoring Tools The tools outlined below were used to monitor different aspects of the environment during testing to understand the host and desktop performance within the environment and therefore determine the Dell Hyperscale VDI – A Detailed White Paper number of desktop that can be supported by each host in a way that maps as closely to a production environment as possible. T Login VSI Max Graphs/Data has also been captured. 6.3.1 Windows Performance Monitor For the purpose of the testing we captured key metrics on each of the XenApp Servers using Windows Performance Monitor. A data collector was configured and setup to capture the following metrics at a one second interval and then output them to a CSV file. The following metrics were captured: 6.4 6.4.1 Testing Testing Methodology The testing undertaken was intended to provide a set of results that were as closely aligned with a production environment as is possible within a lab based environment. In addition multiple runs for each workload were completed to allow the team to understand and record any performance differences within the environment. The following testing scenarios were completed for each user workload: ● Pipe-Clean Run 1 ― The pipe-clean run is used to ensure all components within the environment are functioning correctly and results are being gathered as expected; ● Run 2,3 – Single Server, Published Application Desktop The XenApp server is rebooted and once the server is back online and ready to accept users sessions the test run is launched from Login VSI. Login VSI has two modes for launching user’s sessions: ― Dell Hyperscale VDI – A Detailed White Paper ● Parallel ― Sessions are launched from multiple launcher hosts in a round robin fashion; this mode is recommended by Login Consultants when running tests against multiple host servers. In parallel mode the VSI console is configured to launch a number of sessions over a specified time period (specified in seconds); ● Sequential Sessions are launched from each launcher host in sequence, sessions are only started from a second host once all sessions have been launched on the first host, this is repeated for each launcher host. Sequential launching is recommended by Login Consultants when testing a single desktop host server. The VSI console is configure to launch a specified number of session at a specified interval specified in seconds. As all of the configurations under test were Single Server tests, we used the “Sequential” launch mode exclusively. The single server test runs were configured to launch user sessions every 30 seconds, the user sessions were left to run for 15 minutes after the last user connected prior to the sessions being instructed to log out (referred to as “Active State”). ― 6.5 User Workloads For this POC – the desktop under test is the Login VSI Medium workload which was launched against the Published Applications running on both XenApp Servers. Details of the vCPU and memory configuration for each of these workloads are defined within the Citrix Integration section of this report. The tasks undertaken by the users in the workload are outlined below; ● Login VSI Medium Workload ― This workload emulates a medium knowledge working using Office, IE and PDF. Once a session has been started the medium workload will repeat every 12 minutes. During each loop the response time is measured every 2 minutes. The medium workload opens up to 5 apps simultaneously. The type rate is 160 ms for each character. Approximately 2 minutes of idle time is included to simulate real-world users. ― Each loop will open and use: o Outlook 2007, browse 10 messages. o Internet Explorer, one instance is left open (BBC.co.uk), one instance is browsed to Wired.com, Lonelyplanet.com and heavy flash app gettheglass.com. o o o o o Word 2007, one instance to measure response time, one instance to review and edit document. Bullzip PDF Printer & Acrobat Reader, the word document is printed and reviewed to PDF. Excel 2007, a very large randomized sheet is opened. PowerPoint 2007, a presentation is reviewed and edited. 7-zip: using the command line version the output of the session is zipped. Dell Hyperscale VDI – A Detailed White Paper 6.6 Test Result Summary As outlined in the Executive Summary, from the testing we achieved the following server densities: Configuration Single Server Shared Desktop User Density Resource Constraint CPU Memory Config 4 “High Spec” 160 CPU 2 x Intel Xeon CPU E5-2680 @ 2.7 GHz 8 core 256GB Config 5 90 CPU 2 x Intel Xeon CPU E5-2620 @ 2.0 GHz 6 core 128GB “Lower Spec” With XenApp testing we were expecting the CPU to be the constraining resource. Therefore we had decided to test two different configurations of the server, with the customer to decide which would be the most cost effective option for them, taking into account purchase price, power consumption, licencing and rack density parameters. With CPU utilization, we targeted rough utilization of 85% as the threshold (85% being the optimal threshold defined in Dell across all metrics to allow for “burst” activity to 100%). Given that XenApp in particular can be “bursty” we arrived at 160 desktops for the “high” specification server. It was noted that at 160 users CPU was typically between 80 and 90 % and that it would occasionally burst to 100%. For the “Low” Specification server we hit out 85% metric at 90 users. In regards to memory utilization, we had excessive amounts of memory in both platforms. The “High” Specification Server could easily run with 128 GB RAM as we saw around 115 GB utilized with the 160 users. On the lower specification server we saw similar results, and as a result 64GB of RAM would be more than adequate to run the platform. As we had full 10Gb connectivity across the platform and test harness, network constraints were unlikely to be an issue. This is evident in the all of the test results. In relation to disk performance we did not have a scoped requirement, given that for most XenApp deployments user and personalization is key it would be more pertinent to examine data storage on the backend ie where user data is written to. We may organize a follow up exercise to further analyse storage impact in the environment. However within the test performed there was nothing to suggest we would hit a storage constraint. We performed a subjective user test with a separate login to gauge performance. It was noted as excellent throughout. We used a Dell Wyse X90M7 thin client running WES 7 and the latest Citrix receiver. We used a HD video on YouTube and launched various office applications, and throughout observed performance could not be faulted. Finally we captured Login VSI VSIMAX data and graphs. In summary, the testing proved the PowerEdge with Intel Xeon Sandy Bridge processors server as an excellent option for bare metal XenApp deployments. As a result of the testing we would recommend the following specification for a XenApp bare metal install: Dell Hyperscale VDI – A Detailed White Paper PowerEdge C6220 Server – Recommended Specification 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 128 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Card It should be noted that we did not make any direct comparison of a bare metal installation against the density that could be achieved with multiple virtual servers installations as much of this has been tested elsewhere. We recommend that customers work with Dell on proof of concepts to ensure that the correct XenApp hosting environment is designed specific to your application environment and service requirements. In situations where a virtual environment may be beneficial, Atlantis may offer additional performance and / or density results which were not explored as part of this project. The following results are a taken from a single representative test run for each test type on each of the different configurations. Test Results: Details 6.7 6.7.1 Configuration 4: XenApp High Spec Server – Results PowerEdge C6220 Server – High Specification XAHIGHDesktop 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 8 core 256 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Key features of this test included: XenApp 6.5 on Windows Server 2008R2; Login VSI Medium Workload; High end Intel E5-2680 processor; 160 shared desktop users. Dell Hyperscale VDI – A Detailed White Paper 6.7.1.1 High Spec Server Performance – CPU \\DVSXAHIGH\Processor(_Total)\% Processor Time 120 100 80 60 \\DVSXAHIGH\Processor(_Total )\% Processor Time 40 20 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 0 For this test we observed typical values at peak average of around 85 to 90% CPU with burst activity to 100%, typical enough of XenApp performance. At these values, subjective performance was excellent. 6.7.1.2 High Spec Server Performance – Memory \\DVSXAHIGH\Memory\% Committed Bytes In Use 45 40 35 30 25 20 \\DVSXAHIGH\Memory\% Committed Bytes In Use 15 10 0 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 5 We can see here that we did not exceed 45% of the 256GB RAM within the server so we specify the recommended server with 128GB RAM. Dell Hyperscale VDI – A Detailed White Paper 06/27/2013 09:14:16.994 06/27/2013 09:21:04.055 06/27/2013 09:27:51.085 06/27/2013 09:34:38.094 06/27/2013 09:41:25.085 06/27/2013 09:48:12.117 06/27/2013 09:54:59.136 06/27/2013 10:01:46.164 06/27/2013 10:08:33.179 06/27/2013 10:15:20.196 06/27/2013 10:22:07.203 06/27/2013 10:28:54.229 06/27/2013 10:35:41.228 06/27/2013 10:42:28.211 06/27/2013 10:49:15.215 06/27/2013 10:56:02.265 06/27/2013 11:02:49.283 06/27/2013 11:09:36.307 06/27/2013 11:16:23.319 06/27/2013 11:23:10.343 06/27/2013 11:29:57.378 06/27/2013 09:14:16.994 06/27/2013 09:21:04.055 06/27/2013 09:27:51.085 06/27/2013 09:34:38.094 06/27/2013 09:41:25.085 06/27/2013 09:48:12.117 06/27/2013 09:54:59.136 06/27/2013 10:01:46.164 06/27/2013 10:08:33.179 06/27/2013 10:15:20.196 06/27/2013 10:22:07.203 06/27/2013 10:28:54.229 06/27/2013 10:35:41.228 06/27/2013 10:42:28.211 06/27/2013 10:49:15.215 06/27/2013 10:56:02.265 06/27/2013 11:02:49.283 06/27/2013 11:09:36.307 06/27/2013 11:16:23.319 06/27/2013 11:23:10.343 06/27/2013 11:29:57.378 6.7.1.3 High Spec Server Desktop Host Performance – Disk \\DVSXAHIGH\PhysicalDisk(_Total)\Disk Transfers/sec 2500 2000 1500 1000 500 0 \\DVSXAHIGH\PhysicalDisk(_To tal)\Disk Transfers/sec \\DVSXAHIGH\PhysicalDisk(_Total)\Avg. Disk Write Queue Length 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 Dell Hyperscale VDI – A Detailed White Paper \\DVSXAHIGH\PhysicalDisk(_To tal)\Avg. Disk Write Queue Length Disk performance would be completely dependent on the setup of user profiles and data management, in the tests we used Citrix Profile Manager. As evidenced by the queue lengths we did not run into any issues with storage. 6.7.1.4 High Spec Server Desktop Host Performance – Network \\DVSXAHIGH\Network Interface(Intel[R] 82599 10 Gigabit Dual Port Network Connection)\Bytes Total/sec 14000000 12000000 10000000 8000000 \\DVSXAHIGH\Network Interface(Intel[R] 82599 10 Gigabit Dual Port Network Connection)\Bytes Total/sec 6000000 4000000 0 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 06/27/2013… 2000000 Network utilisation peaked at around 1.2Gbps. As we were running the server using the 10Gbps network card, network performance was not an issue. We would recommend 10Gbps networking hyperscale deployment going into the tens of thousands of users. 6.7.1.5 High Spec Server Login VSI Dell Hyperscale VDI – A Detailed White Paper For this test we did not reach VSIMax. As we had established a resource constraint at 85 to 90 % CPU this matches the Dell approach to the optimal density of desktops. 6.7.2 Compute Configuration 5: XenApp Low Spec Server – Results The second configuration under test was the PowerEdge server with a lower specification of Intel Xeon Sandy Bridge processors, chosen to evaluate a lower cost and lower user density option. PowerEdge C6220 Server – lower spec - XALOWDESKTOP 2 x Intel Xeon CPU E5-2620 @ 2.0 GHz 6 core 128 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Card Key features of this test include: Intel E5-2620 6 core CPU @ 2.0GHz; Login VSI Medium Workload; Identical bare metal XenApp installation as per “High” Specification server; 90 shared desktop users. 6.7.2.1 Low Spec Server Desktop Host Performance – CPU \\DVSXALOW\Processor(_Total)\% Processor Time 120 100 80 60 \\DVSXALOW\Processor(_Total) \% Processor Time 40 0 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 20 Dell Hyperscale VDI – A Detailed White Paper As per the test on the high specification server, CPU was the resource constraint, as anticipated. Once we had reached a point of where the CPU was running consistently between 85% and 90% we did not log on any additional sessions. We had 90 users connected and running the VSI test at this level of CPU utilisation. 6.7.2.2 Low Spec Server Desktop Host Performance – Memory \\DVSXALOW\Memory\% Committed Bytes In Use 50 45 40 35 30 25 20 15 10 5 0 06/28/2013 09:19:56.441 06/28/2013 09:24:02.317 06/28/2013 09:28:08.282 06/28/2013 09:32:14.275 06/28/2013 09:36:20.282 06/28/2013 09:40:26.292 06/28/2013 09:44:32.281 06/28/2013 09:48:38.268 06/28/2013 09:52:44.251 06/28/2013 09:56:50.241 06/28/2013 10:00:56.220 06/28/2013 10:05:02.211 06/28/2013 10:09:08.246 06/28/2013 10:13:14.256 06/28/2013 10:17:20.271 06/28/2013 10:21:26.283 06/28/2013 10:25:32.286 06/28/2013 10:29:38.300 06/28/2013 10:33:44.308 06/28/2013 10:37:50.329 06/28/2013 10:41:56.319 06/28/2013 10:46:02.307 06/28/2013 10:50:08.319 \\DVSXALOW\Memory\% Committed Bytes In Use Similar to the high specification server we used approximately 45% of the 128GB RAM within the server. We recommend 64GB RAM for the lower specification server. Dell Hyperscale VDI – A Detailed White Paper 06/28/2013 09:19:57.430 06/28/2013 09:24:55.305 06/28/2013 09:29:53.266 06/28/2013 09:34:51.274 06/28/2013 09:39:49.286 06/28/2013 09:44:47.278 06/28/2013 09:49:45.262 06/28/2013 09:54:43.248 06/28/2013 09:59:41.221 06/28/2013 10:04:39.212 06/28/2013 10:09:37.254 06/28/2013 10:14:35.264 06/28/2013 10:19:33.280 06/28/2013 10:24:31.291 06/28/2013 10:29:29.295 06/28/2013 10:34:27.315 06/28/2013 10:39:25.323 06/28/2013 10:44:23.306 06/28/2013 10:49:21.319 0 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… 06/28/2013… Low Spec Server Desktop Host Performance – Disk \\DVSXALOW\PhysicalDisk(_Total)\Disk Write Bytes/sec 35000000 30000000 25000000 20000000 15000000 10000000 \\DVSXALOW\PhysicalDisk(_Tot al)\Disk Write Bytes/sec 5000000 \\DVSXALOW\PhysicalDisk(_Total)\Disk Read Bytes/sec 25000000 20000000 15000000 10000000 5000000 0 \\DVSXALOW\PhysicalDisk(_Tot al)\Disk Read Bytes/sec We did not have any storage concerns for the scenario under test. Dell Hyperscale VDI – A Detailed White Paper 06/28/2013 09:19:57.430 06/28/2013 09:24:40.316 06/28/2013 09:29:23.266 06/28/2013 09:34:06.275 06/28/2013 09:38:49.279 06/28/2013 09:43:32.281 06/28/2013 09:48:15.266 06/28/2013 09:52:58.254 06/28/2013 09:57:41.230 06/28/2013 10:02:24.222 06/28/2013 10:07:07.233 06/28/2013 10:11:50.261 06/28/2013 10:16:33.267 06/28/2013 10:21:16.271 06/28/2013 10:25:59.286 06/28/2013 10:30:42.311 06/28/2013 10:35:25.309 06/28/2013 10:40:08.323 06/28/2013 10:44:51.313 06/28/2013 10:49:34.319 6.7.2.3 Low Spec Server Desktop Host Performance – Network \\DVSXALOW\Network Interface(Intel[R] 82599 10 Gigabit Dual Port Network Connection)\Bytes Total/sec 9000000 8000000 7000000 6000000 5000000 4000000 3000000 2000000 1000000 0 Network performance not an issue. Dell Hyperscale VDI – A Detailed White Paper \\DVSXALOW\Network Interface(Intel[R] 82599 10 Gigabit Dual Port Network Connection)\Bytes Total/sec 7 About the Author and Contributors Neil Hallworth is the UK Enterprise Data Centre Strategist for Dell’s Global Enterprises market segment. Neil has over 20 years experience in the IT industry including developer, operational, project management, audit and architectural roles. 14 years in the banking industry culminated in leading the x86 server infrastructure architecture team for a major UK retail bank where Neil was responsible for 5 year strategy across all infrastructure platforms and 3 year investment planning & ownership of direction & architectural assets for the bank’s x86 server platforms including hardware, virtualisation, Windows & Linux operating systems and a number of infrastructure applications. At Dell Neil assists customers with their strategic planning and identifies frequently occurring customer challenges for which he then identifies new or significantly revised Dell solutions to bring value to our customers. Mike J Hayes is a Solutions Architect working at the Dell Solution Centre in Limerick, Ireland. Responsible for End User Computing engagements at the Centre in EMEA, Mike has a strong background in Desktop and Server Virtualization with over 15 years’ experience working in Enterprise class IT environments. Heavily skilled in Microsoft, VMware and Citrix platforms, Mike primarily works on design workshop and Proof Of Concept activity around VDI. Mike was Lead Architect on Dell’s first DVS VMware View based reference architecture which has evolved into todays “DVS Enterprise” offering from Dell. Paul Wynne is a Solutions Engineer in the Dell Cloud Client Computing Team Based at the Limerick Solutions Centre. A Storage and Virtualization expert Paul has built up 15 years of enterprise I.T and Engineering experience. Working with the cloud Client Computing team Paul is heavily involved in the Development and validation of Dell's published VDI Reference Architectures. In addition Paul delivers customer and Partner briefings at Dell Solutions Centres. Dell Hyperscale VDI – A Detailed White Paper 8 Hardware and Software Components This section of the document lists typical configurations for each of the desktop workloads. For nonpersistent and hosted shared desktops we offer a solution for a traditional “lights out” approach to hardware management, in addition to a more dense, lower cost “grid” or “Web 2.0” approach to hardware management. 8.1 Persistent Desktop Typical Hardware Configurations Dell recommends that customers adopt our PowerEdge blade or rack servers and Atlantis ILIO storage optimization software for these workloads. These PowerEdge servers have full-featured “lights out” hardware management capability and are best suited to the requirement to provide the highest level of service at the infrastructure layer. Note that Dell offers a full range of server form factors and configurations to meet a wide variety of customer needs. The list below is based on Dell’s view of how to best deliver Hyperscale VDI, but your needs may differ – Dell will engage with you pro-actively to identify the correct solution for your environment. Persistent Desktop Compute – Rack Server - Dell PowerEdge R620 With Full “lights out” iDRAC Hardware Management 8.1.1 A dense 2-socket, 1U rack server, the Dell™ PowerEdge™ R620 has a large memory footprint and impressive I/O options that make it an exceptional platform for space-sensitive environments, utilising Intel Xeon E5-2600 (Sandy Bridge) or E5-2600v2 (Ivy Bridge) processors. Feature Form factor Processors Processor sockets Internal interconnect Cache Chipset Memory1 I/O slots RAID controller Drive bays Maximum internal storage1 Hard drives Dell Hyperscale VDI – A Detailed White Paper PowerEdge R620 technical specification 1U rack Intel® Xeon® processor E5-2600 or E5-2600v2 product family 2 2 x Intel QuickPath Interconnect (QPI) links: 6.4 GT/s, 7.2 GT/s, 8.0 GT/s 2.5MB per core; core options: 2, 4, 6, 8 Intel C600 Up to 768GB (24 DIMM slots): 2GB/4GB/8GB/16GB/32GB DDR3 up to 1600MT/s 3 PCIe slots: (10-drive-bay configuration is available only with the 3 PCIe slot option) Two x16 slots with x16 bandwidth, half-height, half-length One x16 slot with x8 bandwidth, half-height, half-length or 2 PCIe slots: One x16 slot with x16 bandwidth, full-height, 3/4 length One x16 slot with x16 bandwidth (or x8 with one processor only), half-height, half-length Internal controllers: External HBAs (RAID): PERC S110 (SW RAID) PERC H810 PERC H310 External HBAs (non-RAID): PERC H710 6Gbps SAS HBA PERC H710P Up to ten 2.5” hot-plug SAS, SATA, or SSD or up to four hot-plug 2.5” SAS, SATA, or SSD + two PCIe SSD Up to 10TB Hot-plug hard drive options: 2.5” PCIe SSD, SAS SSD, SATA SSD, SAS (15K, 10K), nearline SAS (7.2K), SATA (7.2K) Self-encrypting drives available Embedded NIC Power supply Availability Remote management Systems management Rack support Operating systems Broadcom® 5720 Quad Port 1GbE BASE-T (no TOE or iSCSI offload) Intel I350 Quad Port 1GbE BASE-T (no TOE or iSCSI offload) Intel X540 Dual Port 10GbE BASE-T with 2 x 1GbE (FCoE capability enabled on the 10GbE ports) Broadcom 57800S Dual Port 10GbE Base-T with 2 x 1GbE (TOE and iSCSI offload available on 10GbE ports Broadcom 57800S Dual Port 10GbE SFP+ with 2 x 1GbE (TOE and iSCSI offload available on 10GbE ports Auto-ranging Titanium efficiency, hot-plug redundant 750W AC power supply; Auto-ranging Platinum efficiency, hot-plug redundant 495W, 750W or 1100W AC power supply; 1100W DC power supply High-efficiency, hot-plug, redundant power supplies; hot-plug hard drives; TPM; dual internal SD support; hot-plug, redundant fans; optional bezel; information tag; ECC memory; interactive LCD screen; extended thermal support; ENERGY STAR ® compliant; switch independent partitioning iDRAC7 with Lifecycle Controller iDRAC7 Express (default), iDRAC7 Enterprise (upgrade option), 8GB vFlash media (upgrade option), 16GB vFlash media (upgrade option) IPMI 2.0 compliant Dell OpenManage™ Essentials and Dell Management Console Dell OpenManage Power Center Dell OpenManage Connections: OpenManage Integration Suite for Microsoft® System Center Dell plug-in for VMware® vCenter™ HP Operations Manager, IBM Tivoli® Netcool® , and CA Network and Systems Management ReadyRails™ II sliding rails for tool-less mounting in 4-post racks with square or unthreaded round holes or tooled mounting in 4-post threaded hole racks, with support for optional tool-less cable management arm ReadyRails static rails for tool-less mounting in 4-post racks with square or unthreaded round holes or tooled mounting in 4-post threaded and 2-post (Telco) racks Microsoft® Windows Server® 2012 Virtualization options: Microsoft Windows Server 2008 R2 SP1, x64 (includes Hyper-V® v2) Citrix® XenServer® Microsoft Windows® Small Business Server 2011 VMware vSphere® including ESX™ and Novell® SUSE® Linux Enterprise Server ESXi™ Red Hat® Enterprise Linux® Red Hat Enterprise Virtualization® For more information on the specific versions and additions, visit Dell.com/OSsupport. Recommended server specification: o PowerEdge R620, 1U, servers will full iDRAC hardware systems management; o Atlantis iLIO storage optimization appliance. VDI – PowerEdge Sandy Bridge R620 with iLIO 2 x Intel Xeon Sandy Bridge E5-2680 @ 2.7 GHz 192 GB RAM H710 RAID controller 10Gb Network VMware vSphere ESXi 5.0 on MicroSD VDI – PowerEdge Ivy Bridge R620 with iLIO 2 x Intel Xeon Ivy Bridge E5-2680v2 @ 2.8 GHz 256 GB RAM H710 RAID controller 10Gb Network VMware vSphere ESXi 5.0 on MicroSD Dell Hyperscale VDI – A Detailed White Paper Compute – Blade Server – Dell M620 With Full “lights out” iDRAC Hardware Management 8.1.2 An exceptionally feature-rich 2-socket blade server, the Dell™ PowerEdge™ M620 is designed for maximum performance combined with extreme density and power efficiency utilising Intel Xeon E52600 or E5-2600v2 processors. Feature PowerEdge M620 Technical Specification Form Factor; Enclosure Half-height blade; Processors Internal Interconnect Cache Memory Chipset Video Primary Storage Maximum internal storage: External storage: USB Ports I/O Mezzanine Card Options Ethernet: Dell™ PowerEdge™ M1000e Blade Enclosure Intel® Xeon® processor E5-2600 & E5-2600v2 product family Intel QuickPath Interconnect (QPI): 6.4 GT/s; 7.2 GT/s; 8.0 GT/s 2.5MB per core; core options: 2, 4, 6, 8 Up to 768GB (24 DIMM Slots): 2GB/4GB/8GB/16GB/32GB DDR3 up to 1600MHz Intel C600 Integrated Matrox® G200 Hot-plug hard drive options: Up to two 2.5” PCIe SSD, SATA HDD/SSD, or SAS HDD/SSD Up to 1.2TB for information about Dell external storage options, visit Dell.com/Storage 2 front, 1 internal Broadcom® Quad Port 5719 Broadcom Dual Port Gb Ethernet with TOE (BCM-5709S) Intel® Quad Port Gb Ethernet Broadcom Quad Port Gb Ethernet (BCM-5709S) Intel Dual Port 10Gb Ethernet Broadcom Dual Port 10Gb Ethernet (BCM-57711) Brocade® BR1741M-k Dual Port Mezzanine CNA 10Gb Enhanced Ethernet & Converged Network Adapters (CEE/DCB/FCoE): Fibre Channel: Infiniband: Intel Dual Port 10Gb Enhanced Ethernet (FCoE Ready for Future Enablement) Emulex® Dual Port Converged Network Adapter (OCM10102-F-M) supports CEE/DCB 10GbE + FCoE QLogic® Dual Port Converged Network Adapter (QME8142)—supports CEE/DCB 10GbE + FCoE QLogic Dual Port Converged Network Adapter (QME8242-k) supports 10GbE + NPAR QLogic Dual Port FC8 Fibre Channel Host Bus Adapter (HBA) (QME2572) Emulex Dual Port FC8 Fibre Channel Host Bus Adapter (HBA) (LPe1205-M) Mellanox® Dual Port Quad Data Rate (QDR) and FDR InfiniBand Dell Hyperscale VDI – A Detailed White Paper I/O Slots Fully populated mezzanine card slots and switch modules will yield 3 redundant I/O fabrics per blade Dell Select Network Adapter (Network Daughter Card) 2 x 10GbE KR Broadcom (BCM57810S bNDC) 2 x 10GbE KR QLogic bNDC 2 x 10GbE KR Intel i520 bNDC RAID Controller Internal controllers: PERC S110 (SW RAID) PERC H310 PERC H710 PERC H710P Supplied by Dell PowerEdge M1000e Blade Enclosure iDRAC7 with Lifecycle Controller for Blades (default), iDRAC Enterprise with Lifecycle Controller (upgrade option) Power Supplies and Fans Remote Management Systems Management IPMI 2.0 compliant Dell OpenManage™ Essentials and Dell Management Console Dell OpenManage Power Center Dell OpenManage Connections: • OpenManage Integration Suite for Microsoft ® System Center • Dell plug-in for VMware® vCenter™ • HP Operations Manager, IBM Tivoli® Netcool®, and CA Network and Systems Management Operating Systems Microsoft Windows Server® 2008 R2 SP1, x64 (includes Hyper-V™ v2) Microsoft Windows® Small Business Server 2011 SUSE® Linux® Enterprise Server Red Hat® Enterprise Linux Virtualization options: Citrix® XenServer™ VMware® vSphere™ For more information on the specific versions and additions, visit Dell.com/OSsupport. Two internal SD cards dedicated for hypervisor One dedicated for vFlash media support Embedded Hypervisor For more information about the Dell blade solution, see the PowerEdge M1000e Technical Guide or the M1000e Blade Chassis Specification Sheet. Recommended server specification: o PowerEdge R620, 1U, servers will full iDRAC hardware systems management: o Atlantis iLIO storage optimization appliance VDI – PowerEdge Sandy Bridge M620 with iLIO 2 x Intel Xeon Sandy Bridge E5-2680 @ 2.7 GHz 192 GB RAM H710 RAID controller 10Gb Network VMware vSphere ESXi 5.0 on MicroSD Dell Hyperscale VDI – A Detailed White Paper VDI – PowerEdge Ivy Bridge R620 - with iLIO 2 x Intel Xeon Ivy Bridge E5-2680v2 @ 2.8 GHz 256 GB RAM H710 RAID controller 10Gb Network VMware vSphere ESXi 5.0 on MicroSD 8.1.3 Storage For Persistent Desktops Dell Compellent Storage Center SC8000 The Dell™ Compellent™ Storage Center™ SAN is an all-in-one storage array that allows organizations to actively manage data at a highly granular level using built-in intelligence and automation. This ultraefficient, easy-to-manage storage solution optimizes drive utilization, dynamically moves data between storage tiers and RAID levels, continuously protects data against downtime and disaster, scales on demand, and quickly adapts to ever-changing business needs. Storage Center enables organizations to cut the time, cost and risk of managing enterprise storage—today and in the future. Dell Compellent SC8000 Tech Specs Product operating system OS support Processor Memory (Read Cache) Storage capacity Drive interfaces Disk drives: SAS SSD (2.5-inch) Dell Hyperscale VDI – A Detailed White Paper Storage Center 6.1 or later Microsoft® Windows® Server, Solaris, HP-UX, Linux, IBM AIX, Novell NetWare, Apple, Tru64, VMware® Two 2.5 GHz Six-Core (Sandy Bridge) Intel™ processors per controller 16GB2 to 64GB total available cache per controller, with a maximum 128GB per dual controller system (a dual controller configuration is required to support full high availability and failover capabilities in production Each system supports up to 960 SAS drives. The maximum usable capacity supported by a system varies based on configuration. Each 3.5” SAS enclosure holds up to 12 SAS drives. Each 2.5” SAS enclosure holds up to 24 SAS drives. SAS and NL-SAS drives.3 Backwards compatible with existing Compellent Fibre Channel and SATA drives. Different drive types, transfer rates and rotational speeds can be mixed in same system. 200GB SAS 400GB SAS (supported on SC220) SAS SSD (3.5-inch) Fibre Channel HDD (3.5-inch) SAS HDD (2.5-inch) SAS HDD (3.5-inch) RAID Connectivity: Front-end connectivity Maximum front-end ports Back-end connectivity Maximum back-end ports Chassis Storage controller Environmental operating conditions SC8000 controller 200GB SAS (supported on SC200) 400GB SAS (supported on SC200) 300GB 15K RPM 450GB 15K RPM 600GB 15K RPM 146GB 15K RPM 300GB 15K RPM 600GB 10K RPM 900GB 10K RPM 1TB 7.2K RPM 450GB 15K RPM 600GB 15K RPM 1TB 7.2K RPM 2TB 7.2K RPM 3TB 7.2K RPM 4TB 7.2K RPM (requires Storage Center 6.2.2 or later) Supports RAID 0, 5, 6 and 10. Any combination of RAID levels can exist on a single Storage Center. Multiple RAID levels can exist on the same storage tier within an array. Fibre Channel (4Gb, 8Gb), iSCSI (1Gb, 10Gb), FCoE (10Gb) Simultaneous interface support 16 (Fibre Channel), 10 (1Gb iSCSI), 10 (10Gb iSCSI), 10 (FCoE) per controller. NOTE: SC8000 controller can support up to 16 FC front-end ports with 4-port low-profile SAS back-end IO option. SAS (6Gb, 3Gb), Fibre Channel (2Gb, 4Gb, 8Gb) 16 (FC), 10 (SAS) per controller NOTE: No SATA ports, FC and SATA enclosures are connected to FC8 IO card. Rack size: 2U Height: 87.3 mm (3.44 inch) Width: 482.4 mm (18.98 inch) with rack latches 444 mm (17.08 inch) without rack latches Depth: 755.8 mm (29.75 inch) with bezel Weight: 19.73 kg (43.5 lbs) Power: Dual, Redundant 750W 80 Plus® Platinum-certified power supplies4 Heat Dissipation: 2891 BTU/hr rated Power Supply Operating Temperature: 50 - 95°F (10 - 35°C) Non-Operating Temperature: -40 - 149°F (-40 - 65°C) Operating Humidity Ranges (non-condensing): Operating, 20% to 80% Non-Operating Humidity (non-condensing): Dell Compellent SC220 Underpinning the storage controller, Dell recommends the following storage capacity product. We specify this with a mix of SSDs and fast HDDs to complement the “thin” requirement for SAN when using the Dell Hyperscale VDI solution. The SC220 is a 2U 6Gb SAS enclosure that supports up to twenty four (24) 2.5” disk drives. Supported 2.5” drives can include a mix of drive speed and capacity in any slot within the enclosure, including SSD drives. Expansion Enclosure SC220 Interface Speed 6Gb/s SAS Drive Support SAS Intermixed Drive Capacities Yes Max Number of Drives per Enclosure 24 Max Number of Drives per Array - Externally Communicated Max Number of Drives per Array - Tested and Supported Redundant and Hot-swappable Power Supplies Dell Hyperscale VDI – A Detailed White Paper 960 1008 Yes Non-Persistent Desktop and Shared Desktop Typical Hardware Configurations 8.2 Dell recommends that customers adopt our PowerEdge C high density, low cost servers for these workloads. Note that Dell offers a full range of server form factors and configurations to meet a wide variety of customer needs. The list below is based on Dell’s view of how to best deliver Hyperscale VDI, but your needs may differ – Dell will engage with you pro-actively to identify the correct solution for your environment. PowerEdge M620 blade or R620 rack servers as an option for those datacentres that continue to require fully featured “lights out” hardware management capability. 8.2.1 Compute – Rack Server - Dell PowerEdge C6220 II Designed with your needs in mind High-performance workloads such as VDI and shared desktops rely heavily on compute performance, memory bandwidth, and overall efficiency to drive time and cost savings that impact a server’s total cost of ownership (TCO). The next-generation Dell™ PowerEdge C6220 II servers provide an ideal solution for such demanding environments and feature the latest Intel Xeon E5-2600v2 Ivy Bridge processors for improved performance and efficiency. This scale-out building block is a true workhorse with up to four 2-socket server nodes in a highly-flexible 2U shared infrastructure chassis. (At the time of writing, the C6220 is also available using Intel Xeon E5-2600 Sandy Bridge processors). With up to 24 cores per node, memory bandwidth up to 1866MT/s, and dynamic drive assignment, the PowerEdge C6220 II delivers new levels of performance that can be tailored to customer requirements while offering increased flexibility and reliability over traditional rack mounted servers. Deliver results faster and more securely Computationally-intense workloads demand performance, from processors to memory to connected devices. The PowerEdge C6220 II features Intel Xeon E5-2600v2 processors with increased core counts of up to 50% over prior E5-2600 models, as well as 50% more cache. Those improvements deliver performance enhancements of up to 40%, allowing you to do more with less and get results faster than ever before. In addition to this leap in processor performance, the PowerEdge C6220 II server supports up to 512GB of memory per server node — with up to four nodes per chassis — for a total of 2TB of memory in a highly-dense, 2U solution. Memory bandwidth has also been improved substantially with support for 1866MT/s DDR3 DIMMs, reducing bottlenecks for memory-intensive applications. Support for up to two 2U nodes with additional PCIe expandability or four 1U nodes to maximize compute density lets you tailor resources as needed over time. Each C6000 chassis supports up to Dell Hyperscale VDI – A Detailed White Paper 24x 2.5” or 12x 3.5” drives with multiple SATA and SAS options for up to 48TB of storage capacity. With the expander backplane option, dynamic drive assignment for 2.5” drives provides even more flexibility by zoning any number of drives to each node, giving nodes additional or fewer storage resources as workloads demand. Chassis 2U rack mount Processors Up to four 2-socket servers, 4, 6, 8, 10 or 12 cores per processor Intel Xeon processor E5-2600v2 product family, with L3 cache: up to 30MB Memory 16 DIMM slots for up to 512GB per node: Chipset 4GB/8GB/16GB LV (1.35V) DDR3 RDIMM (1600MT/s) 4GB LV DDR3 UDIMM (1600MT/s) 4GB/8GB/16GB (1.5V) DDR3 RDIMM (1866MT/s) 32GB LV DDR3 RDIMM (1333MT/s) Intel C602 chipset Video Integrated AST2300 with up to 16MB video RAM Primary storage Maximum internal storage: 48TB SATA or NL 48TB SAS Drive bays and hard drives 24 x 2.5” or 12 x 3.5” hard drive options 2.5” SAS (15K): 146GB, 300GB 2.5” SAS (10K): 600GB, 900GB, 1.2TB 2.5” SATA: 500GB, 1TB 2.5” NL SAS (7.2K): 1TB 2.5” SATA SSD (eMLC): 100GB, 200GB, 400GB, 800GB 3.5” SATA (7.2K): 1TB, 2TB, 3TB, 4TB 3.5” SAS (15K): 600GB 3.5” NL SAS (7.2K): 2TB, 3TB, 4TB Connectivity Intel Ethernet Controller i350, 2 x 1Gb Ethernet; 1 x 100Mb Ethernet dedicated management port USB ports 2 external ports I/O slots 1U-node version: 1 x8 mezzanine, 1 x16 half-height (low profile), half-length slot 2U-node version: 1 x8 mezzanine slot; 1 x16 full-height, half-length slot; 1 x16 full-height, full-length slot I/O adapter options 1Gb Ethernet Intel i350 quad-port 1Gb adapter Intel 82580 ET quad-port 1Gb mezz 10Gb Ethernet Intel 82599 dual-port 10Gb DA/SFP + mezz Intel X520 dual-port 10Gb DA/SFP + mezz Drive and RAID controllers Intel C602: SATA or SSD drives only LSI® 2008 6Gbs SAS mezzanine (optional) LSI 9265-8i 6Gbs SAS add-in controller (optional) Power supplies Dual hot-plug redundant high-efficiency 1200W or 1400W power supplies Fans Shared cooling with quick-disconnect 4 x 60mm speed fans detectable with PWM control Operating systems Novell® SUSE® Linux Enterprise Server 11 SP2 Red Hat® Enterprise Linux® Microsoft® Windows Server® 2012 Microsoft Windows Server 2008 R2 Enterprise x64 SP1 Microsoft Windows® HPC Server 2008 R2 x64 SP1 Server management Embedded BMC with IPMI 2.0 support with 1 x 10/100 Mbps RJ45 connector Intel Node Manager 2.0 compliant Hypervisors Citrix® XenServer® VMware® vSphere® ESXi™ Microsoft Hyper-V® Server 2008 R2 SP1 Dell Hyperscale VDI – A Detailed White Paper InfiniBand Mellanox® ConnectX®-2 QDR dual-port mezz Mellanox ConnectX-3 FDR single-port mezz Dell X410 host interface card (HIC) for connection to the C410x Non-persistent desktop recommended server specification: o PowerEdge servers – 4 servers of 2 x Intel Xeon Sandy Bridge E5-2680, 192GB, 6 x internal 300GB 15k HDDs in 2U of rack space; o Atlantis ILIO storage optimization appliance. PowerEdge C6220 Sandy Bridge Non-Persistent Server 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 256 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network PowerEdge C6220 Ivy Bridge Non-Persistent Server 2 x Intel Xeon Sandy Bridge CPU E5-2680v2 @ 2.8 GHz 256 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Shared desktop (XenApp) recommended hardware specification: o PowerEdge servers – 4 servers of 2 x Intel Xeon Sandy Bridge E5-2680, 128GB, 2 x internal 300GB 15k HDDs in 2U of rack space PowerEdge C6220 Sandy Bridge XenApp Server 2 x Intel Xeon Sandy Bridge CPU E5-2680 @ 2.7 GHz 128 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Dell Hyperscale VDI – A Detailed White Paper PowerEdge C6220 Ivy Bridge XenApp Server 2 x Intel Xeon Sandy Bridge CPU E5-2680v2 @ 2.8 GHz 192 GB RAM RAID Controller 2 x 300GB 6GBps 15k SAS 2.5” Hard Disks – RAID 1 10Gb Network Storage Optimization Software for Persistent, Non-Persistent and Temporarily Persistent Solutions*** 8.3 Atlantis ILIO is VDI storage and performance optimization software solution that is integrated with the Dell Hyperscale persistent and non-persistent VDI solutions to optimize storage utilization, boost desktop performance, and enable large, highly scalable VDI deployments. Atlantis ILIO is a unique and innovative storage optimization technology that fundamentally changes the economics and performance characteristics of VDI by intelligently optimizing how virtual machines interact with storage. Atlantis ILIO In-Memory Storage technology addresses the storage issues in virtual desktop environment with a 100% software solution that reduces physical storage requirements by up to 90%, while handling read and write IO at memory speeds. Through a combination of patent-pending technologies, Atlantis ILIO reduces the IO workload that primary storage must handle while at the same time reducing the runtime storage footprint of VMs by up to 90%. With Atlantis ILIO, the Dell server can now provide a cost-effective solution for large persistent virtual desktops that would normally consume 30-80GB potentially using as little as .6GB of storage per desktop. This allows the deployment of a large number of persistent and non-persistent virtual desktops using internal storage Atlantis ILIO deploys as a dedicated VM on each host, presenting a conventional NFS datastore that all the VMs on that host use. This makes Atlantis ILIO deployment transparent, preserving administrative processes and procedures that may already be in place. During runtime, all IO is processed by the Atlantis ILIO VM first, and then written to storage. As IO enters the Atlantis ILIO VM, it is first analyzed, then it is de-duplicated, compressed and then undergoes write coalescing before it is stored on disk. All of this occurs at wire speeds without impacting Atlantis ILIO’s ability to service IO at server RAM speeds. The storage optimization technologies used include content-aware IO optimization, in-line de-duplication, wire-speed compression, and real-time write coalescing. Content-Aware IO Optimization Atlantis ILIO achieves its benefits by minimizing the IO activity associated with virtual desktop workloads and by significantly reducing runtime storage footprints. Atlantis ILIO’s content-aware IO Dell Hyperscale VDI – A Detailed White Paper optimization focuses on the minimization of IO operations. In Windows NTFS (and other file system environments), a lot of the IO generated is transient. Atlantis ILIO uses its intelligence to differentiate between transient and stateful operations that require durable storage. When IO enters the Atlantis ILIO VM and is processed, transient IO is processed so that it never has to be handled by durable storage, while stateful IO is passed through to be further optimized through de-duplication and compression. This reduces the amount of IO that must be processed by storage, thereby reducing the storage workload overall without impacting data integrity or Atlantis ILIO’s performance gains. In-line De-duplication With virtual desktop infrastructure, most VMs have a significant amount of redundant data. For example, in VDI it is common for all desktops in a deployment to run the same desktop operating system: Microsoft Windows. Corporate desktops are often configured with the same set of desktop applications (e.g. Windows Office). User data files stored in popular Windows application formats (e.g. Word, PowerPoint, Excel, etc.) also have significant redundancies. Even though each desktop may look very different, a lot of the data blocks in each of them are the same. In many VDI deployments, up to 95% of the blocks are the same across the virtual desktops. Atlantis ILIO de-duplicates data at the block level in-line in real time, efficiently identifying redundancies at a very high level of granularity. Shared common blocks are pinned into the Dell’s server RAM by Atlantis ILIO. As a result, none of the reads to any of these common blocks ever goes out across a network, and they are all serviced at server RAM speeds. This is why desktop boot, logon, application launches and file access that heavily use this shared data happen almost instantly when Atlantis ILIO is installed. A small amount of space is reserved in the Dell RAM for deduplicated data that is unique to each desktop image, ensuring that all reads and writes for that desktop also do not go out across a network and are handled at server RAM speeds. Wire-Speed Compression Atlantis ILIO offers optional lossless compression, which can be applied to the de-duplicated IO stream before it is written to storage. Altantis ILIO uses an enhanced, patent-pending implementation that performs the compression out of band, imposing no IO latency impacts of any kind. Atlantis ILIO performs all compression in real time at wire speeds to provide its space-saving benefits, while at the same time significantly improving overall desktop performance relative to physical PCs or serverbased virtual applications. When operating together, the in-line de-duplication and wire-speed compression can reduce the size of a dedicated virtual desktop storage footprint by up to 90%. Real-Time Write Coalescing With real-time write coalescing, small block random writes that are so common in virtual desktop IO are re-ordered into a much more sequential stream of large block writes. In concept, this is very similar to the IO optimizations that the Windows desktop OS performs but the difference is that Atlantis ILIO performs it at the level of the entire hypervisor, not individual desktop images. For further information, please visit the Atlantis Computing web site http://www.atlantiscomputing.com *** Generic performance estimates in this section provided by Atlantis Computing. Dell testing undertaken as part of the development of this solution is reported elsewhere in this document. Dell Hyperscale VDI – A Detailed White Paper
© Copyright 2024 ExpyDoc