Már 2005-ben egy nyilatkozatában azt hangsúlyozta Robert B. Crooke, az Intel Üzleti Ügyfél csoportjának vezetője, hogy a virtualizáció a személyi számítógépekhez kapcsolódó legforradalmibb technológia ebben az évtizedben, és akkori jóslata beigazolódni látszik. A rugalmas és hatékony informatikai rendszerek minden korábbinál fontosabbak lettek az üzleti életben, s a virtualizáció célja éppen az, hogy mozgékonyságot, rugalmasságot adjon az üzletnek, így az informatikára ne költséghelyként, hanem üzleti befektetésként tekintsenek.
Hatékony működés
A tipikus szerver hardverkapacitásának jelentős részét soha nem használják, így a belefektetett pénz sem térül meg. Az éjszaka nem használt személyi számítógépek vagy például a csak időszakosan - mondjuk bérszámfejtéskor - igénybe vett alkalmazások szabad kapacitásait más alkalmazások számára lehet szétosztani, jelentősen növelve így a gépek hasznos üzemidejét. Ha az eszköz több időt tölt hasznos munkával, az a megtérülési idő javulása mellett a fenntartási és üzemeltetési költségek csökkenését is jelenti. A processzor ugyanis 15-20 százalékos kihasználtság esetén is felveszi energiaigényének 70 százalékát, vagyis a rendszer nagyon rossz hatásfokkal működik. Ha ehelyett egyetlen fizikai szerver kap hatvanszázalékos terhelést, az energiaigény akkor sem nő - viszont nincs szükség további eszközökre.
A cégek sokszor azért kénytelenek újabb és újabb szervereket beszerezni, mert a meglévő rendszereik rugalmatlanok. Például olyankor, ha egymással ütköző funkciók együttes ellátására lenne szükség. A virtualizációt pedig többek között az teszi fontossá, hogy képes az eddig szigorúan összetapadt komponensek elválasztására. Az eddig elválaszthatatlan hardver, operációs rendszer, alkalmazások és a felhasználó adatai így külön kezelhetővé, mozgathatóvá válnak, hasonlóan egy építőkocka elemeihez. Ennek segítségével a fizikai infrastruktúrát logikailag több részre osztva és a felhasználók rendelkezésére bocsátva mindenki úgy érzi, mintha csak ő használná a rendszert.
A virtualizációnak két iránya van. Az első esetben egy eszközt vagy eszközrendszert logikailag több részre osztunk, és azokat virtuálisan különálló rendszereknek érzékelik a felhasználók. A második eset ezzel szemben több, fizikailag is különálló eszköznek vagy rendszernek a konszolidációját jelenti, virtuálisan eggyé olvasztva azokat a felhasználók számára - magyarázza Tázló József, a Cisco műszaki igazgatója.
Mára egy korszerű informatikai rendszer minden fontosabb eleme, így a szerverek, számítógépek, az adatközpontok, a hálózatok, az operációs rendszerek, de még az alkalmazói programok is virtualizálhatók.
Rugalmas rendszer
A hardverek felértékelődése logikus következménye a jobb kihasználtságnak. Ennek megfelelően az eszközök élettartama várhatóan nőni fog, mondja Somogyi Csaba, a Microsoft IT üzemeltetési szakértője. A rugalmas rendszer három-öt évig skálázható, bővíthető, tehát ennyi ideig nem lesz szükség komolyabb beruházásra. A virtuális rendszer kialakításához szükséges beruházás pedig átlagosan egy éven belül megtérül.
Ezekkel a megoldásokkal olyan rugalmas rendszer hozható létre, ami képes igazodni a cég életéhez, változó körülményeihez. Amennyiben jól megtervezik, akkor szükség esetén rugalmasan bővíthető az infrastruktúra, ami az új helyzetekhez való gyors alkalmazkodást, ezáltal versenyelőnyt jelenthet. Ha például egy projektre csupán fél évre kellene pluszteljesítmény, megfelelő teljesítményű hardver és jól tervezett licenckonstrukció esetén alig tíz perc alatt, gyakorlatilag költség nélkül beállítható a szükséges pluszkapacitás. Amikor pedig az adott rendszerre már nincs szükség, a virtuális gép leállítható. A rugalmas rendszer segítségével az esetlegesen meghibásodott gépről a szükséges alkalmazás gyorsan máshová telepíthető, amire korábban csak kifejezetten drága számítástechnikai megoldások voltak képesek. Így a kritikusan fontos alkalmazások működési folyamatossága biztosítva van - hangsúlyozza Ákos György, az EMC Magyarország ügyvezetője.
Testreszabott szoftverek
Az összevont rendszerből adódó nagyobb biztonsági kockázat kivédésére pedig éppúgy hatékony szoftvermegoldásokkal álltak elő a gyártók, mint a rendszerrel kapcsolatban felmerülő másik probléma esetében: a kapacitás kihasználtságának sokszorosára növekedésével ugyanis nő például a mentéshez szükséges idő. Ennek ellensúlyozására alkalmas a deduplikáció eljárása, amely a sok virtuális gép fájlállományát együtt ellenőrzi, és a tartalmában teljesen azonosakat csak egyszer menti, elkerülve a rengeteg időt felemésztő többszörös mentést.