Kosten opslag verschuiven naar beheer
Dat is slecht nieuws voor de verkopers van dit soort apparatuur. “Die mensen staan nu vergeefs aan de poorten van hun afnemers, wat in feite een beetje hun eigen schuld is. Ik bedoel, dat de verkopers in het verleden gewoon te goed zijn geweest en dat ze hun klanten extra capaciteit hebben verkocht die ze nu pas echt gaan gebruiken”, zegt Moore. Overdaad Moore bestiert sinds 1998 zijn eigen adviesbureau, dat de naam Horison Information Strategies draagt. Daarvoor werkte hij ruim twintig jaar bij opslagspecialist StorageTek. Volgens Moore is in de afgelopen jaren een cultuur ontstaan, waarin veel te veel opslagruimte werd toegewezen aan bepaalde processen. “Ik zal een voorbeeld geven: er wordt een nieuw programma geschreven, waarbij de ontwerper adviseert om er 400 GB opslag aan toe te wijzen. Die hoeveelheid wordt door de gebruikers veiligheidshalve verhoogd, zeg tot 600 gigabyte. Met dat getal stappen ze naar hun database administrator, die er op zijn beurt 1 terabyte van maakt. Vervolgens slaat de twijfel toe. Moet je de database niet ‘mirroren’? Zodat je na een storing gewoon kunt doorwerken? Het antwoord is meestal ‘ja’ en dus wordt er nog een ruimte van 1 TB bijgehaald. Dan zitten we dus al op 2 TB. En net als je denkt dat je klaar bent, begint er iemand over back-up te praten. Tja, dat kost weer 1 TB. Al met al koop je dus echt te veel ruimte.” Schijfruimte Bij onderzoeken naar het gebruik van opslagsystemen speelt dit ook een rol. Gebruikers staren zich blind op de hoeveelheid ruimte die aan een bepaalde applicatie is toegewezen, zonder te letten op de schijfruimte die daadwerkelijk wordt gebruikt. “Ze zijn best in hun nopjes met een bezettingsgraad van 80 procent. Als ze zouden weten dat het echte ruimtebeslag maar een procent of 30 is, dan piepen ze heel anders. Hier en daar begint dit al door te dringen. De mensen realiseren zich dat ze ruimte over hebben en die gaan ze nu gebruiken. Jammer voor de verkoper van extra disks, die onverrichter zake weer naar hun bureau terug kunnen”, zegt Moore. Bedrijven gaan langzaam rationeler omspringen met hun opslagruimte. Meer en meer wordt gekozen voor een werkwijze waar niet van de complete informatiehoeveelheid een back-up wordt gemaakt, maar waar slim wordt gewerkt. “Stel”, zegt Moore, “dat je bedrijf duizend pc’s heeft, met op alle systemen dezelfde software. Moet je dan duizend keer alle OS’en en applicaties opslaan? Natuurlijk niet. Je slaat de standaard code één keer op en vult die aan met de gegevens die specifiek van één gebruiker zijn. Zo bespaar je veel ruimte.” Hoe minder data, des te simpeler wordt het, om de gegevens te beheren. Moore: “Onderschat dat niet. De ICT-budgetten groeien beslist niet meer en met hetzelfde geld moet je steeds meer gegevens beheren. We gaan weer terug naar centrale opslag, op een mainframe. En dan niet de zware hompen ijzer van vroeger, maar moderne systemen die werken onder Linux. In de VS ken ik een bedrijf dat 750 servers had staan, waar ze 38 miljoen dollar aan kwijt waren. Dat machinepark is nu vervangen door een IBM z-Series mainframe met Red Hat Linux. Kosten? 2 Miljoen dollar. In de oude situatie kon één persoon 4 à 5 terabyte beheren, bij het mainframe is dat gestegen tot zo’n 13 TB per persoon. En die trend gaat verder”, aldus Moore.