Opslag gaat virtueel
John Martin, directeur content delivery architecture van Network Appliance, noemt de populariteit van Windows Media Player als een van de oorzaken van de groei. “Dat programma staat inmiddels op iedere pc, en wie Windows 2000 (server) koopt, krijgt daar tegenwoordig gratis een Media Player-server bij.” Ook opslag voor het snel terugzetten van (gecorrumpeerde) bestanden maakt een forse groei door. Op dit moment geven bedrijven ongeveer de helft van hun IT-budget aan opslag uit. Diverse bureaus voorspellen dat dit aandeel in 2003 al zal zijn opgelopen naar ongeveer 75 procent. “Bedrijven willen informatie steeds vaker online hebben”, vertelde Dan Warmenhoven, president-directeur van het Amerikaanse Network Appliance, onlangs op een persbijeenkomst in het Californische Sunnyvale. “Er is ook geen enkele reden om dat niet te doen, want de kosten van dataopslag zijn dramatisch gedaald. De prijs per megabyte is de afgelopen tijd met een factor tien afgenomen.” De belangrijkste ontwikkelingen liggen evenwel op het vlak van gedistribueerde opslag. In het verleden was dataopslag een puur lokale aangelegenheid: pc’s en servers fungeerden als opslagfaciliteit. Ook werd gebruikgemaakt van opslagservers in een netwerk. “Tien jaar geleden was dat allemaal nog erg ingewikkeld”, zegt Dan Warmenhoven van NetApp. “Als je data wilde verplaatsen, had het netwerk daar flink onder te leiden.” Dankzij hogere doorvoersnelheden en de ontkoppeling van opslagsystemen en het besturingssysteem – NetApp gebruikt een eigen besturingssysteem voor het databeheer – behoren deze problemen definitief tot het verleden. Tegenwoordig onderscheidt men twee hoofdproducten, de zogenoemde Storage Area Networks (SAN’s), rechtstreeks aangesloten opslagelementen waarbij het datatransport veelal via glasvezel (Fibre Channel) loopt, en netwerkgekoppelde opslag (NAS), een systeem dat gebruikmaakt van bestaande (Ethernet)- faciliteiten en vanuit verschillende besturingssystemen zoals UNIX of Windows 2000 toegankelijk is. Aanvankelijk werden NAS en SAN als concurrerende technieken beschouwd, maar in de praktijk blijken ze elkaar prima aan te vullen. De algemene verwachting is dan ook dat SAN en NAS op zullen gaan in een nieuwe opslaginfrastructuur: de Enterprise Storage Network (ESN). Zo’n netwerk is in staat om uiteenlopende systemen te verbinden. Een belangrijk trend daarbij is opslagvirtualisatie. Daarbij wordt één groot opslaggebied voor de diverse servers en applicaties gesimuleerd. De software stuurt het dataverkeer, en biedt herstelmogelijkheden. Toch is opslagvirtualisatie wat anders dan virtuele opslag, waarbij data niet meer centraal wordt opgeslagen. Nu al kennen veel opslagsystemen de mogelijkheid van ‘remote-copy’, zodat data synchroon naar twee verschillende plekken kan worden weggeschreven. Dankzij glasvezel kunnen daarbij ook nog eens grote afstanden worden overbrugd tot een paar honderd kilometer. Opslagsystemen van verschillende vestigingen kunnen zo aan elkaar gekoppeld worden. Een mooi voorbeeld is de Duitse overheid die zowel in Berlijn als Bonn gevestigd is. Gegevens van beide locaties worden via glasvezel over een afstand van 700 kilometer gesynchroniseerd. “Dat gaat razendsnel, met 200.000 kilometer per seconde”, weet Wouter Kolff van EMC. Het Amerikaanse Network Appliance verwacht zelfs dat een groot aantal globale datafabrieken zal ontstaan, waarin data dynamisch opgeslagen kan worden. Het idee is om data zo dicht mogelijk bij de gebruiker te krijgen, zodat deze over ‘LAN-achtige snelheden’ kan beschikken. Deze Center to Edge-technologie komt vooral van pas bij internettoepassingen zoals ‘streaming media’ en draadloze technieken als zakcomputers en slimme telefoons die toegang tot internet bieden. NetApp gebruikt daarvoor zogenoemde cacheservers, die veelgevraagde informatie tijdelijk opslaan. NetApp heeft inmiddels allerlei applicaties ontwikkeld om bijvoorbeeld de complete inhoud van intranets veilig op te slaan. Cacheservers kunnen ook de transportkosten van data verlagen. “Vroeger was een cache een server die veelgevraagde webpagina’s opsloeg om het intercontinentale dataverkeer te ontlasten”, zegt Bert van der Zande van Network Appliance. “Tegenwoordig hebben cacheservers een opslagfunctie voor grote bestanden, zoals videofilms. Het is zeer goed mogelijk dat we in de toekomst niet meer over cacheservers zullen spreken, maar over opslaguitbreiding.” Ook EMC gelooft in het Center To Edge-concept, maar het fysiek verplaatsen van data is volgens Wouter Kolff niet altijd nodig. “Transport- en opslagkosten gaan enorm omlaag. Op dit moment is het nog zo dat je data maar beter als bulk kunt versturen, maar in de toekomst is het geen enkel bezwaar meer om die gegevens rechtstreeks van verre servers op te vragen.” Van vertragingen in het transport zal dan geen sprake meer zijn. Maar EMC heeft dan ook een andere visie op virtuele opslag dan Network Appliance. Het Amerikaanse bedrijf gelooft in hyperconsolidatie: zorg dat je gedecentraliseerde systemen samenbrengt met software. Kolff: “De operationele kosten geven straks de doorslag. Als je heel veel kleine opslagsystemen hebt, wordt het beheer ingewikkeld.” “Ook wij zien een trend naar centralisatie van datacenters”, zegt Bert van der Zande van NetApp. “Maar gebruikers hebben nog lang niet altijd de beschikking over onbeperkte bandbreedte. Een van de grootste banken in Nederland heeft tussen zijn vestigingen een lijntje van 128 kb/s liggen, dat is voor het versturen van video domweg niet toereikend.” Collega John Martin noemt als voorbeeld het internetconcert van U2 dat onlangs door provider Tiscali met behulp van cacheservers aan dertien landen werd doorgegeven. “Zoiets kun je onmogelijk vanuit een centrale server regelen. We zien ook steeds meer bedrijven films op aanvraag aanbieden via ADSL. Dan moet je zorgen dat de ervaring even goed is als het huren van een video en dus moet je de data dan zo dicht mogelijk bij de gebruiker brengen.” Toch zijn er nog maar weinig bedrijven die gebruikmaken van de Center to Edge-technologie. Gert Stolte van Fokker Special Products in Hoogeveen, dat onder andere lanceerbuizen maakt voor een nieuwe generatie patriotraketten, gebruikt voor het distribueren van CAD-tekeningen tussen meerdere vestigingen een NAS-opstelling. “Direct storage is eindig, dat geeft enorme beheerproblemen”, zegt Stolte. “Het beheer van opslag is misschien nog wel belangrijker dan de opslagtechnologie zelf.” Ook Stolte denkt dat in de toekomst dataopslag gecentraliseerd zal worden. “Ik geloof dat data in de toekomst voor een deel virtueel wordt aangeboden via terminal emulatie. Je haalt dan erg weinig gegevens meer naar je toe.” Weinig vertrouwen hebben opslagdeskundigen in werkelijk virtuele opslag via peer to peer-technieken (p2p). Het idee van p2p-opslag is dat harde schijven van pc’s als een groot virtueel opslagsysteem zouden kunnen fungeren, waarbij data dynamisch aan pc’s wordt toegewezen. Aan de Universiteit van Berkeley werkt men onder de noemer OceanStore aan zo’n netwerk, geschikt voor miljoenen gebruikers. Via cryptografie zal diefstal van data voorkomen moeten worden. Wouter Kolff ziet het niet van de grond komen. “Je kunt in een p2p-model geen opslagcapaciteit garanderen, en omdat alles via TCP/IP-netwerken moet lopen, heb je ook te maken met congestieproblemen. Bedrijven willen dat niet.” Bovendien is het volgens Kolff ondenkbaar dat bedrijven persoons- en saldogegevens op deze manier opslaan. Overheden zullen dat niet willen toestaan. Gert Stolte: “Op zich is het best een interessant idee, maar wij zullen er pas naar kijken als de technologie zich echt bewezen heeft.” Ook John Martin van NetApp is sceptisch. “We hebben wel eens gekeken of we cacheservers konden koppelen zodat als je in Den Haag zit en een bestand opvraagt, de server automatisch op zoek gaat naar het bestand dat het snelst geleverd kan worden. Met een paar servers is dat nog wel te doen, maar met duizenden pc’s krijg je enorme wachttijden.” Chris Wells van de Universiteit van Berkeley gelooft echter dat veel van deze beperkingen worden opgeheven en werkelijk gedistribueerde opslag toekomst heeft. Maar voor John Martin staat allerminst vast dat de huidige distributiemodellen zullen verdwijnen. “Ik geloof niet in onbeperkte bandbreedte. Neem het Gigaport-project. Dat kent onvoorstelbare doorvoersnelheden van 4,5 gigabit per seconde. Die capaciteit wordt binnen de kortste keren benut. De problemen zoals we die nu kennen blijven bestaan.”