Internet moet op de schop
De groep bouwt voort op het het Akari Project van het National Institute of Information and Communications Technologies (NIST).
In november volgt de formele oprichting van de samenwerking waar ook grote Japanse bedrijven als NTT, NEC, Fujitsu, Hitachi, KDDI en Toshiba deelnemen.
Volgens de Japanners biedt de huidige internettechnologie tot ruim na 2010 voldoende capaciteit, zij het dat wat aanpassingen nodig zijn. Daarna neemt de groei van het dataverkeer zo’n vorm aan dat die alleen kan worden geaccommodeerd met een volledig nieuwe architectuur. Die moet na 2015 beschikbaar zijn. De groei komt onder meer van een toename in het videotransport en van de miljarden sensoren die worden aangesloten op het netwerk, zoals het consortium verwacht.
De nieuwe architectuur is gebaseerd op een volledig optisch pad in de kern van het netwerk. Dat betekent dat de huidige routers in het netwerk vervangen worden door optische routering. De routers die nu de knooppunten in het web vormen, zetten de lichtbundels uit de glasvezel om in een elektrisch signaal. Vervolgens bepaalt de router aan de hand van adresinformatie in de header waar de datapakketjes naar toe moeten. Daarna zet de router het elektrische signaal weer om in een optisch signaal en stuurt het de juiste glasvezel in.
Voor het routeren van één 10 Gbps-verbinding verbruikt de router tot zo’n 250 Watt. Bij het routeren van honderden miljarden 10Gbps-verbindingen ontstaat alleen al een gigantisch energieprobleem.
De Japanners vinden bovendien dat ook het mobiele internet naadloos worden geïntegreerd in de nieuwe architectuur door apparatuur vast ‘handovers’ met andere basisstations te laten maken ruim voor het verbreken van de verbinding met het actieve basisstation nodig is omdat het buiten bereik raakt. Zo kan mobiele internetapparatuur ook worden gebruikt in hogesnelheidstreinen, iets dat nu nog vrijwel onmogelijk is.
“Het gaat inderdaad om een heleboel geld”, zegt dr Cees de Laat, specialist in optische netwerken aan de Universiteit van Amsterdam. “In Europa en de VS zijn soortgelijke hoeveelheden geld beschikbaar voor dit type onderzoek maar worden verdeeld over verschillende kleine projecten.” De Laat heeft zelf een projectvoorstel waarin vergelijkbare problematiek aan de orde komt, ingediend voor financiering in het Europees 7e kader-programma.
Simon Hania, technisch directeur van XS4ALL, vindt het erg nuttig dat dit onderzoek wordt gedaan. Hij denkt echter dat invoering in 2015 niet realistisch is. Alleen het verglazen van de huisaansluitingen in Nederland duurt al 10 jaar. Dan zullen eerst 10 en 100 Mbps verbindingen gangbaar zijn voordat misschien eens op enige schaal vraag naar 1 en 10 Gbps ontstaat. Ook is het maar de vraag of tegen die tijd de computers snel genoeg zijn om dergelijke capaciteit te kunnen verwerken. Bovendien, zegt Hania, leiden deze aansluitingen niet onmiddellijk tot opstopping in de backbone. “Zelfs op piektijden maakt nu maar 1 op de 75 van onze klanten gebruik van de maximale capaciteit.”
Henk Steenman, de technisch directeur van AMS-IX, een van de grootste internetknooppunten ter wereld, verwacht niet dat in 2015 ‘backbone’-capaciteit van petabits realistisch zijn. Voor 2010 staat pas de ratificatie van de 100 Gbps-standaard op het programma. Daar kan AMS-IX nog een tijd mee doorgroeien, verzekert hij.
Wat er gebeurt met internet wanneer het onverhoopt vol mocht lopen, is een moeilijk te beantwoorden vraag.
Tijdkritische applicaties hebben theoretisch het meeste last van een overbelast internet. De aanbieders van spraak en videodiensten maken echter vaak gebruik van speciaal voor dat doeleinde reserveerde kanalen en niet van het ‘vrije’ internet. Bovendien bestaat ‘het internet’ niet als een geheel; het is een lappendeken van netwerken. Op sommige netwerken kan het vol raken en op andere niet. Het hangt er net van af hoe de route van het dataverkeer loopt, of een applicatie daar last van heeft. Nieuw videodiensten hebben bijvoorbeeld vaak een lokaal karakter en kunnen het daarom goed blijven doen, terwijl elders congestie optreedt.
De groei van het dataverkeer verloopt bovendien gradueel, niet schoksgewijs. De internetaanbieders zien aankomen wanneer hun systemen ‘vol’ dreigen te raken en hebben dan nog tijd om bij te bouwen.
dossier Verwijzing
Waar loopt het internet vast?
Wat er gebeurt met internet wanneer het onverhoopt vol mocht lopen, is een moeilijk te beantwoorden vraag. Tijdkritische applicaties hebben theoretisch het meest last van een overbelast internet. De aanbieders van spraak- en videodiensten maken echter vaak gebruik van speciaal voor dat doeleinde gereserveerde kanalen en niet van het ‘vrije’ internet. Bovendien bestaat ‘het internet’ niet als een geheel; het is een lappendeken van netwerken. Op sommige netwerken kan het vol raken en op andere niet. Het hangt er net van af hoe de route van het dataverkeer loopt, of een applicatie daar last van heeft. Nieuwe videodiensten hebben bijvoorbeeld vaak een lokaal karakter en kunnen het daarom goed blijven doen, terwijl elders congestie optreedt.
De groei van het dataverkeer verloopt bovendien gradueel, niet schoksgewijs. De internetaanbieders zien aankomen wanneer hun systemen ‘vol’ dreigen te raken en hebben dan nog tijd om bij te bouwen.