Overslaan en naar de inhoud gaan

Wie heeft de meeste flops

"De Japanners hebben met de Earth Simulator drie jaar achter elkaar aan de kop van de ranglijst gestaan en dat feit op zich is al opmerkelijk", zegt Aad van der Steen, hoofd van de High Performance Computing Group van de Universiteit Utrecht. Voor Japan betekende de eerste plaats op de ranglijst een bevestiging van hun technologische hegemonie en de verdrijving van die toppositie door maar liefst twee Amerikaanse systemen moet dan ook als een klap in het gezicht hebben aangevoeld.
Business
Shutterstock
Shutterstock

De Earth Simulator, een speciaal door NEC ontwikkeld computersysteem om de klimaatbewegingen in de aardse atmosfeer te berekenen, heeft een verwerkingskracht van 35,8 teraflops (biljoen berekeningen met drijvende komma per seconde). Deze waarde ligt dicht aan tegen de theoretische piekwaarde van 40 teraflops van de computer. Het vermogen was lange tijd voldoende om gerieflijk op de eerste plaats van de ranglijst uit te komen, althans tot november vorig jaar toen de 24ste ranglijst werd gepubliceerd. De Earth Simulator was afgezakt naar plaats drie en voorbijgestreefd door de BlueGene/L van IBM met 70 teraflops en een Altix van SGI die goed is voor 51,8 teraflops. Die systemen worden overigens alleen maar sneller, doordat er processoren worden bijgeplaatst. Zo is de BlueGene/L die staat bij het Lawrence Livermore Laboratory voorzien van extra processoren waardoor het apparaat een kracht heeft van 135,2 teraflops, bijna een verdubbeling ten opzichte van de vorige uitvoering. Het Japanse systeem heeft die mogelijkheid niet, de architectuur is geheel vol- gebouwd. "Maar", zegt Van der Steen, "ze zitten natuurlijk niet stil. De Japanse regering heeft, samen met een aantal grote fabrikanten, plannen geopenbaard voor de bouw van een geheel nieuwe supersnelle computer, die de Earth Simulator ver in de schaduw zal stellen. Het duurt nog wel een paar jaar voordat zo’n systeem gereed is en het in de lijst kan worden opgenomen." De overheid in de Verenigde Staten beseft ook het belang van supersnelle computers en in maart van dit jaar werd een nieuwe wet aangenomen, de zogeheten High Performance Computing Revitalization Act. Het betreft een uitbreiding van een federaal programma uit 1991 dat tot doel had het gebruik van supercomputers te bevorderen. De wet biedt mogelijkheden om subsidiegelden door te sluizen naar projecten op het gebied van supercomputers. De Japanse overheid gaat voor zijn eigen plannen uit van een periode van minder dan 5 jaar, waarin een systeem tot stand moet komen met een kracht van 1 biljard berekeningen met drijvende komma per seconde (1000 teraflops). De nu snelste uitvoering van IBM’s BlueGene komt uit op een waarde van 135,5 teraflops. Het nieuwe systeem in Japan zou vooral ten goede moeten komen aan de medische wetenschap, bijvoorbeeld bij het doorrekenen van de manier waarop medicijnen worden opgenomen door het menselijk lichaam. De medische wetenschap weet wel ongeveer hoe een pil aan het werk gaat in een ziek lichaam, maar exacte kennis ontbreekt nog. Toch zouden die gegevens een zeer grote invloed kunnen hebben op het medicijngebruik. Overdoses zouden kunnen worden voorkomen. "We kunnen dan zien hoe een ingenomen medicijn werkt op een bepaald orgaan van de patiënt. Ook kan de vergrote rekenkracht zorgen voor betere weersvoorspellingen", aldus een woordvoerder van het ministerie van educatie, cultuur, sport, wetenschap en technologie. Er is nog niet bekend hoeveel geld de bouw van de nieuwe supercomputer gaat kosten. Het ministerie heeft inmiddels NEC, Hitachi en de universiteiten van Tokyo en Kyushu bij de onderneming betrokken. Er zijn nog gesprekken gaande met Fujitsu. Al deze partijen hebben hun sporen reeds verdiend op het gebied van high performance computing. De beide universiteiten gelden als grote gebruikers van supercomputers en zij ontwikkelen eigen applicaties voor de apparatuur. Daarbij is het zaak om zoveel mogelijk rekenkracht die een systeem bezit ook daadwerkelijk te gebruiken. "Dat kan soms moeilijk zijn", zegt Van der Steen, "want de hedendaagse supercomputers zijn wel heel erg snel, maar ze zijn niet echt efficiënt. De grote boosdoener hier is het verschil in snelheid tussen de processoren en het geheugen. Bij de logische chips wordt nog steeds keurig de wet van Moore gevolgd, wat er ruwweg op neerkomt dat de processoren elke 18 maanden tweemaal zo snel worden. Kijk je naar de snelheid van de geheugens, dan is de jaarlijkse snelheidswinst niet meer dan een procent of 6. De kloof tussen verwerking en opslag wordt daardoor steeds groter. De industrie heeft daar wel een antwoord op in de vorm van cache geheugens, maar die kunnen ook niet alle pijn wegnemen." Bouwers van supers willen hun apparatuur zo snel mogelijk maken en een onafhankelijke test moet bepalen wat de werkelijke snelheid van een computersysteem is. Voor dit doel hanteren de samenstellers van de lijst de zogeheten Linpack-test, een rekenmethode waar een groot aantal lineaire vergelijkingen moet worden opgelost. Dat vergt heel veel van de rekeneenheden met drijvende komma en het geeft een goede indicatie van de prestaties van een systeem. In de beginjaren van de lijst werd gebruik gemaakt van Linpack-100 en Linpack-1000, tests waarbij stelsels van 100 respectievelijk 1000 vergelijkingen met evenveel onbekende moesten worden opgelost. De hedendaagse computers zijn echter zo snel geworden, dat zo’n beperkte test niet zinvol meer is. Van der Steen: "Er wordt nu getest met veel grotere stelsels, kijk bijvoorbeeld naar de test van de BlueGene/L uit de vorige lijst, dat systeem heeft een stelsel van 933887 vergelijkingen met 933887 onbekenden opgelost. In feite is dat geen reële test meer, want in de dagelijkse praktijk kom je dergelijke grote stelsels niet tegen. Echte problemen hebben hooguit stelsels van 4000 bij 4000 die opgelost moeten worden. De samenstellers van de test geven ook ruiterlijk toe dat hun methode geen echte praktijktest is. Ze moeten dat trouwens bij iedere nieuwe lijst weer vertellen." In de Titanenstrijd tussen Japan en de VS raakt Europa eigenlijk wat op de achtergrond. Er is geen Europese fabrikant van supercomputers meer, hoewel ook in ons werelddeel de nodige snelle computers in gebruik zijn. Zo staat het snelste rekenmonster van Europa in Groningen. Het is het systeem dat de gegevens van de Lofar radiotelescoop moet verwerken en dat een verwerkingskracht heeft van 27,4 teraflops. De hardware is ontwikkeld door IBM en draagt de toepasselijke naam Stella. Het inwendige bevat 12.000 processoren van het type PowerPC. De chips zijn op een bijzondere manier geschakeld, waarover IBM geen details naar buiten wil brengen. Wel is bekend dat een deel van de architectuur identiek is aan die van de BlueGene supercomputer. Voor IBM is de BlueGene een basis voor de bouw van toekomstige ultrasnelle rekenmachines. Inmiddels heeft een bedrijf geheel voor eigen gebruik een BlueGene Watson gebouwd, genoemd naar de oprichter Thomas J. Watson. Het apparaat bevat twintig processorborden met op elk daarvan 1024 PowerPC-chips. De machine zal worden gebruikt voor het doen van onderzoek en heeft een verwerkingskracht van 91 teraflops. "Daarmee is de computer meteen het op één na snelste computersysteem ter wereld", liet IBM de wereld trots weten. In de laboratoria wordt al gewerkt aan een grotere broer van de BlueGene, die aan het eind van dit jaar klaar moet zijn en een rekenkracht van zo’n 360 teraflops moet krijgen. Supercomputers hebben in de ruwweg veertig jaar dat ze bestaan een hele evolutie doorgemaakt. In de begintijd waren de systemen gebouwd rond een geheel eigen processor, die vaak werd gekoeld met dure middelen zoals vloeibare stikstof. De exploitatie van een supercomputer was in de begintijd een dure aangelegenheid en alleen instituten met een dikke geldbuidel konden zich er een veroorloven. Daarnaast waren er grote bedrijven die voldoende geld konden vrijmaken om een eigen supercomputer aan te schaffen. Voorbeelden daarvan zijn oliemaatschappijen, die de apparatuur gebruikten om uit seismische gegevens te berekenen waar ze het beste naar olie of gas konden boren. Een eerste diversificatie in de architectuur trad op, toen zogeheten vectormachines op de markt kwamen. Die hadden de beschikking over een rekengedeelte waarmee bewerkingen konden worden uitgevoerd op zogeheten vectoren, dat wil zeggen groepen getallen. Het rekenwerk ging door die groepsgewijze aanpak een stuk sneller dan het rekenen met enkele getallen. Vooral de Japanse bouwers van supercomputers waren en zijn gecharmeerd van de vector-aanpak. De bouwers van snelle systemen probeerden op allerlei manieren om meer verwerkingskracht te creëren, wat werd bereikt door een groot aantal processoren toe te passen. Diverse methoden zijn gebruikt om de processoren aan elkaar te koppelen, waarbij de MPP, de massief parallelle processing het beste bleek te voldoen. Het ging dan om een verzameling processoren, elk met een eigen geheugen en elk met een eigen besturingssysteem. De interconnectie van de processorchips werd verzorgd door een uiterste snelle interne bekabeling. MPP bleek beter te voldoen dan Symmetric Multi Processing (SMP), een opzet waarbij alle processoren hetzelfde geheugen en hetzelfde besturingssysteem deelden. Wel was het zo dat een programma voor een SMP-architectuur eenvoudiger te schrijven was dan een MPP-applicatie. De MPP-gedachte is later uitgegroeid tot de clusteringtechniek, waarbij een aantal computersystemen via een uitwendig netwerk aan elkaar wordt gekoppeld tot één groot rekencomplex. Op basis van clustering zijn al zeer snelle systemen gebouwd, waaronder de onder Linux werkende Beowulf-clusters die bestaan uit eenvoudige pc’s. De cluster-techniek kan ook weer een stapje verder worden gebracht, en wel naar een Grid-omgeving. Daarin worden computers, die op grote afstand van elkaar mogen staan, via een netwerk aaneengesmeed tot een enkel complex. In de VS wordt al enkele jaren gewerkt aan het zogeheten Tera-Grid, een netwerkkoppeling tussen supercomputers in het land. De rekenkracht binnen het netwerk wordt ter beschikking gesteld aan studenten en wetenschappers. Deze week vindt in Edinburgh de Grid Performance Workshop plaats, waar wordt geleerd hoe het onderste uit de kan kan worden gehaald bij een grid-configuratie.

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in