Supercomputer zet Hadoop aan het werk
Vooral Hadoop MapReduce brengt een aantal grote voordelen bij het verwerken van grote datasets op een supercomputer. In de traditionele supercomputeropzet spelen hiërarchische bestandsformaten en bibliotheken (libraries) een belangrijke rol bij het optimaliseren van zo hoog mogelijke input-outputprestaties. Hadoop kan hiermee niet goed overweg.
Daarnaast zijn ook de datastromen bij het kraken van wetenschappelijke getallen-verzamelingen vaak complexer, waarbij analyses en berekeningen met elkaar verweven zijn. Daar is Hadoop evenmin op ingericht.
Cray heeft met Framework for Hadoop en Perfomance Pack foor Hadoop heeft Cray deze problemen aangepakt. De gereedschappen komen in begin 2014 beschikbaar.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee