Vierde generatie Tensor Processing Units versnelt AI-taken bijna factor 3
Machine learning werkt het best op processoren die heel veel taken parallel kunnen uitvoeren. Grafische chips (GPU's) - aanvankelijk ontworpen als toegevoegde chip om de informatie van de centrale processor (CPU) zo goed mogelijk op het beeldscherm te krijgen - zijn daar uitermate goed in. GPU-specialist Nvidia spint al enkele jaren garen bij deze ontwikkeling.
Maar het kan nog beter, liet Google zien die voor eigen gebruik gespecialiseerde chips ontwikkelde, de zogeheten Tensor Processing Units. De vierde generatie TPU's komen tot een verdubbeling van het aantal FLOPS (floating-point operations per second) ten opzichte van de derde generatie die in 2018 werd aangekondigd. In combinatie met een verbetering van de interconnect-technologie - waardoor het geheugen efficiënter kan worden aangeroepen - claimt Google dat de nieuwe TPU's 2,7 keer zo snel zijn als de derde generatie, op basis van een vergelijkbare 64 chips-opstelling, getest in een MLPerf benchmark.
In de blog waarin Naveen Kumar - AI software engineer bij Google - de resultaten van de benchmark bespreekt, benadrukt hij nog eens het belang van het ontwikkelen van steeds snellere methoden voor machine learning. "Die zijn essentieel voor onderzoeks- en ontwikkelteams die werken aan producten, diensten en onderzoeksdoorbraken die tot voor kort buiten bereik lagen."
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee