'Twee nieuwe kerncentrales nodig om AI volgend jaar te kunnen gebruiken'
Meta-directeur generatieve AI Sergey Edunov ziet het groeiend energieverbruik door generatieve AI niet als een wezenlijk probleem. Alles wat er nodig is om wereldwijd een jaar lang gebruik te maken van AI-toepassingen, zijn twee extra kerncentrales.
Het gaat uitsluitend om het gebruik van AI-toepassingen, in jargon ook wel inference genoemd. Het energieverbruik voor het trainen van nieuwe modellen - een energieslurpende activiteit van een andere orde - is geen onderdeel van de berekening. Edunov deed zijn uitspraak tijdens een Digital Workers Forum in Silicon Valley, waar Matt Marshall, oprichter en CEO van Venturebeat moderator was en over schrijft.
Edunov, die onder meer verantwoordelijk is voor de ontwikkelingen aan het Llama2-project bij Meta, zei dat zijn berekeningen zijn gemaakt op de achterkant van een bierviltje maar in zijn ogen wel een goede indicatie geven. Hij ziet de groeiende energieconsumptie door het AI-gebruik niet als een groot probleem. "Wij kunnen dit probleem zeker aan", voegde hij toe.
Trainen van nieuwe LLM's heeft andere uitdaging
Het grootste probleem bij training ziet hij in de beschikbaarheid van data. Voor het trainen van bijvoorbeeld de opvolger van GPT4 zijn tien keer zo veel 'tokens' nodig, ofwel lettergrepen of hele woorden, afhankelijk van hoe het LLM is ontworpen, stelde hij. Het gaat om ongeveer 200 biljoen (duizend miljard) tokens. Er zijn waarschijnlijk niet voldoende publiek beschikbare data om dat voor elkaar te krijgen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee