Myten är motbevisad: ChatGPT-förfrågan förbrukar mindre än 1 W/h

Av: Nastya Bobkova | 13.02.2025, 02:32

ChatGPT har blivit en integrerad del av många användares arbetsflöden, men med dess popularitet har också oron för hög energiförbrukning ökat. En ny studie från Epoch AI motbevisar dock dessa farhågor.

Här är vad vi vet

Forskaren Joshua Yu beräknade att en enda fråga till ChatGPT (baserat på GPT-4o) förbrukar cirka 0,3 W/h, vilket är mycket mindre än vad som tidigare antagits. Som jämförelse trodde man tidigare att varje chatbotfråga förbrukade 3 W/h, men denna beräkning baserades på föråldrade data och mindre effektiv hårdvara.

Joshua noterar att

Joshua konstaterar att den här strömförbrukningen är mycket lägre än för de flesta hushållsapparater. Dessutom arbetar teknikföretagen aktivt för att förbättra energieffektiviteten hos artificiell intelligens. Nya generationer av AI-chip blir inte bara kraftfullare utan också mindre energikrävande.

Men i takt med att artificiell intelligens utvecklas blir också hårdvaran mer energieffektiv.

I takt med att AI utvecklas kommer dock elförbrukningen fortfarande att öka. Modeller som fokuserar på mer komplexa uppgifter kommer att kräva mer datorkraft, och framtida AI-agenter kommer att kunna utföra olika uppgifter på mänsklig nivå.

Det förväntas att framtida AI-agenter kommer att kunna arbeta på mänsklig nivå inom olika områden, vilket kommer att leda till en ökning av antalet datacenter och följaktligen en ökning av energiförbrukningen.

"AI kommer att fortsätta att utvecklas och dess utbildning kommer att kräva mer och mer resurser. I framtiden kommer dessa system att arbeta mycket mer intensivt och utföra mer komplexa uppgifter än de gör nu", avslutar forskaren.

Källa: Android Headlines