Code Llama från Meta ligger nära GPT-4 när det gäller noggrannhet vid kodgenerering

Av: Bohdan Kaminskyi | 30.01.2024, 20:34
Code Llama från Meta ligger nära GPT-4 när det gäller noggrannhet vid kodgenerering
Dima Solomin/Unsplash

Meta har uppdaterat sin stora språkmodell för kodgenerering Code Llama 70B. Enligt utvecklaren är dess noggrannhet nu nära OpenAI: s GPT-4.

Här är vad vi vet

Enligt Meta kan den uppdaterade Code Llama 70B hantera fler frågor och producera mer exakta resultat. Den fick 53% på noggrannhetsmåttet i HumanEval-testet. Som jämförelse har GPT-3.5 en poäng på 48,1 procent och GPT-4 har en poäng på 67 procent.

Meta's Code Llama hjälper programmerare att generera kodavsnitt baserat på tips och felsöka befintliga program. 70B-modellen tränades på 1 TB programmeringsrelaterad data. Den är gratis tillgänglig för forskning och företag.

Meta har tidigare introducerat de språkspecifika verktygen Code Llama Python och Code Llama Instruct. Nu säger företaget att dess AI-modeller visar "de bästa resultaten för att hjälpa utvecklare."

Källa: The Verge