Ray-Ban Meta stöder nu liveöversättning - Meta förbereder live AI-funktion

Av: Nastya Bobkova | 24.04.2025, 09:39
Meta's Ray-Ban smarta glasögon stöder nu liveöversättning: vad blir nästa? Alla användare av Ray-Ban Meta-glasögon har fått Liveöversättning, Live AI kommer att läggas till snart. Källa: Meta

Meta har meddelat lanseringen av en liveöversättningsfunktion för alla användare av Ray-Ban Meta smarta glasögon. Denna funktion var tidigare endast tillgänglig i betatestning.

Vad vi vet

Funktionen stöder översättning till engelska, franska, italienska och spanska. Den fungerar i realtid under en konversation och kräver ingen Wi-Fi eller mobilanslutning om språkpaketet laddas ner i förväg. För att aktivera det, säg bara: "Hej Meta, starta liveöversättning".

Så här fungerar det

Under konversationen hör användaren översättningen av vad som sägs på det valda språket genom högtalarna i glasögonen, och textöversättningen visas på smartphonen. Detta är bekvämt för att resa, studera eller arbeta med utländska.

Företaget planerar snart att lägga till en annan funktion - Live AI. Det kommer att göra det möjligt för glasögonen att "se" vad användaren ser genom den inbyggda kameran och ge kontextuella tips. Till exempel, under matlagning, promenader eller trädgårdsarbete, kommer glasögonen att kunna svara på frågor utan aktiveringsord och med hänsyn till tidigare förfrågningar.

Apple ryktas också överväga idén att skapa sina egna smarta glasögon med AI, mikrofoner och kameror - liknande Meta.

Meta har nyligen lanserat annonser på Threads i mer än 30 länder. Enligt Mosseri är målet med att införa annonser att "förbättra den övergripande användarupplevelsen." Annonsenheten kommer att dyka upp i flödet mellan inlägg, först i utvalda regioner och senare i de flesta länder där Threads-plattformen är tillgänglig.

Källa: Meta