OpenAI släpper gratis ChatGPT-4o som kan prata, skratta, sjunga och se
Tänk på att han kommer att kunna förstå att du ljuger
Den 13 maj tillkännagav OpenAI lanseringen av en ny version av ChatGPT-4o, som enligt dem "kommer att göra interaktionen mellan människa och dator ett steg mer naturlig". Det nya neurala nätverket accepterar alla kombinationer av text, ljud och bilder och genererar svar i alla dessa format. Enligt företaget känner AI:n igen känslor, kan avbryta mitt i en mening och svarar nästan lika snabbt som en människa.
Säg hej till GPT-4o, vår nya flaggskeppsmodell som kan resonera över ljud, vision och text i realtid: https://t.co/MYHZB79UqN
- OpenAI (@OpenAI) 13 maj 2024
Text- och bildinmatning rullar ut idag i API och ChatGPT med röst och video under de kommande veckorna. pic.twitter.com/uuthKZyzYx
Bokstaven "o" i ChatGPT-4o:s namn efterliknar inte bara 40, utan står också för omni, vilket betyder allomfattande eller allätande. CTO för OpenAI Mira Murati uppgav att ChatGpt-4o kommer att vara en artificiell intelligens på ChatGPT-4-nivå för alla, även användare utan en betald prenumeration.
Vid presentationen löste ChatGPT-4o en linjär ekvation skriven på papper och gav även tips om djupandning genom att helt enkelt lyssna på andningsljud.
De tidigare språkmodellerna ChatGpt-3.5 och ChatGPT-4 kunde också kommunicera via röst, men för detta ändamål översattes rösten först till text och bearbetades sedan. Med andra ord, först bearbetade ett neuralt nätverk rösten och sedan ett annat bearbetade texten. Nu bearbetar samma neurala nätverk både ljudet och den information som det bär på. Med det här tillvägagångssättet försöker OpenAI få fram mer sammanhang från det tillgängliga materialet, till exempel samtalspartnerns känslomässiga tillstånd. Det går också mycket snabbare.