OpenAI lanserer den nye GPT-4o: Snart tilgjengelig for alle

OpenAI lanserer den nye GPT-4o: Snart tilgjengelig for alle

Lesetid: 3 min.

  • Andrea Miliani

    Skrevet av: Andrea Miliani Teknisk forfatter

  • Lokaliserings- og oversettelsesteamet

    Oversatt av Lokaliserings- og oversettelsesteamet lokaliserings- og oversettelsestjenester

OpenAI avslørte en ny, mer avansert ChatGPT-modell kalt GPT-4o under det direktesendte arrangementet OpenAI Spring Update mandag kveld. Den nye GPT-4o er raskere enn GPT-4 og kan behandle tekst, lyd og bilder samtidig – den kan i hovedsak «se» gjennom enhetens kamera.

I løpet av den 26 minutter lange direktesendingen viste OpenAIs team de nye funksjonene og egenskapene til den nye modellen i sanntid. De delte også detaljer om kommende oppdateringer for tidligere versjoner, som den nye PC-appen.

«Den store nyheten i dag er at vi lanserer vår nye flaggskipmodell og vi kaller den ChatGPT-4o,» sa Mira Murati, Teknologidirektør ved OpenAI.

Murati forklarte at den nye modellen og de nye funksjonene for tidligere versjoner snart vil være gratis og for alle, inkludert ikke-registrerte brukere. «Vi kommer til å rulle dem ut i løpet av de neste ukene,» sa Murati.

Under den første demonstrasjonen viste OpenAIs team hvordan GPT-4o kan holde samtaler med en kvinnestemme. Den kan avbrytes, svare raskt og kreativt, svar med humor og til og med gjenkjenne følelser og gi råd.

Senere presenterte teamet ulike scenarier der GPT-4o kan brukes. De viser hvordan den kan bruke «syn»-funksjonen til å hjelpe med å løse lineære ligninger skrevet på papir, forstå programkode og grafikk ved å dele skjermen gjennom PC-versjonen, og oversette i sanntid i virkelige samtaler. GPT-4o kan snakke på flere språk og med forskjellige toner og stemmestiler.

Til slutt viste ekspertene hvordan den klarer å gjenkjenne menneskelige følelser, og også gjøre feil. Gjennom demoene gjorde GPT-4o feil flere ganger. Den tok feil av en av programlederne og et bilde av et tre, og trodde at et matematikkproblem allerede var løst selv om teammedlemmet ikke hadde vist det frem ennå.

Men GPT-4o ba raskt om unnskyldning og sjarmerte publikum med svarene sine. «Å, slutt med det, du får meg til å rødme!» svarte den da en av forskningslederne, Barret Zoph, fortalte GPT-4o hvor mye de beundret den.

Responsene på GPT-4o

OpenAI delte flere korte videoer på X for å demonstrere de forskjellige funksjonene ved den nye GPT-4o-modellen.

Flere personer på X assosierte den med filmen Her, der hovedpersonen Theodore Twombly, spilt av Joaquin Phoenix, forelsker seg i en virtuell AI-assistent med Scarlett Johansons stemme. «Dette er galskap, og da jeg så disse klippene, husket jeg umiddelbart denne filmen!» skrev en bruker. «Dette er bokstavelig talt Scarlett Johansson. Hvordan?!», skrev en annen.

Mens de fleste brukere var imponert over de nye funksjonene, delte andre kritikk og bekymringer. «Kjære @openai, demoen din var superimponerende og skummel, men den italienske aksenten var forferdelig :),» skrev Massimo Banzi, medgründer i robotautomatiseringsprosjektet Arduino.

«Helt utmerket, men jeg vil si at jeg tror dere kan miste mange betalende brukere hvis det bare er bruksgrensen som er forskjellig fra gratisversjonen,» sa en annen bruker.

I løpet av de neste dagene vil den nye modellen og oppdateringene være tilgjengelige for flere, slik at de kan teste og oppleve teknologien på egen hånd.

Likte du denne artikkelen? Like den!
Jeg misikte den sterkt Jeg likte den ikke Den var helt grei Den var bra! Den var kjempebra! Elsket den!
5.00 Stem på av 1
Tittel
Kommentar
Tusen takk for tilbakemeldingen
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Legg igjen en kommentar

Vis mer...