{"id":1947,"date":"2024-05-14T10:52:53","date_gmt":"2024-05-14T10:52:53","guid":{"rendered":"https:\/\/howtogeek.blog\/no\/?p=1947"},"modified":"2024-05-14T10:52:53","modified_gmt":"2024-05-14T10:52:53","slug":"whats-new-in-chatgpt-with-gpt-4o-release-no","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/no\/whats-new-in-chatgpt-with-gpt-4o-release-no\/","title":{"rendered":"Hva er nytt i ChatGPT med GPT-4o-utgivelse?"},"content":{"rendered":"<p>OpenAI kunngjorde nylig sin GPT-4o-modell, en ny flaggskipmodell av motoren som driver ChatGPT, dens ber\u00f8mte AI-drevne chatbot f\u00f8rst utgitt i 2022. Denne nyere modellen tar menneske-datamaskin-interaksjon til et helt nytt niv\u00e5 ved \u00e5 f\u00e5 det til \u00e5 virke raskere og mye mer naturlig.<\/p>\n<p>I GPT-4o st\u00e5r &#8216;o&#8217; for &#8216;omni&#8217;, siden den kombinerer tekst, bilde og lyd til en enkelt modell. Selv om det ikke er noen forbedring i intelligens- og resonnementfronten i forhold til GPT-4 Turbo-modellen, er det mange nye oppdateringer. Den er designet for \u00e5 gi raskere, mer menneskelignende responser, og kan til og med simulere f\u00f8lelser. Den er ogs\u00e5 betydelig raskere til \u00e5 forst\u00e5 visuelle og lydinnganger. I dette dypdykket skal vi ta en titt p\u00e5 funksjonene som GPT-4o tilbyr, og hvordan det vil revolusjonere m\u00e5ten vi samhandler med AI-assistenter p\u00e5. S\u00e5 bli med oss, og la oss komme i gang!<\/p>\n<h2 id=\"gpt-4o-is-significantly-faster\">GPT-4o er betydelig raskere<\/h2>\n<p>GPT-4o-modellen lar ChatGPT akseptere input i ulike former, inkludert lyd, tekst, bilder eller kombinasjoner av dem. Det kan ogs\u00e5 gi svar i forskjellige formater. Det som er mest imponerende med det, er imidlertid hastigheten som det gir deg svar.<\/p>\n<p>Med den nye modellen tar ChatGPT bare rundt 320 millisekunder eller enda mindre \u00e5 svare p\u00e5 lydinnganger, som er n\u00e6r tiden en person bruker p\u00e5 \u00e5 svare i en samtale. Utenom dette er ytelsen til GPT-4o lik GPT-4 Turbo n\u00e5r det gjelder bruk av engelsk eller skrivekode.<\/p>\n<p>Den gj\u00f8r det ogs\u00e5 mye bedre n\u00e5r den svarer p\u00e5 tekstbasert inndata p\u00e5 ikke-engelske spr\u00e5k, og er betydelig billigere i API-en siden den er mye mer effektiv enn forgjengeren.<\/p>\n<p>Den har ogs\u00e5 et nytt grensesnitt, designet for \u00e5 gj\u00f8re interaksjon enklere og ryddigere.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"451\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/image-40-1.webp\" title=\"\" width=\"796\"\/><figcaption><span>Nytt grensesnitt for ChatGPT-4o.<\/span><\/figcaption><\/figure>\n<h2 id=\"it-is-multimodal\">Det er multimodalt<\/h2>\n<p>ChatGPTs eksisterende stemmemodus best\u00e5r av tre modeller. Den f\u00f8rste tar inn tekstbasert inndata og gir utdata i samme format, mens den andre konverterer lydinndata til tekst, som tas inn av ChatGPT for \u00e5 gi tekstbasert utgang. Den siste modellen konverterer tekst til lyd.<\/p>\n<p>Imidlertid resulterer dette designet i tap av informasjon siden modellen ikke kan samhandle direkte med lydinngangen eller n\u00e5v\u00e6rende utgang som har emosjonelle elementer. Med GPT-4o har OpenAI bygget en enkelt multimodal modell som kan forst\u00e5 ulike typer input og behandle den n\u00f8dvendige utgangen direkte.<\/p>\n<p>Den st\u00f8tter for \u00f8yeblikket 50 spr\u00e5k og vil ogs\u00e5 v\u00e6re tilgjengelig som en API.<\/p>\n<h2 id=\"it-can-simulate-human-emotions\">Det kan simulere menneskelige f\u00f8lelser<\/h2>\n<p>Da ChatGPT f\u00f8rst ble annonsert, var en av de st\u00f8rste ulempene med AI-chatboten for mange mennesker at den ikke kunne gi emosjonelle reaksjoner. Med GPT-4o kan ChatGPT simulere menneskelige f\u00f8lelser og gi passende svar som integrerer slike f\u00f8lelser.<\/p>\n<p>I demoene som deles av OpenAI, kan chatboten sees ler, synger og til og med vise sarkasme n\u00e5r han blir bedt om det. Dette er ligaer over hva enhver annen AI-chatbot kan gj\u00f8re for \u00f8yeblikket, og vil gj\u00f8re brukerinteraksjoner mye morsommere. I f\u00f8lge OpenAI vil den nye modellen tillate ChatGPT \u00e5 oppdage brukerens hum\u00f8r ogs\u00e5, og gi tilstrekkelige svar basert p\u00e5 den informasjonen.<\/p>\n<p>Kombinert med muligheten til \u00e5 bruke visuelle input, er muligheten til \u00e5 gi emosjonelle responser en av de mest imponerende funksjonene som den nye modellen tilbyr.<\/p>\n<h2 id=\"the-new-model-can-store-a-greater-amount-of-information\">Den nye modellen kan lagre en st\u00f8rre mengde informasjon<\/h2>\n<p>Takket v\u00e6re GPT-4o kan ChatGPT n\u00e5 forst\u00e5 bilder, som diagrammer og bilder bedre og ogs\u00e5 lagre mer informasjon om brukeren. Dette f\u00f8rer ogs\u00e5 til svar som kan inneholde st\u00f8rre tekstbiter, noe som kan v\u00e6re nyttig i flere brukstilfeller.<\/p>\n<p>Du kan for eksempel be chatboten om \u00e5 oversette st\u00f8rre tekststykker n\u00e5, og det kan hjelpe deg med live oversettelse. Siden den kan bruke visuelle og lydinnganger sammen med tekstbaserte, kan du bruke den til \u00e5 samle informasjon fra skjermbilder, bilder og andre bilder.<\/p>\n<p>Siden den kan lagre en st\u00f8rre mengde informasjon uten at brukerne trenger \u00e5 gjenta, lar GPT-4o brukere delta i frem-og-tilbake-samtaler med AI-chatboten. Med st\u00f8rre informasjon kan brukerne forvente at samtalene blir mer sofistikerte.<\/p>\n<h2 id=\"safeguards-in-the-new-model\">Sikkerhetstiltak i den nye modellen<\/h2>\n<p>I likhet med de eksisterende GPT-modellene er GPT-4o designet med visse sikkerhetstiltak i tankene for \u00e5 sikre sikkerhet. Treningsdataene er filtrert og hvordan modellen oppf\u00f8rer seg er finpusset etter trening. OpenAI har ogs\u00e5 evaluert AI-modellen p\u00e5 tvers av flere parametere, som cybersikkerhet og overtalelse, for \u00e5 unng\u00e5 u\u00f8nskede hendelser.<\/p>\n<p>Utover det tok utviklerne hjelp av over 70 eksperter p\u00e5 ulike felt som feilinformasjon og sosialpsykologi for \u00e5 identifisere og redusere risikoer som kan oppst\u00e5 eller \u00f8ke med den nye modellen. De vil ogs\u00e5 fortsette \u00e5 overv\u00e5ke bruken av chatboten for fremtidige risikoer og ta de n\u00f8dvendige handlingene n\u00e5r og n\u00e5r det er n\u00f8dvendig.<\/p>\n<p>Til \u00e5 begynne med vil OpenAI bare gj\u00f8re tilgjengelig et begrenset utvalg av forh\u00e5ndsinnstillinger for stemmemodeller. Den vil ogs\u00e5 ta hensyn til tilbakemeldinger fra brukeren for \u00e5 forbedre modellen og sikre full sikkerhet.<\/p>\n<h2 id=\"gpt-4o-availability\">GPT-4o Tilgjengelighet<\/h2>\n<p>Til n\u00e5 var det to versjoner av ChatGPT tilgjengelig \u2013 en gratisversjon som kj\u00f8rer p\u00e5 GPT 3.5 og en betalt versjon som kj\u00f8rte p\u00e5 GPT 4.0 og koster $20 per m\u00e5ned. Sistnevnte kan f\u00e5 tilgang til en st\u00f8rre spr\u00e5kmodell som lar den h\u00e5ndtere st\u00f8rre mengder data.<\/p>\n<p>GPT-4o vil v\u00e6re tilgjengelig for b\u00e5de gratis og betalte brukere og forventes \u00e5 rulle ut til enheter i l\u00f8pet av de kommende ukene. Den vil v\u00e6re tilgjengelig p\u00e5 mobile enheter gjennom den eksisterende appen, som vil bli oppdatert, og en ny macOS desktop-app vil ogs\u00e5 v\u00e6re tilgjengelig i tillegg til nettversjonen for stasjon\u00e6re brukere (Windows-versjonen kommer senere i \u00e5r).<\/p>\n<p>For \u00e5 skille mellom gratis og betalte brukere, vil OpenAI tilby betalte brukere fem ganger mer kapasitet enn det som vil bli tilbudt gratisbrukere. N\u00e5r du g\u00e5r tom for grensen din, vil du bli byttet tilbake til ChatGPT 3.5.<\/p>\n<p>OpenAIs kunngj\u00f8ring ang\u00e5ende GPT-40 kommer bare \u00e9n dag f\u00f8r Googles \u00e5rlige I\/O-utviklerkonferanse, hvor Google forventes \u00e5 komme med sine egne AI-relaterte kunngj\u00f8ringer. OpenAI har ogs\u00e5 lovet at flere kunngj\u00f8ringer er p\u00e5 vei, s\u00e5 det er ingen tvil om at konkurransen mellom de to rivalene s\u00e5 vidt begynner \u00e5 bli varmere.<\/p>\n<p>Selv om vi ikke vet n\u00e5r OpenAI vil avsl\u00f8re flere endringer i AI-modellen, vet vi at GPT-4o er p\u00e5 vei til enheter som kj\u00f8rer ChatGPT globalt. S\u00e5, kryss fingrene og vent til oppdateringen vises p\u00e5 enheten din. Til neste gang!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>OpenAI kunngjorde nylig sin GPT-4o-modell, en ny flaggskipmodell av motoren som driver ChatGPT, dens ber\u00f8mte AI-drevne chatbot f\u00f8rst utgitt i 2022. Denne nyere modellen tar menneske-datamaskin-interaksjon til et helt nytt niv\u00e5 ved \u00e5 f\u00e5 det til \u00e5 virke raskere og mye mer naturlig. I GPT-4o st\u00e5r &#8216;o&#8217; for &#8216;omni&#8217;, siden den kombinerer tekst, bilde og [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[179,180,126],"class_list":["post-1947","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-chatgpt","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/1947","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/comments?post=1947"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/1947\/revisions"}],"predecessor-version":[{"id":1948,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/1947\/revisions\/1948"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/media?parent=1947"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/categories?post=1947"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/tags?post=1947"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}