{"id":1941,"date":"2024-05-14T10:23:02","date_gmt":"2024-05-14T10:23:02","guid":{"rendered":"https:\/\/howtogeek.blog\/no\/?p=1941"},"modified":"2024-05-14T10:23:02","modified_gmt":"2024-05-14T10:23:02","slug":"chatgpt-4o-is-incredibly-good-it-will-laugh-and-sing-with-you-on-a-video-chat-no","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/no\/chatgpt-4o-is-incredibly-good-it-will-laugh-and-sing-with-you-on-a-video-chat-no\/","title":{"rendered":"ChatGPT-4o er utrolig bra, den vil le og synge med deg &#8220;p\u00e5 en videochat&#8221;"},"content":{"rendered":"<p>Hvis du ventet spent p\u00e5 den siste v\u00e5roppdateringen fra OpenAI for ChatGPT og h\u00e5pet at selskapet ville gi ut GPT-5, ville du bli skuffet i s\u00e5 m\u00e5te. Men det OpenAI har gitt ut i stedet ville mer enn veie opp for det.<\/p>\n<p>Selskapet avduket nylig sin nyeste flaggskipmodell \u2013 GPT-4o \u2013 og det er et mesterverk innen menneskelig innovasjon. &#8216;o&#8217; i GPT-4o st\u00e5r for &#8220;omni&#8221;, og det er et passende nikk til ChatGPTs nyeste allestedsn\u00e6rv\u00e6rende evner. Selv om det ikke er mye forbedring i intelligens- og resonnementdelen i forhold til GPT-4-modellen, har den nye modellen drastiske forbedringer i hastighet og multimodalitet.<\/p>\n<p>Hva betyr det? GPT-4o har forbedrede funksjoner p\u00e5 tvers av tekst, tale og syn. Den kan forst\u00e5 og diskutere bilder bedre. Men den mest spennende delen med oppdateringen er dens evne til \u00e5 snakke med deg i sanntid over lyd og video, og f\u00f8re oss inn i fremtiden for menneske-maskin-interaksjon. De fleste av oss forestilte oss bare denne sci-fi-aktige interaksjonen med en AI langt nede i banen. Men det er her, og det er spennende.<\/p>\n<p>Mira Murati, CTO for OpenAI, sammen med to forskningsledere, viste frem de nye egenskapene til GPT-40.<\/p>\n<p>Stemmemodellen har en utrolig personlighet og tonalitet, som kan f\u00e5 deg til \u00e5 glemme (en stund) at du samhandler med en AI. Det er skremmende spennende. Svarene er mye mer naturlige, og den ler til og med og later til \u00e5 r\u00f8dme som et menneske.<\/p>\n<p>Demoen fremhevet ogs\u00e5 spekteret av f\u00f8lelser ChatGPT kan vise n\u00e5r det blir eksplisitt spurt: Mens han fortalte en historie, tilf\u00f8rte ChatGPT stemmen sin med flere f\u00f8lelser og drama, byttet til en robotlyd og sang til og med som om den var i en musikal, og den gjorde det alt s\u00f8ml\u00f8st.<\/p>\n<p>Mange brukere sier at stemmen minner dem om Scarlett Johanssons AI fra filmen &#8220;Her&#8221;, men spesielt er det den samme stemmen ChatGPT hadde tidligere. Hele forskjellen kommer fra endringene i tonalitet og noen velplasserte latter.<\/p>\n<p>N\u00e5r du kobler den sammen med dens evner til \u00e5 se og svare p\u00e5 innholdet p\u00e5 skjermen, er det direkte tankevekkende. Med sine nye visningsmuligheter kunne ChatGPT ikke bare forst\u00e5 ting som line\u00e6re ligninger, men det gjorde en ganske bra jobb med \u00e5 tolke omgivelsene s\u00e5 vel som f\u00f8lelsene i ansiktet til en person som ble vist til den ved hjelp av kameraet. Du kan n\u00e5 til og med spille stein-papir-saks og be ChatGPT om \u00e5 v\u00e6re dommeren eller ta intervjuforberedelsen med ChatGPT ett skritt videre ved \u00e5 be den om \u00e5 kritisere antrekket ditt, og det vil ikke skylle over eventuelle d\u00e5rlige valg du gj\u00f8r.<\/p>\n<p>Totalt sett er effekten bemerkelsesverdig og f\u00e5r deg nesten til \u00e5 tro at du samhandler med en ekte person over en videosamtale (hvis den andre personen holdt kameraet sitt av hele tiden, alts\u00e5).<\/p>\n<figure class=\"wp-block-image\"><\/figure>\n<p><a class=\"youtube_link_to_unwrap\" href=\"https:\/\/www.youtube.com\/watch?v=DQacCB9tDaw\" referrerpolicy=\"strict-origin-when-cross-origin\">https:\/\/www.youtube.com\/watch?v=DQacCB9tDaw<\/a><\/p>\n<p>Stemmemodellen er ogs\u00e5 totalt sett bedre enn den som er tilgjengelig for \u00f8yeblikket. Dialogen flyter mer som en naturlig samtale, hvor du kan avbryte den p\u00e5 midten, den kan forst\u00e5 og skille flere stemmer og bakgrunnsst\u00f8y, og tonen i stemmen.<\/p>\n<p>P\u00e5 et teknisk niv\u00e5 er det fordi GPT-4o kan gj\u00f8re alt naturlig som til n\u00e5 har krevd tre forskjellige modeller: transkripsjon, intelligens og tekst-til-tale. Disse forbedringene gir brukeren en mer oppslukende, samarbeidsopplevelse i stedet for ventetiden til de tidligere modellene.<\/p>\n<p>Mens tilgang til GPT-4o allerede begynner \u00e5 rulle ut til b\u00e5de gratis- og Plus-brukere i nettappen, vil den nye Voice Mode med GPT-4o bli lansert i alfa-kun for ChatGPT Plus-brukere i l\u00f8pet av de kommende ukene. En ny macOS ChatGPT-app blir ogs\u00e5 utgitt, med tilgang som rulles ut iterativt, fra ChatGPT Plus-brukere.<\/p>\n<p>Selv om demoen var ganske imponerende, m\u00e5 vi vente \u00e5 se om den virkelige applikasjonen vil v\u00e6re like jevn n\u00e5r modellen endelig slippes.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Hvis du ventet spent p\u00e5 den siste v\u00e5roppdateringen fra OpenAI for ChatGPT og h\u00e5pet at selskapet ville gi ut GPT-5, ville du bli skuffet i s\u00e5 m\u00e5te. Men det OpenAI har gitt ut i stedet ville mer enn veie opp for det. Selskapet avduket nylig sin nyeste flaggskipmodell \u2013 GPT-4o \u2013 og det er et [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[179,180,126],"class_list":["post-1941","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-chatgpt","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/1941","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/comments?post=1941"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/1941\/revisions"}],"predecessor-version":[{"id":1942,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/1941\/revisions\/1942"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/media?parent=1941"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/categories?post=1941"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/tags?post=1941"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}