{"id":2041,"date":"2024-05-14T10:23:18","date_gmt":"2024-05-14T10:23:18","guid":{"rendered":"https:\/\/howtogeek.blog\/da\/?p=2041"},"modified":"2024-05-14T10:23:18","modified_gmt":"2024-05-14T10:23:18","slug":"chatgpt-4o-is-incredibly-good-it-will-laugh-and-sing-with-you-on-a-video-chat-da","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/da\/chatgpt-4o-is-incredibly-good-it-will-laugh-and-sing-with-you-on-a-video-chat-da\/","title":{"rendered":"ChatGPT-4o er utrolig god, den vil grine og synge med dig &#8220;p\u00e5 en videochat&#8221;"},"content":{"rendered":"<p>Hvis du sp\u00e6ndt ventede p\u00e5 den seneste for\u00e5rsopdatering fra OpenAI til ChatGPT og h\u00e5bede p\u00e5, at virksomheden ville frigive GPT-5, ville du blive skuffet i den henseende. Men det, OpenAI har udgivet i stedet, ville mere end opveje det.<\/p>\n<p>Virksomheden afsl\u00f8rede for nylig sin nyeste flagskibsmodel \u2013 GPT-4o \u2013 og det er et mesterv\u00e6rk af menneskelig innovation. &#8216;o&#8217;et i GPT-4o st\u00e5r for &#8220;omni&#8221;, og det er et passende nik til ChatGPTs nyeste allestedsn\u00e6rv\u00e6rende muligheder. Selvom der ikke er meget forbedring i intelligens- og r\u00e6sonnement-delen i forhold til GPT-4-modellen, byder den nye model p\u00e5 drastiske forbedringer i hastighed og multimodalitet.<\/p>\n<p>Hvad betyder det? GPT-4o har forbedrede funktioner p\u00e5 tv\u00e6rs af tekst, stemme og syn. Det kan bedre forst\u00e5 og diskutere billeder. Men den mest sp\u00e6ndende del ved opdateringen er dens evne til at tale med dig i realtid over lyd og video, hvilket f\u00f8rer os ind i fremtiden for menneske-maskine-interaktion. De fleste af os forestillede os kun denne sci-fi-agtige interaktion med en kunstig intelligens langt nede ad banen. Men det er her, og det er sp\u00e6ndende.<\/p>\n<p>Mira Murati, CTO for OpenAI, viste sammen med to forskningsledere de nye muligheder i GPT-40.<\/p>\n<p>Stemmemodellen har en utrolig personlighed og tonalitet, der er i stand til at f\u00e5 dig til at glemme (i et stykke tid), at du interagerer med en AI. Det er uhyggeligt sp\u00e6ndende. Svarene er meget mere naturlige, og den griner endda og lader som om den r\u00f8dmer som et menneske.<\/p>\n<p>Demoen fremh\u00e6vede ogs\u00e5 r\u00e6kken af \u200b\u200bf\u00f8lelser, ChatGPT kan vise, n\u00e5r de udtrykkeligt bliver spurgt: Mens ChatGPT fortalte en historie, indsugede ChatGPT sin stemme med flere f\u00f8lelser og drama, skiftede til en robotlyd og sang endda, som det var i en musical, og det gjorde det alt sammen problemfrit.<\/p>\n<p>Mange brugere siger, at stemmen minder dem om Scarlett Johanssons AI fra filmen &#8220;Her&#8221;, men det er is\u00e6r den samme stemme, som ChatGPT havde tidligere. Hele forskellen kommer fra \u00e6ndringerne i tonalitet og nogle velplacerede grin.<\/p>\n<p>N\u00e5r du parrer det med dets evner til at se og reagere p\u00e5 indholdet p\u00e5 sk\u00e6rmen, er det direkte mindblowing. Med sine nye visningsmuligheder kunne ChatGPT ikke kun forst\u00e5 ting som line\u00e6re ligninger, men det gjorde et temmelig knaldgodt arbejde med at fortolke omgivelserne s\u00e5vel som f\u00f8lelserne i en persons ansigt, der blev vist til den ved hj\u00e6lp af kameraet. Du kan nu endda spille sten-papir-saks og bede ChatGPT om at v\u00e6re dommeren eller tage interviewforberedelsen med ChatGPT et skridt videre ved at bede den om at kritisere dit outfit, og det vil ikke skylle over eventuelle d\u00e5rlige valg, du tr\u00e6ffer.<\/p>\n<p>Samlet set er effekten bem\u00e6rkelsesv\u00e6rdig og f\u00e5r dig n\u00e6sten til at tro, at du interagerer med en rigtig person over et videoopkald (hvis den anden person holdt sit kamera slukket hele tiden, alts\u00e5).<\/p>\n<figure class=\"wp-block-image\"><\/figure>\n<p><a class=\"youtube_link_to_unwrap\" href=\"https:\/\/www.youtube.com\/watch?v=DQacCB9tDaw\" referrerpolicy=\"strict-origin-when-cross-origin\">https:\/\/www.youtube.com\/watch?v=DQacCB9tDaw<\/a><\/p>\n<p>Stemmemodellen er ogs\u00e5 generelt bedre end den, der er tilg\u00e6ngelig i \u00f8jeblikket. Dialogen flyder mere som en naturlig samtale, hvor du kan afbryde den p\u00e5 midten, den kan forst\u00e5 og skelne flere stemmer og baggrundsst\u00f8j, og tonen i stemmen.<\/p>\n<p>P\u00e5 et teknisk plan er det, fordi GPT-4o kan g\u00f8re alt native, der indtil nu har kr\u00e6vet tre forskellige modeller: Transskription, Intelligence og Text-to-Speech. Disse forbedringer giver brugeren en mere fordybende, samarbejdsoplevelse i stedet for forsinkelserne fra de tidligere modeller.<\/p>\n<p>Mens adgangen til GPT-4o allerede er begyndt at rulle ud til b\u00e5de gratis- og Plus-brugere i webappen, vil den nye Voice Mode med GPT-4o kun blive lanceret i alfa for ChatGPT Plus-brugere i de kommende uger. En ny macOS ChatGPT-app frigives ogs\u00e5, med adgang, der udrulles iterativt, startende fra ChatGPT Plus-brugere.<\/p>\n<p>Selvom demoen var ret imponerende, m\u00e5 vi vente for at se, om den virkelige applikation vil v\u00e6re lige s\u00e5 glat, n\u00e5r modellen endelig udgives.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Hvis du sp\u00e6ndt ventede p\u00e5 den seneste for\u00e5rsopdatering fra OpenAI til ChatGPT og h\u00e5bede p\u00e5, at virksomheden ville frigive GPT-5, ville du blive skuffet i den henseende. Men det, OpenAI har udgivet i stedet, ville mere end opveje det. Virksomheden afsl\u00f8rede for nylig sin nyeste flagskibsmodel \u2013 GPT-4o \u2013 og det er et mesterv\u00e6rk af [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,183,130],"class_list":["post-2041","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-chatgpt","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2041","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/comments?post=2041"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2041\/revisions"}],"predecessor-version":[{"id":2042,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2041\/revisions\/2042"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/media?parent=2041"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/categories?post=2041"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/tags?post=2041"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}