{"id":2047,"date":"2024-05-14T10:53:13","date_gmt":"2024-05-14T10:53:13","guid":{"rendered":"https:\/\/howtogeek.blog\/da\/?p=2047"},"modified":"2024-05-14T10:53:13","modified_gmt":"2024-05-14T10:53:13","slug":"whats-new-in-chatgpt-with-gpt-4o-release-da","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/da\/whats-new-in-chatgpt-with-gpt-4o-release-da\/","title":{"rendered":"Hvad er nyt i ChatGPT med GPT-4o-udgivelsen?"},"content":{"rendered":"<p>OpenAI annoncerede for nylig sin GPT-4o-model, en ny flagskibsmodel af motoren, der driver ChatGPT, dens ber\u00f8mte AI-drevne chatbot udgivet f\u00f8rste gang i 2022. Denne nyere model tager menneske-computer-interaktion til et helt nyt niveau ved at f\u00e5 det til at virke hurtigere og meget mere naturligt.<\/p>\n<p>I GPT-4o st\u00e5r &#8216;o&#8217; for &#8216;omni&#8217;, da det kombinerer tekst, billede og lyd til en enkelt model. Selvom der ikke er nogen forbedring i intelligens- og r\u00e6sonnementfronten i forhold til GPT-4 Turbo-modellen, er der masser af nye opdateringer. Det er designet til at give hurtigere, mere menneskeligt klingende svar og kan endda simulere f\u00f8lelser. Det er ogs\u00e5 betydeligt hurtigere til at forst\u00e5 visuelle og lydinput. I dette dybe dyk vil vi tage et kig p\u00e5 de funktioner, som GPT-4o tilbyder, og hvordan det vil revolutionere den m\u00e5de, vi interagerer med AI-assistenter p\u00e5. S\u00e5 slutt dig til os, og lad os komme i gang!<\/p>\n<h2 id=\"gpt-4o-is-significantly-faster\">GPT-4o er v\u00e6sentligt hurtigere<\/h2>\n<p>GPT-4o-modellen tillader ChatGPT at acceptere input i forskellige former, herunder lyd, tekst, billeder eller deres kombinationer. Det kan ogs\u00e5 give svar i forskellige formater. Det, der dog er mest imponerende ved det, er den hastighed, hvormed det giver dig svar.<\/p>\n<p>Med den nye model tager ChatGPT lige omkring 320 millisekunder eller endnu mindre at reagere p\u00e5 lydinput, hvilket er t\u00e6t p\u00e5 den tid, det tager en person at svare i en samtale. Udover dette ligner ydeevnen af \u200b\u200bGPT-4o GPT-4 Turbo, hvad ang\u00e5r brugen af \u200b\u200bengelsk eller skrivning af kode.<\/p>\n<p>Den klarer sig ogs\u00e5 meget bedre, n\u00e5r den reagerer p\u00e5 tekstbaseret input p\u00e5 ikke-engelske sprog, og den er betydeligt billigere i API&#8217;en, da den er meget mere effektiv end sin forg\u00e6nger.<\/p>\n<p>Den har ogs\u00e5 en ny gr\u00e6nseflade, designet til at g\u00f8re interaktion lettere og p\u00e6nere.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"451\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/image-40-1.webp\" title=\"\" width=\"796\"\/><figcaption><span>Ny gr\u00e6nseflade til ChatGPT-4o.<\/span><\/figcaption><\/figure>\n<h2 id=\"it-is-multimodal\">Det er multimodalt<\/h2>\n<p>ChatGPTs eksisterende Voice Mode best\u00e5r af tre modeller. Den f\u00f8rste tager tekstbaseret input og leverer output i samme format, mens den anden konverterer lydinput til tekst, som tages ind af ChatGPT for at give tekstbaseret output. Den sidste model konverterer tekst til lyd.<\/p>\n<p>Dette design resulterer dog i et tab af information, da modellen ikke kan interagere direkte med lydinput eller nuv\u00e6rende output, der har f\u00f8lelsesm\u00e6ssige elementer. Med GPT-4o har OpenAI bygget en enkelt multimodal model, der kan forst\u00e5 forskellige typer input og behandle det n\u00f8dvendige output direkte.<\/p>\n<p>Den underst\u00f8tter i \u00f8jeblikket 50 sprog og vil ogs\u00e5 v\u00e6re tilg\u00e6ngelig som en API.<\/p>\n<h2 id=\"it-can-simulate-human-emotions\">Det kan simulere menneskelige f\u00f8lelser<\/h2>\n<p>Da ChatGPT f\u00f8rst blev annonceret, var en af \u200b\u200bde st\u00f8rste ulemper ved AI-chatbot for mange mennesker, at den ikke kunne give f\u00f8lelsesm\u00e6ssige reaktioner. Med GPT-4o kan ChatGPT simulere menneskelige f\u00f8lelser og give passende svar, der integrerer s\u00e5danne f\u00f8lelser.<\/p>\n<p>I de demoer, der deles af OpenAI, kan chatbotten ses grine, synge og endda vise sarkasme, n\u00e5r han bliver bedt om det. Dette er ligaer over, hvad enhver anden AI-chatbot kan g\u00f8re i \u00f8jeblikket og vil g\u00f8re brugerinteraktioner meget mere behagelige. If\u00f8lge OpenAI vil den nye model ogs\u00e5 give ChatGPT mulighed for at registrere brugerens hum\u00f8r og give passende svar baseret p\u00e5 denne information.<\/p>\n<p>Kombineret med evnen til at bruge visuelle input er evnen til at give f\u00f8lelsesm\u00e6ssige reaktioner en af \u200b\u200bde mest imponerende funktioner, som den nye model tilbyder.<\/p>\n<h2 id=\"the-new-model-can-store-a-greater-amount-of-information\">Den nye model kan gemme en st\u00f8rre m\u00e6ngde information<\/h2>\n<p>Takket v\u00e6re GPT-4o kan ChatGPT nu bedre forst\u00e5 billeder, s\u00e5som diagrammer og fotos, og ogs\u00e5 gemme flere oplysninger om brugeren. Dette udm\u00f8nter sig ogs\u00e5 i svar, der kan indeholde st\u00f8rre stykker tekst, hvilket kan v\u00e6re praktisk i flere tilf\u00e6lde.<\/p>\n<p>For eksempel kan du bede chatbotten om at overs\u00e6tte st\u00f8rre stykker tekst nu, og det kan hj\u00e6lpe dig med liveovers\u00e6ttelse. Da det kan bruge visuelle og lydinput sammen med tekstbaserede, kan du bruge det til at indsamle oplysninger fra sk\u00e6rmbilleder, fotos og andre billeder.<\/p>\n<p>Da den kan gemme en st\u00f8rre m\u00e6ngde information, uden at brugerne beh\u00f8ver at gentage dem, giver GPT-4o brugere mulighed for at deltage i frem-og-tilbage-samtaler med AI-chatbot. Med st\u00f8rre information kan brugerne forvente, at samtalerne bliver mere sofistikerede.<\/p>\n<h2 id=\"safeguards-in-the-new-model\">Sikkerhedsforanstaltninger i den nye model<\/h2>\n<p>Ligesom de eksisterende GPT-modeller er GPT-4o designet med visse sikkerhedsforanstaltninger for \u00f8je for at sikre sikkerheden. Tr\u00e6ningsdataene er blevet filtreret, og hvordan modellen opf\u00f8rer sig er blevet forfinet efter tr\u00e6ning. OpenAI har ogs\u00e5 evalueret AI-modellen p\u00e5 tv\u00e6rs af flere parametre, s\u00e5som cybersikkerhed og overtalelse, for at undg\u00e5 u\u00f8nskede h\u00e6ndelser.<\/p>\n<p>Udover det tog udviklerne hj\u00e6lp fra over 70 eksperter inden for forskellige omr\u00e5der som misinformation og socialpsykologi for at identificere og afb\u00f8de risici, der kunne opst\u00e5 eller \u00f8ges med den nye model. De vil ogs\u00e5 forts\u00e6tte med at overv\u00e5ge brugen af \u200b\u200bchatbot for fremtidige risici og tage de n\u00f8dvendige handlinger, n\u00e5r og n\u00e5r det er n\u00f8dvendigt.<\/p>\n<p>Til at begynde med vil OpenAI kun stille et begr\u00e6nset udvalg af forudindstillinger til stemmemodeller til r\u00e5dighed. Den vil ogs\u00e5 tage h\u00f8jde for brugergivet feedback for at forbedre modellen og sikre fuldst\u00e6ndig sikkerhed.<\/p>\n<h2 id=\"gpt-4o-availability\">GPT-4o tilg\u00e6ngelighed<\/h2>\n<p>Indtil nu har der v\u00e6ret to versioner af ChatGPT tilg\u00e6ngelige \u2013 en gratis version, der k\u00f8rer p\u00e5 GPT 3.5 og en betalt version, der k\u00f8rte p\u00e5 GPT 4.0 og koster $20 pr. m\u00e5ned. Sidstn\u00e6vnte kan f\u00e5 adgang til en st\u00f8rre sprogmodel, s\u00e5 den kan h\u00e5ndtere st\u00f8rre m\u00e6ngder data.<\/p>\n<p>GPT-4o vil v\u00e6re tilg\u00e6ngelig for b\u00e5de gratis og betalte brugere og forventes at blive udrullet til enheder i de kommende uger. Den vil v\u00e6re tilg\u00e6ngelig p\u00e5 mobile enheder gennem den eksisterende app, som vil blive opdateret, og en ny macOS desktop-app vil ogs\u00e5 v\u00e6re tilg\u00e6ngelig udover webversionen for desktop-brugere (Windows-versionen kommer senere i \u00e5r).<\/p>\n<p>For at skelne mellem gratis og betalte brugere vil OpenAI tilbyde betalte brugere fem gange mere kapacitet end hvad der tilbydes gratis brugere. N\u00e5r du l\u00f8ber t\u00f8r for din gr\u00e6nse, vil du blive skiftet tilbage til ChatGPT 3.5.<\/p>\n<p>OpenAI&#8217;s meddelelse vedr\u00f8rende GPT-40 kommer blot \u00e9n dag f\u00f8r Googles \u00e5rlige I\/O Developer Conference, hvor Google forventes at lave sine egne AI-relaterede meddelelser. OpenAI har ogs\u00e5 lovet, at flere meddelelser er p\u00e5 vej, s\u00e5 der er ingen tvivl om, at konkurrencen mellem de to rivaler lige er begyndt at spidse til.<\/p>\n<p>Selvom vi ikke ved, hvorn\u00e5r OpenAI vil afsl\u00f8re flere \u00e6ndringer til sin AI-model, ved vi, at GPT-4o er p\u00e5 vej til enheder, der k\u00f8rer ChatGPT globalt. S\u00e5 kryds fingre og vent p\u00e5, at opdateringen vises p\u00e5 din enhed. Indtil n\u00e6ste gang!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>OpenAI annoncerede for nylig sin GPT-4o-model, en ny flagskibsmodel af motoren, der driver ChatGPT, dens ber\u00f8mte AI-drevne chatbot udgivet f\u00f8rste gang i 2022. Denne nyere model tager menneske-computer-interaktion til et helt nyt niveau ved at f\u00e5 det til at virke hurtigere og meget mere naturligt. I GPT-4o st\u00e5r &#8216;o&#8217; for &#8216;omni&#8217;, da det kombinerer tekst, [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,183,130],"class_list":["post-2047","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-chatgpt","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2047","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/comments?post=2047"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2047\/revisions"}],"predecessor-version":[{"id":2048,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2047\/revisions\/2048"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/media?parent=2047"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/categories?post=2047"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/tags?post=2047"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}