{"id":6063,"date":"2024-12-13T10:28:07","date_gmt":"2024-12-13T10:28:07","guid":{"rendered":"https:\/\/howtogeek.blog\/no\/?p=6063"},"modified":"2024-12-13T10:28:07","modified_gmt":"2024-12-13T10:28:07","slug":"openai-launches-vision-feature-for-enhanced-voice-mode-in-chatgpt","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/no\/openai-launches-vision-feature-for-enhanced-voice-mode-in-chatgpt\/","title":{"rendered":"OpenAI lanserer Vision-funksjon for forbedret stemmemodus i ChatGPT"},"content":{"rendered":"<p>Spenningen i AI-samfunnet \u00f8kte da OpenAI avduket Advanced Voice Mode tilbake i mai. Under lanseringen av sin nyeste flaggskipmodell, GPT-4o, fremhevet selskapet sine bemerkelsesverdige multimodale funksjoner.<\/p>\n<p>Men i flere m\u00e5neder var det bare en visning av potensial. OpenAI hadde i utgangspunktet forsikret brukerne om at Advanced Voice Mode ville v\u00e6re tilgjengelig snart, men det tok betydelig lengre tid enn forventet, og ikke alle fikk tilgang umiddelbart. Dessuten var synsegenskapene frav\u00e6rende p\u00e5 den tiden. N\u00e5 introduserer OpenAI endelig Vision i Advanced Voice Mode.<\/p>\n<p>Denne oppdateringen kommer p\u00e5 den sjette dagen av OpenAIs initiativ, &#8217;12 Days of Shipping&#8217;, der Sam Altman og andre teammedlemmer har avsl\u00f8rt ulike oppdateringer, b\u00e5de store og mindre, for \u00e5 spre litt festlig jubel.<\/p>\n<p>Blant de fremtredende nylige lanseringene er ChatGPT Pro-abonnementet, den fulle utrullingen av deres o1-resonneringsmodell, den offentlige lanseringen av Sora, deres videomodell og et forbedret Canvas tilgjengelig for alle brukere.<\/p>\n<p>Vision-kunngj\u00f8ringen f\u00f8lger tett bak Googles fremvisning av en oppgradert versjon av Project Astra og en ny prototype, Project Mariner, med avanserte funksjoner. OpenAI har imidlertid igjen tatt ledelsen, ettersom Project Astra fortsatt ikke er offentlig tilgjengelig.<\/p>\n<p>Med tillegg av Vision i avansert stemmemodus, kan brukere n\u00e5 dele en direktesendt videostr\u00f8m fra kameraet eller vise telefonens skjerm til ChatGPT. Denne oppdateringen er etterlengtet, spesielt for dens potensielle fordeler for synshemmede personer.<\/p>\n<p>I en enkel demonstrasjon som ble delt i dag, benyttet OpenAI-teamet ChatGPTs st\u00f8tte til \u00e5 tilberede opphelling av kaffe.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" decoding=\"async\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/12\/image-294-1.webp\" title=\"\"\/><\/figure><figcaption>Kilde: OpenAI<\/figcaption><p>For \u00f8yeblikket er Vision-funksjonen i Advanced Voice Mode satt til \u00e5 starte utelukkende p\u00e5 ChatGPT-mobilapplikasjonen. Brukere h\u00e5per p\u00e5 en rask introduksjon p\u00e5 skrivebordsvarianter, da dette vil redusere hindringer n\u00e5r de s\u00f8ker ChatGPTs assistanse mens de multitasking eller koding.<\/p>\n<p>Denne utrullingen vil v\u00e6re tilgjengelig for alle Teams-brukere, mens Plus- og Pro-brukere globalt, unntatt de i EU, kan begynne \u00e5 bruke den i dag; full utplassering forventes \u00e5 v\u00e6re fullf\u00f8rt innen slutten av uken. Edu- og Enterprise-brukere m\u00e5 vente lenger, med tilgang som forventes tidlig neste \u00e5r.<\/p>\n<p>Mens ChatGPTs avanserte stemmemodus tidligere var nyttig, manglet den den essensielle synsfunksjonaliteten, og forhindret den i \u00e5 bli en virkelig praktisk assistent. Med visjonsutgivelsen er jeg ivrig etter \u00e5 v\u00e6re vitne til den transformative effekten den kan ha.<\/p>\n<p>I et festlig trekk har OpenAI ogs\u00e5 introdusert en ny julenissemodus i ChatGPT, som vil v\u00e6re tilgjengelig globalt p\u00e5 alle plattformer \u2013 mobil, desktop og nett. Denne modusen kan aktiveres i b\u00e5de avansert og standard stemmemodus. N\u00e5r du f\u00f8rst aktiverer julenissemodus, vil OpenAI oppdatere grensen for avansert stemmemodus, noe som betyr at du fortsatt kan nyte festlighetene selv om du har n\u00e5dd grensen. Og skulle du bruke kvoten for avansert stemmemodus, vil Standard Julenissen alltid v\u00e6re der for deg.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Spenningen i AI-samfunnet \u00f8kte da OpenAI avduket Advanced Voice Mode tilbake i mai. Under lanseringen av sin nyeste flaggskipmodell, GPT-4o, fremhevet selskapet sine bemerkelsesverdige multimodale funksjoner. Men i flere m\u00e5neder var det bare en visning av potensial. OpenAI hadde i utgangspunktet forsikret brukerne om at Advanced Voice Mode ville v\u00e6re tilgjengelig snart, men det tok [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[95,180,272],"class_list":["post-6063","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-ai","tag-chatgpt","tag-openai"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/6063","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/comments?post=6063"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/6063\/revisions"}],"predecessor-version":[{"id":6064,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/6063\/revisions\/6064"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/media?parent=6063"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/categories?post=6063"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/tags?post=6063"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}