Spenningen i AI-samfunnet økte da OpenAI avduket Advanced Voice Mode tilbake i mai. Under lanseringen av sin nyeste flaggskipmodell, GPT-4o, fremhevet selskapet sine bemerkelsesverdige multimodale funksjoner.
Men i flere måneder var det bare en visning av potensial. OpenAI hadde i utgangspunktet forsikret brukerne om at Advanced Voice Mode ville være tilgjengelig snart, men det tok betydelig lengre tid enn forventet, og ikke alle fikk tilgang umiddelbart. Dessuten var synsegenskapene fraværende på den tiden. Nå introduserer OpenAI endelig Vision i Advanced Voice Mode.
Denne oppdateringen kommer på den sjette dagen av OpenAIs initiativ, ’12 Days of Shipping», der Sam Altman og andre teammedlemmer har avslørt ulike oppdateringer, både store og mindre, for å spre litt festlig jubel.
Blant de fremtredende nylige lanseringene er ChatGPT Pro-abonnementet, den fulle utrullingen av deres o1-resonneringsmodell, den offentlige lanseringen av Sora, deres videomodell og et forbedret Canvas tilgjengelig for alle brukere.
Vision-kunngjøringen følger tett bak Googles fremvisning av en oppgradert versjon av Project Astra og en ny prototype, Project Mariner, med avanserte funksjoner. OpenAI har imidlertid igjen tatt ledelsen, ettersom Project Astra fortsatt ikke er offentlig tilgjengelig.
Med tillegg av Vision i avansert stemmemodus, kan brukere nå dele en direktesendt videostrøm fra kameraet eller vise telefonens skjerm til ChatGPT. Denne oppdateringen er etterlengtet, spesielt for dens potensielle fordeler for synshemmede personer.
I en enkel demonstrasjon som ble delt i dag, benyttet OpenAI-teamet ChatGPTs støtte til å tilberede opphelling av kaffe.
For øyeblikket er Vision-funksjonen i Advanced Voice Mode satt til å starte utelukkende på ChatGPT-mobilapplikasjonen. Brukere håper på en rask introduksjon på skrivebordsvarianter, da dette vil redusere hindringer når de søker ChatGPTs assistanse mens de multitasking eller koding.
Denne utrullingen vil være tilgjengelig for alle Teams-brukere, mens Plus- og Pro-brukere globalt, unntatt de i EU, kan begynne å bruke den i dag; full utplassering forventes å være fullført innen slutten av uken. Edu- og Enterprise-brukere må vente lenger, med tilgang som forventes tidlig neste år.
Mens ChatGPTs avanserte stemmemodus tidligere var nyttig, manglet den den essensielle synsfunksjonaliteten, og forhindret den i å bli en virkelig praktisk assistent. Med visjonsutgivelsen er jeg ivrig etter å være vitne til den transformative effekten den kan ha.
I et festlig trekk har OpenAI også introdusert en ny julenissemodus i ChatGPT, som vil være tilgjengelig globalt på alle plattformer – mobil, desktop og nett. Denne modusen kan aktiveres i både avansert og standard stemmemodus. Når du først aktiverer julenissemodus, vil OpenAI oppdatere grensen for avansert stemmemodus, noe som betyr at du fortsatt kan nyte festlighetene selv om du har nådd grensen. Og skulle du bruke kvoten for avansert stemmemodus, vil Standard Julenissen alltid være der for deg.
Legg att eit svar