Begejstringen i AI-samfundet steg, da OpenAI afslørede Advanced Voice Mode tilbage i maj. Under lanceringen af sin seneste flagskibsmodel, GPT-4o, fremhævede virksomheden sine bemærkelsesværdige multimodale funktioner.
Men i flere måneder var det blot en visning af potentiale. OpenAI havde oprindeligt forsikret brugerne om, at den avancerede stemmetilstand snart ville være tilgængelig, men det tog betydeligt længere tid end forventet, og ikke alle fik adgang med det samme. Desuden var synsegenskaberne fraværende på det tidspunkt. Nu introducerer OpenAI endelig Vision i Advanced Voice Mode.
Denne opdatering ankommer på den sjette dag af OpenAI’s initiativ, ’12 Days of Shipping’, hvor Sam Altman og andre teammedlemmer har afsløret forskellige opdateringer, både større og mindre, for at sprede festlig jubel.
Blandt de fremtrædende nylige lanceringer er ChatGPT Pro-abonnementet, den fulde udrulning af deres o1-begrundelsesmodel, den offentlige lancering af Sora, deres videomodel og et forbedret Canvas tilgængeligt for alle brugere.
Vision-meddelelsen følger nøje efter Googles fremvisning af en opgraderet version af Project Astra og en ny prototype, Project Mariner, med avancerede funktioner. OpenAI har dog igen taget føringen, da Project Astra stadig ikke er offentligt tilgængeligt.
Med tilføjelsen af Vision i Advanced Voice Mode kan brugere nu dele et live video-feed fra deres kamera eller vise deres telefons skærm til ChatGPT. Denne opdatering er meget ventet, især for dens potentielle fordele for synshandicappede personer.
I en ligetil demonstration, der blev delt i dag, brugte OpenAI-teamet ChatGPT’s støtte til at tilberede overhældt kaffe.
I øjeblikket er Vision-funktionen i Advanced Voice Mode indstillet til udelukkende at lanceres på ChatGPT-mobilapplikationen. Brugere håber på dens hurtige introduktion på desktop-varianter, da dette vil reducere hindringer, når de søger ChatGPT’s assistance, mens de multitasking eller kodning.
Denne udrulning vil være tilgængelig for alle Teams-brugere, mens Plus- og Pro-brugere globalt, undtagen dem i EU, kan begynde at bruge den i dag; fuld implementering forventes afsluttet i slutningen af ugen. Edu- og Enterprise-brugere bliver nødt til at vente længere, med adgang forventes tidligt næste år.
Mens ChatGPTs avancerede stemmetilstand tidligere var nyttig, manglede den den væsentlige synsfunktionalitet, hvilket forhindrede den i at blive en virkelig praktisk assistent. Med visionsudgivelsen er jeg ivrig efter at være vidne til den transformative effekt, det kan have.
I et festligt træk har OpenAI også introduceret en ny julemandstilstand i ChatGPT, som vil være tilgængelig globalt på tværs af alle platforme – mobil, desktop og web. Denne tilstand kan aktiveres i både Advanced og Standard Voice Modes. Når du først aktiverer julemandstilstand, vil OpenAI opdatere din grænse for Advanced Voice Mode, hvilket betyder, at du stadig kan nyde festlighederne, selvom du har nået din grænse. Og skulle du opbruge din avancerede stemmetilstand, vil Standard Julemanden altid være der for dig.
Skriv et svar