I februar introducerede OpenAI den længe ventede Sora, der satte gang i begejstring blandt entusiaster globalt. Nu har den forventning kulmineret med Soras lancering som en del af OpenAIs seneste serie af produktudgivelser, som begyndte med et ChatGPT Pro-abonnement og udrulningen af o1-modellen.
Tekst-til-video-modellen fangede verdensomspændende opmærksomhed under sin første forhåndsvisning, men var tidligere begrænset til en lille gruppe af kunstnere, filmskabere og testere. Med lanceringen af Sora kan brugere nu producere videoer ved at give tekstmeddelelser sammen med billeder og yderligere videoer. Denne innovative model kan generere indviklede scener med flere karakterer og en række forskellige bevægelser. Ifølge OpenAI fortolker Sora ikke kun brugernes prompter, men forstår også, hvordan disse elementer interagerer i den virkelige verden.
I øjeblikket er videomodellen tilgængelig for ChatGPT-abonnenter (både Plus og Pro) baseret i USA og forskellige andre regioner. Adgangen er dog begrænset i store dele af Europa og Storbritannien, sandsynligvis på grund af de strengere regler for digital fortrolighed på disse områder, som OpenAI arbejder på at navigere i.
Abonnenter på ChatGPT Plus, til en pris af 20 USD/måned, har lov til at oprette op til 50 prioriterede videoer (svarende til 1.000 kreditter), der hver varer op til 5 sekunder med en maksimal opløsning på 720p.
Omvendt kan ChatGPT Pro-abonnenter, til $200/måned, nyde godt af muligheden for at producere så mange som 500 prioriterede videoer (10.000 kreditter), ubegrænset afslappede videoer, udvidet videogenerering op til 20 sekunder og muligheden for at downloade videoer uden vandmærke. OpenAI planlægger også at introducere forskellige prisstrukturer for at imødekomme forskellige brugerbehov i fremtiden.
Sora er spækket med adskillige spændende funktioner, inklusive Remix-funktionen til at ændre specifikke segmenter af en video ved hjælp af tekstprompter, en Recut-mulighed til at udvide isolerede scener, forskellige Style Presets og værktøjer til at sløjfe og blande videoer uden besvær. Interfacet inkorporerer en “Storyboard”-funktionalitet, hvor brugere kan udvikle en sekvens af videoer gennem en række tekstprompter.
Som forventet går OpenAI forsigtigt frem med denne videomodel. Alle genererede videoer vil inkludere et vandmærke (som Pro-abonnenter kan fjerne) sammen med C2PA-metadata for at hjælpe med at spore oprindelsen af indhold genereret af Sora. Virksomheden har også udviklet et internt søgeværktøj, der analyserer de tekniske egenskaber ved videoudgange for at verificere deres oprindelse. Dette trin har til formål at bekæmpe misinformation, svindel og deepfakes.
Før brugere kan uploade billeder eller videoer, skal de acceptere at sikre, at de besidder rettighederne til disse materialer og bekræfte, at ingen personer under 18 er afbildet, ej heller noget voldeligt eller eksplicit indhold til stede. Generelle uploads med personer skal begrænses ved lanceringen, med fremtidige udvidelser betinget af OpenAI’s forfining af deepfake-reduktionsstrategier.
Sora er uafhængigt tilgængelig via en ny platform på sora.com. Brugere kan indtaste prompter fra bunden af skærmen og justere forskellige indstillinger såsom forudindstillede stilarter, varighed, opløsning, billedformat, antal variationer og mere før videogenerering. Grænsefladen angiver også, hvor mange kreditter der vil blive forbrugt baseret på disse parametre. Som standard genererer Sora fire forskellige variationer af hver prompt.
På grund af overvældende efterspørgsel er nye kontoregistreringer til Sora imidlertid blevet sat på pause. Sam Altman har udtalt, at der er bestræbelser på at løse denne situation.
Vi undervurderede markant efterspørgslen efter Sora; det kommer til at tage et stykke tid at give adgang til alle. Vi arbejder så hurtigt som muligt på at løse dette!
— Sam Altman (@sama) 10. december 2024
Hvis du ikke er i stand til at få adgang til Sora eller ikke er en betalende abonnent, kan du stadig gennemse et feed med videoer genereret af andre brugere.
Mens videomodellen udviser nogle nuværende begrænsninger, herunder vanskeligheder med at skabe realistiske videoer og udfordringer med at skildre komplekse handlinger i længere formater, vil det være spændende at observere, hvordan den udvikler sig og påvirker det fremtidige landskab for videoproduktion og -forbrug.
Skriv et svar