In februari introduceerde OpenAI de langverwachte Sora, wat enthousiasme opriep bij liefhebbers wereldwijd. Nu is die verwachting geculmineerd in de lancering van Sora als onderdeel van OpenAI’s recente serie productreleases, die begon met een ChatGPT Pro-abonnement en de uitrol van het o1-model.
Het tekst-naar-videomodel trok wereldwijde aandacht tijdens de eerste preview, maar was voorheen beperkt tot een kleine groep artiesten, filmmakers en testers. Met de lancering van Sora kunnen gebruikers nu video’s produceren door tekstprompts te verstrekken, samen met afbeeldingen en extra video’s. Dit innovatieve model kan ingewikkelde scènes genereren met meerdere personages en verschillende bewegingen. Volgens OpenAI interpreteert Sora niet alleen de prompts van gebruikers, maar begrijpt het ook hoe deze elementen in de echte wereld interacteren.
Momenteel is het videomodel toegankelijk voor ChatGPT-abonnees (zowel Plus als Pro) in de VS en verschillende andere regio’s. De toegang is echter beperkt in een groot deel van Europa en het VK, waarschijnlijk vanwege de strengere digitale privacyregels in deze gebieden, waar OpenAI aan werkt.
Abonnees op ChatGPT Plus, dat $ 20 per maand kost, mogen maximaal 50 prioriteitsvideo’s maken (goed voor 1.000 credits), die elk maximaal 5 seconden duren en een maximale resolutie van 720p hebben.
Omgekeerd profiteren ChatGPT Pro-abonnees, voor $ 200/maand, van de mogelijkheid om maar liefst 500 prioriteitsvideo’s (10.000 credits) te produceren, onbeperkt ontspannen video’s, uitgebreide videogeneratie tot 20 seconden en de optie om video’s te downloaden zonder watermerk. OpenAI is ook van plan om in de toekomst verschillende prijsstructuren te introduceren om tegemoet te komen aan verschillende gebruikersbehoeften.
Sora zit boordevol verschillende opwindende functies, waaronder de Remix-functie voor het wijzigen van specifieke segmenten van een video met behulp van tekstprompts, een Recut-optie voor het uitbreiden van geïsoleerde scènes, verschillende stijlpresets en tools om video’s moeiteloos te herhalen en te blenden. De interface bevat een “Storyboard”-functionaliteit waarmee gebruikers een reeks video’s kunnen ontwikkelen via een reeks tekstprompts.
Zoals verwacht gaat OpenAI voorzichtig te werk met dit videomodel. Alle gegenereerde video’s bevatten een watermerk (dat Pro-abonnees kunnen verwijderen), samen met C2PA-metadata om de oorsprong van door Sora gegenereerde content te traceren. Het bedrijf heeft ook een interne zoektool ontwikkeld die de technische kenmerken van video-uitvoer analyseert om hun oorsprong te verifiëren. Deze stap is bedoeld om misinformatie, oplichting en deepfakes te bestrijden.
Voordat gebruikers afbeeldingen of video’s kunnen uploaden, moeten ze akkoord gaan met het verzekeren dat ze de rechten op deze materialen bezitten en bevestigen dat er geen personen onder de 18 jaar worden afgebeeld, noch gewelddadige of expliciete content aanwezig is. Algemene uploads met mensen worden bij de lancering beperkt, met toekomstige uitbreidingen afhankelijk van OpenAI’s verfijning van deepfake-mitigatiestrategieën.
Sora is onafhankelijk toegankelijk via een nieuw platform op sora.com. Gebruikers kunnen prompts invoeren vanaf de onderkant van het scherm en verschillende instellingen aanpassen, zoals vooraf ingestelde stijlen, duur, resolutie, beeldverhouding, aantal variaties en meer, voorafgaand aan de videogeneratie. De interface geeft ook aan hoeveel credits er worden verbruikt op basis van die parameters. Standaard genereert Sora vier verschillende variaties van elke prompt.

Echter, vanwege de overweldigende vraag, zijn nieuwe accountregistraties voor Sora gepauzeerd. Sam Altman heeft verklaard dat er inspanningen worden geleverd om deze situatie aan te pakken.
We hebben de vraag naar Sora flink onderschat; het gaat nog wel even duren voordat iedereen toegang heeft. We werken er zo snel mogelijk aan om dit op te lossen!
— Sam Altman (@sama) 10 december 2024
Als je geen toegang hebt tot Sora of geen betalend abonnee bent, kun je nog steeds door een feed met video’s bladeren die door andere gebruikers zijn gegenereerd.
Hoewel het videomodel op dit moment nog enkele beperkingen kent, waaronder moeilijkheden bij het maken van realistische video’s en uitdagingen bij het weergeven van complexe acties in langere formaten, zal het interessant zijn om te zien hoe het zich ontwikkelt en de toekomstige manier van videoproductie en -consumptie beïnvloedt.