Sora: Nowy model wideo OpenAI jest już dostępny do użytku

W lutym OpenAI wprowadziło długo oczekiwany Sora, rozpalając ekscytację wśród entuzjastów na całym świecie. Teraz oczekiwanie osiągnęło punkt kulminacyjny wraz z premierą Sora w ramach niedawnej serii wydań produktów OpenAI, która rozpoczęła się od subskrypcji ChatGPT Pro i wprowadzenia modelu o1.

Model text-to-video przyciągnął uwagę całego świata podczas swojego pierwszego podglądu, ale wcześniej był ograniczony do małej grupy artystów, filmowców i testerów. Dzięki wprowadzeniu Sora użytkownicy mogą teraz tworzyć filmy, dostarczając tekstowe podpowiedzi wraz z obrazami i dodatkowymi filmami. Ten innowacyjny model może generować skomplikowane sceny z udziałem wielu postaci i różnorodności ruchów. Według OpenAI, Sora nie tylko interpretuje podpowiedzi użytkowników, ale także rozumie, jak te elementy oddziałują na siebie w prawdziwym świecie.

Obecnie model wideo jest dostępny dla abonentów ChatGPT (zarówno Plus, jak i Pro) z siedzibą w USA i różnych innych regionach. Jednak dostęp jest ograniczony w większości krajów Europy i Wielkiej Brytanii, prawdopodobnie ze względu na surowsze przepisy dotyczące prywatności cyfrowej w tych obszarach, nad którymi pracuje OpenAI.

Subskrybenci usługi ChatGPT Plus, w cenie 20 USD miesięcznie, mogą utworzyć maksymalnie 50 priorytetowych filmów (o wartości 1000 kredytów), każdy o długości do 5 sekund i maksymalnej rozdzielczości 720p.

Z drugiej strony subskrybenci ChatGPT Pro, za 200 USD miesięcznie, korzystają z możliwości wyprodukowania aż 500 priorytetowych filmów (10 000 kredytów), nieograniczonej liczby zrelaksowanych filmów, rozszerzonego generowania filmów do 20 sekund i opcji pobierania filmów bez znaku wodnego. OpenAI planuje również wprowadzenie zróżnicowanych struktur cenowych, aby sprostać różnym potrzebom użytkowników w przyszłości.

Sora jest wyposażona w kilka ekscytujących funkcji, w tym funkcję Remix do zmiany określonych segmentów wideo za pomocą podpowiedzi tekstowych, opcję Recut do rozszerzania izolowanych scen, różne ustawienia wstępne stylu i narzędzia do łatwego zapętlania i łączenia filmów. Interfejs zawiera funkcjonalność „Storyboard”, w której użytkownicy mogą tworzyć sekwencję filmów za pomocą serii podpowiedzi tekstowych.

Zgodnie z przewidywaniami OpenAI ostrożnie podchodzi do tego modelu wideo. Wszystkie wygenerowane filmy będą zawierać znak wodny (który subskrybenci Pro mogą usunąć), a także metadane C2PA, które pomogą śledzić pochodzenie treści wygenerowanych przez Sora. Firma opracowała również wewnętrzne narzędzie wyszukiwania, które analizuje techniczne atrybuty wyników wideo w celu weryfikacji ich pochodzenia. Ten krok ma na celu zwalczanie dezinformacji, oszustw i deepfake’ów.

Zanim użytkownicy będą mogli przesyłać jakiekolwiek obrazy lub filmy, muszą wyrazić zgodę na posiadanie praw do tych materiałów i potwierdzić, że nie są na nich przedstawione żadne osoby poniżej 18 roku życia ani żadne treści o charakterze przemocy lub wulgarnym. Ogólne przesyłanie treści z udziałem ludzi będzie ograniczone podczas premiery, a przyszłe rozszerzenia będą uzależnione od udoskonalenia strategii łagodzenia deepfake przez OpenAI.

Sora jest niezależnie dostępna za pośrednictwem nowej platformy na sora.com. Użytkownicy mogą wprowadzać monity z dołu ekranu i dostosowywać różne ustawienia, takie jak wstępnie ustawione style, czas trwania, rozdzielczość, współczynnik proporcji, liczbę wariantów i inne przed wygenerowaniem wideo. Interfejs wskazuje również, ile kredytów zostanie zużytych na podstawie tych parametrów. Domyślnie Sora generuje cztery różne warianty każdego monitu.

Jednak ze względu na ogromny popyt, rejestracje nowych kont dla Sora zostały wstrzymane. Sam Altman oświadczył, że trwają prace nad rozwiązaniem tej sytuacji.

Jeśli nie masz dostępu do serwisu Sora lub nie jesteś płatnym abonentem, możesz przeglądać kanał z filmami tworzonymi przez innych użytkowników.

Chociaż model wideo ma obecnie pewne ograniczenia, w tym trudności w tworzeniu realistycznych filmów i wyzwania związane z prezentowaniem złożonych akcji w dłuższych formatach, ciekawie będzie obserwować, jak się rozwija i jak wpływa na przyszły krajobraz produkcji i konsumpcji wideo.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *