2월에 OpenAI는 오랫동안 기대했던 Sora를 출시하여 전 세계 매니아들 사이에서 흥분을 불러일으켰습니다. 이제 그 기대는 OpenAI의 최근 제품 출시 시리즈의 일부로 Sora가 출시되면서 절정에 달했습니다. 이 시리즈는 ChatGPT Pro 구독과 o1 모델의 출시로 시작되었습니다.
텍스트-비디오 모델은 초기 미리보기에서 전 세계의 주목을 받았지만 이전에는 소수의 아티스트, 영화 제작자 및 테스터로 제한되었습니다. Sora가 출시되면서 사용자는 이제 이미지와 추가 비디오와 함께 텍스트 프롬프트를 제공하여 비디오를 제작할 수 있습니다. 이 혁신적인 모델은 여러 캐릭터와 다양한 동작을 특징으로 하는 복잡한 장면을 생성할 수 있습니다. OpenAI에 따르면 Sora는 사용자의 프롬프트를 해석할 뿐만 아니라 이러한 요소가 실제 세계에서 어떻게 상호 작용하는지 파악합니다.
현재 비디오 모델은 미국과 기타 여러 지역에 거주하는 ChatGPT 구독자(Plus와 Pro 모두)가 이용할 수 있습니다. 그러나 유럽과 영국의 대부분 지역에서는 접근이 제한되어 있는데, 이는 OpenAI가 탐색하고자 노력 중인 이러한 지역의 더 엄격한 디지털 개인 정보 보호 규정 때문일 가능성이 높습니다.
월 20달러의 가격으로 ChatGPT Plus를 구독하는 사람은 최대 50개의 우선 비디오(1,000크레딧)를 제작할 수 있으며, 각 비디오는 최대 5초 길이이고 최대 해상도는 720p입니다.
반대로, 월 $200의 ChatGPT Pro 구독자는 최대 500개의 우선 비디오(10,000개의 크레딧), 무제한의 느긋한 비디오, 최대 20초까지 확장된 비디오 생성, 워터마크 없이 비디오를 다운로드하는 옵션의 혜택을 누릴 수 있습니다. OpenAI는 또한 미래에 다양한 사용자 요구에 부응하기 위해 다양한 가격 구조를 도입할 계획입니다.
Sora에는 텍스트 프롬프트를 사용하여 비디오의 특정 세그먼트를 변경하는 Remix 기능, 분리된 장면을 확장하는 Recut 옵션, 다양한 스타일 사전 설정, 비디오를 손쉽게 Loop 및 Blend하는 도구 등 여러 가지 흥미로운 기능이 포함되어 있습니다. 인터페이스에는 사용자가 일련의 텍스트 프롬프트를 통해 비디오 시퀀스를 개발할 수 있는 “스토리보드” 기능이 통합되어 있습니다.
예상대로 OpenAI는 이 비디오 모델을 신중하게 진행하고 있습니다. 생성된 모든 비디오에는 워터마크(Pro 구독자는 제거할 수 있음)와 Sora에서 생성된 콘텐츠의 출처를 추적하는 데 도움이 되는 C2PA 메타데이터가 포함됩니다. 이 회사는 또한 출처를 확인하기 위해 비디오 출력의 기술적 속성을 분석하는 내부 검색 도구를 개발했습니다. 이 단계는 잘못된 정보, 사기 및 딥페이크를 퇴치하는 것을 목표로 합니다.
사용자가 이미지나 비디오를 업로드하기 전에, 해당 자료에 대한 권리를 소유하고 18세 미만의 개인이 묘사되지 않았거나 폭력적이거나 노골적인 콘텐츠가 존재하지 않는다는 것을 확인하는 데 동의해야 합니다. 사람이 등장하는 일반 업로드는 출시 시점에 제한되며, 향후 확장은 OpenAI의 딥페이크 완화 전략 개선에 따라 달라집니다.
Sora는 sora.com의 새로운 플랫폼을 통해 독립적으로 접근할 수 있습니다. 사용자는 화면 하단에서 프롬프트를 입력하고 비디오 생성 전에 사전 설정 스타일, 지속 시간, 해상도, 종횡비, 변형 수 등과 같은 다양한 설정을 조정할 수 있습니다. 인터페이스는 또한 이러한 매개변수에 따라 얼마나 많은 크레딧이 소모될지도 나타냅니다. 기본적으로 Sora는 각 프롬프트의 4가지 고유한 변형을 생성합니다.

하지만 엄청난 수요로 인해 Sora의 신규 계정 등록이 중단되었습니다. Sam Altman은 이 상황을 해결하기 위한 노력이 진행 중이라고 밝혔습니다.
우리는 Sora에 대한 수요를 상당히 과소평가했습니다. 모든 사람에게 접근 권한을 제공하는 데는 시간이 걸릴 것입니다. 우리는 이 문제를 해결하기 위해 최대한 빨리 노력하고 있습니다!
— 샘 알트만(@sama) 2024년 12월 10일
Sora에 접속할 수 없거나 유료 구독자가 아닌 경우에도 다른 사용자가 생성한 비디오 피드를 탐색할 수 있습니다.
현재 비디오 모델은 현실적인 영상을 만드는 데 어려움이 있고 긴 포맷으로 복잡한 동작을 표현하는 데 어려움이 있는 등 몇 가지 한계를 보이고 있지만, 이 모델이 앞으로 어떻게 발전하여 영상 제작과 소비의 미래에 어떤 영향을 미칠지 지켜보는 것은 흥미로울 것입니다.
답글 남기기 ▼