ChatGPT에서 빠른 개선을 기대해서는 안 되는 이유: 알아야 할 사항

ChatGPT 및 LLM 개발의 미래 개요

  • 연간 업데이트로의 전환은 ChatGPT의 출시 일정이 늦어짐을 나타냅니다.
  • 변압기 기술로 인한 수익 감소는 LLM 혁신에 영향을 미치고 있습니다.
  • 훈련 데이터의 부족과 수익 모델의 명확성 부족은 AI 발전에 큰 장애물이 되고 있습니다.

ChatGPT는 글로벌 라이프스타일과 업무 패턴에 상당한 영향을 미쳤지만, 출시 일정을 면밀히 관찰한 사람들은 우려스러운 감속을 발견했습니다. 이 기사는 LLM 개발의 미묘한 뉘앙스를 파헤치며 2025년 이후 “AI 암흑기”로 향하고 있는지 숙고합니다.

ChatGPT 릴리스 타임라인

OpenAI가 2022년 11월에 ChatGPT 3.5를 출시하면서 AI의 지형이 극적으로 바뀌었고, 3개월 만에 놀랍게도 1억 명의 사용자를 빠르게 확보했습니다. 이러한 급증은 2023년에 Meta Threads가 출시되면서 중단되었고, ChatGPT를 제치고 역대 가장 빠르게 성장하는 애플리케이션이 되었습니다.

시간이 지나면서 OpenAI의 접근 방식은 반기별 릴리스에서 예상되는 연간 일정으로 전환되었습니다. 특히 ChatGPT 3.5와 ChatGPT 4.0 사이의 간격이 불과 5개월인 반면, 다음 모델(ChatGPT o1)은 개발하고 출시하는 데 거의 2년이 걸렸습니다.

ChatGPT o3의 정확한 출시 날짜는 여전히 불확실하며, 베타 테스터들은 현재 기능을 탐색하고 있지만 구체적인 공개 내용은 없습니다. 이는 LLM 개발이 둔화된 이유와 지속적인 투자자 기여가 예상 수익을 낼지에 대한 중요한 의문을 제기합니다.

트랜스포머: 드라이빙 포스

트랜스포머는 2017년경에 처음 등장한 이래로 AI 부문에 혁명을 일으켰으며, CUDA 아키텍처를 활용하여 기존 GPU를 강력한 AI 처리 장치로 전환했습니다. 처음에는 더 많은 토큰 입력과 이전 LLM 버전이 이 아키텍처를 최대한 활용했습니다.

하지만 이제 우리는 AI 성능에서 수익이 감소하는 상황에 직면해 있습니다. 기술적 발전으로 GPU 성능이 향상되었지만, 정체되고 있습니다. 엔비디아의 CES 기조연설 에서 선보인 AI 하드웨어의 예상된 혁명적 진전은 이 산업이 획기적인 변화를 제공하기보다는 진화 단계에 접어들었다는 것이 분명해지면서 미온적인 반응을 얻었습니다.

CES 2025에서 선보이는 NVIDIA Project DIGITS의 전면 모습.
저스틴 두이노 / How-To Geek

GPU와 변압기 기술이 상당히 발전했음에도 불구하고, 우리는 아직 전통적인 CPU에서처럼 물리적 제약으로 병목 현상에 시달리지 않습니다. 그러나 지난 5년 동안 AI 성능에서 보인 급속한 발전은 이제 상당히 줄어들고 있으며, 업계의 많은 사람들이 20세기 후반의 컴퓨팅 혁명과 비교할 수 있는 폭발적인 성장을 갈망하고 있습니다.

훈련 데이터의 과제

OpenAI를 포함한 LLM 개발자들이 직면한 또 다른 시급한 문제는 고품질 교육 데이터의 가용성에 중점을 둡니다. ChatGPT, Gemini, Claude와 같은 모든 주요 모델은 접근 가능한 공개 정보의 대부분을 철저히 채굴했습니다. 이로 인해 신선한 데이터를 획득하는 것이 중요한 과제가 되는 시나리오가 만들어졌습니다.

이 장애물을 극복하기 위해 일부 팀은 AI 시스템을 활용하여 서로를 교육하는 “재귀적” 교육 모델을 모색하고 있습니다. 안타깝게도 이 방법은 특히 일관성과 신뢰성 측면에서 엇갈린 결과를 낳습니다. AI에서 교육된 AI의 출력은 종종 환각과 부정확성으로 어려움을 겪으며, 복잡한 작업에 대한 이 접근 방식의 실현 가능성에 대한 의문이 제기됩니다.

LLM의 재정적 지속 가능성

AI 부문의 치열한 경쟁은 재정적 혼란을 불러일으켰으며, 곧 AI 이니셔티브에 1조 달러가 넘는 엄청난 금액이 투자될 것으로 추산됩니다 . 이러한 유입에도 불구하고 LLM 생성 및 유지 관리와 관련된 막대한 비용은 실행 가능한 수익 채널을 확립하는 데 난제를 제기합니다.

보고서에 따르면 LLM 쿼리를 실행하려면 표준 Google 검색보다 최대 10배의 컴퓨팅 리소스가 필요할 수 있지만 OpenAI의 정확한 운영 비용은 비밀로 유지됩니다. AI의 기존 비즈니스 모델은 일반적으로 회사가 방대한 VC 자금을 모으고 시장 점유율을 확보한 다음 수익성을 위해 전략을 수립하는 패턴을 따릅니다. 그러나 컴퓨팅 비용이 급증하여 Nvidia의 주식 평가와 일치하여 수익 창출 경로가 불분명해졌습니다.

로봇 손이 ChatGPT 로고가 있는 달러 지폐를 찢고 있습니다.
Lucas Gouveia / How-To 괴짜

ChatGPT의 구독 모델은 현재 고급 기능에 대해 월 20달러를 청구하지만 OpenAI는 LLM의 기능에 따라 월 최대 2,000달러의 비용이 드는 프리미엄 계층을 고려하고 있습니다. 사용자 만족도와 관련된 수익 감소로 인해 충성도 높은 사용자가 기존 모델을 “충분히 좋다”고 보고 업그레이드된 구독에 대한 욕구가 감소할 수 있다는 우려가 제기되었습니다.

다음 ChatGPT 진화를 기대하다

ChatGPT가 o3 버전 출시를 향해 나아가면서, 업계 전문가들은 이것이 2025년 전체에 걸쳐 OpenAI의 유일한 중요한 새로운 릴리스가 될 것이라고 예측합니다. 추가적인 획기적인 진전에 대한 희망은 남아 있지만, 설명된 과제는 앞으로 더 보수적인 개발 속도를 시사합니다.

하지만, 이러한 침체가 정말로 해로운 것일까요? Chatbot Arena 의 순위는 LLM이 반복 사이에 상당한 벤치마크를 얻었지만 지금은 정체되거나 미미한 이득만 얻고 있음을 보여줍니다. 기업용 애플리케이션은 계속해서 유망하지만, 일상 사용자에게 제공되는 기능은 최적화 한계에 도달하는 것으로 보입니다.

요약하자면, 최신 ChatGPT 업그레이드에 액세스하는 타임라인은 여전히 ​​예측할 수 없습니다. 그러나 사용자는 여전히 ChatGPT o1 및 4o와 같은 기존 모델의 강력한 기능을 사용하여 정리된 쇼핑 목록을 만들거나 문헌에서 참조를 찾는 것과 같은 일상적인 작업을 수행할 수 있습니다.

자주 묻는 질문

1. ChatGPT의 개발이 늦어지는 이유는 무엇입니까?

ChatGPT 개발이 현재 둔화된 데에는 변압기 기술의 수익 감소, 새로운 교육 데이터의 부족, 운영 비용 증가 속에서 실행 가능한 수익 모델을 구축하는 데 따른 어려움 등 여러 가지 요인이 있습니다.

2. LLM 기술의 미래는 어떻게 될 것으로 예상됩니까?

LLM 기술의 미래 개발은 보다 신중한 성장 궤적을 특징으로 할 수 있습니다. 분석가들은 주목할 만한 릴리스의 가능성을 예상하지만 운영 및 재무적 장애물은 혁신의 속도를 늦출 가능성이 높습니다.

3. ChatGPT의 구독 모델은 어떻게 작동하나요?

ChatGPT의 구독 모델은 현재 월 20달러에 고급 기능을 제공하며, 모델 기능에 따라 월 2,000달러에 달할 수 있는 상위 계층 제공에 대한 논의가 진행 중입니다. 이 구조화된 가격은 운영 비용을 관리하는 동시에 다양한 사용자 요구 사항을 충족하는 것을 목표로 합니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다