Erinnern Sie sich an die Sprachdemo für GPT-4o von OpenAI vor ein paar Monaten, die die Welt mit ihrer Ähnlichkeit mit einem Menschen erschütterte? Sie wissen schon, die, die Sie für eine Weile vergessen lassen konnte, dass Sie mit einer KI sprechen, und die viele Leute sogar an Scarlett Johanssons KI-Charakter aus dem Film „Her“ erinnerte (und dafür auch kritisiert wurde).
OpenAI beginnt nun endlich damit, die Alpha-Version für eine kleine Anzahl von ChatGPT Plus-Benutzern bereitzustellen, wie das Unternehmen auf X mitteilte. Ursprünglich hatte das Unternehmen geplant, die Einführung im Juni zu starten, doch aus Sicherheitsgründen und um sicherzustellen, dass die „Startschwelle [von OpenAI] erreicht wird“, wurde dies verschoben. Daher war das Unternehmen damit beschäftigt, das Modell mit einem Team externer Red Teamer zu verbessern, damit es bestimmte Inhalte erkennt und ablehnt.
Wir beginnen damit, den erweiterten Sprachmodus für eine kleine Gruppe von ChatGPT Plus-Benutzern einzuführen. Der erweiterte Sprachmodus bietet natürlichere Gespräche in Echtzeit, ermöglicht es Ihnen, jederzeit zu unterbrechen, und erkennt und reagiert auf Ihre Emotionen. pic.twitter.com/64O94EhhXK
– OpenAI (@OpenAI) 30. Juli 2024
Einige zahlende Benutzer erhalten nun Zugriff auf das Modell in ihrer ChatGPT-App, aber derzeit ist der Zugriff auf die Alpha-Version noch begrenzt. Das Unternehmen plant, den Zugriff schrittweise für weitere Benutzer bereitzustellen und ihn später im Herbst allen zahlenden Benutzern zur Verfügung zu stellen.
Es scheint keine Möglichkeit zu geben, Zugriff auf den erweiterten Sprachmodus anzufordern. Wenn Sie auf der Liste der wenigen Benutzer stehen, die Zugriff auf die Alpha-Version erhalten, erhalten Sie eine E-Mail mit Anweisungen sowie eine Benachrichtigung in Ihrer ChatGPT-App zum Ausprobieren des Sprachmodus.
Der erweiterte Sprachmodus kann nur mit den vier voreingestellten Stimmen sprechen – Juniper, Amber, Cove und Breeze. Insbesondere hat OpenAI Sky entfernt – die Stimme, die wie Scarlett Johansson klang, kurz nachdem die Demo auf der Spring-Veranstaltung veröffentlicht wurde und der Schauspieler Briefe an das Unternehmen schickte, in denen er fragte, wie die Stimme gemacht wurde (auf die OpenAI anscheinend nie antwortete). Sky scheint immer noch nicht Teil der Liste zu sein.
ChatGPT-4o kann außerdem keine anderen Stimmen als die in der Voreinstellung bereitgestellten ausgeben, um die Privatsphäre der Benutzer zu schützen. Es gibt auch Schutzmaßnahmen, um Anfragen nach gewalttätigen oder urheberrechtlich geschützten Inhalten zu blockieren.
Wenn Sie in Ihrer ChatGPT-App Zugriff auf den erweiterten Sprachmodus haben, probieren Sie ihn aus. Obwohl er nicht alles kann, was in den Demos gezeigt wird, bis er auch seine Sichtfunktionen erhält, wirkt er laut einigen Videos, die von Benutzern mit Zugriff geteilt wurden, dennoch ziemlich beeindruckend.
Schreibe einen Kommentar