Während Konkurrenten wie Meta große Investitionen in KI tätigen, hat auch Snapchat, die beliebte Social-Media-Plattform von Snap, eigene Funktionen auf Basis künstlicher Intelligenz angekündigt. Das Unternehmen, das als Pionier und Förderer von Augmented Reality (AR)-Technologien bekannt ist, wird seinen Nutzern mit Lens Studio 5.0 Spezialeffekte bieten.
AR überlagert computergestützte Effekte auf reale Videos und Fotos und die neue Funktion von Snapchat verspricht durch ihr Echtzeit-Bildmodell ein noch intensiveres und fesselnderes Benutzererlebnis. Benutzer können Eingabeaufforderungen eingeben und realistische AR-Erlebnisse in Echtzeit erzeugen, indem sie Effekte auf ihre Videos und Bilder anwenden.
Was sind die Echtzeit-AR-Erlebnisse von Snapchat?
Die geplanten AR-Erlebnisse von Snapchat nutzen die Leistungsfähigkeit generativer KI, die Spezialeffekte namens „Linsen“ erzeugt, die AR-Entwicklern zur Verfügung stehen. Entwickler können diese Linsen dann verwenden, um einzigartige Erlebnisse zu schaffen, die Snapchat-Benutzer in ihre Inhalte integrieren können. Beispielsweise können Benutzer ihre Umgebung und Kleidung in den Videos ändern, die sie mithilfe solcher Erlebnisse aufnehmen.
Wenn Sie einen Effekt auf Ihr Foto oder Video anwenden, passt er sich automatisch an die Farben und die Beleuchtung Ihres Inhalts an, was zu einem nahtlosen Erlebnis führt. Sie können benutzerdefinierte Linsen mithilfe verschiedener Textaufforderungen generieren.
Lens Studio erhält ein Upgrade
Auch Snapchats Entwicklerprogramm Lens Studio erhält ein Upgrade im Einklang mit den neuen KI-Funktionen. Die Plattform ermöglicht es Entwicklern und Künstlern, AR-Funktionen für Anwendungen und Websites wie Snapchat zu erstellen. Mit dem neuen Update verfügt Lens Studio nun über mehrere generative KI-Tools, darunter einen KI-Assistenten, der bei der Beantwortung von Benutzeranfragen helfen kann.
Darüber hinaus können Entwickler jetzt 3D-Bilder direkt mithilfe von Texteingabeaufforderungen generieren, sodass sie nicht mehr manuell modelliert werden müssen. Dies kann den Zeit- und Arbeitsaufwand bei der Erstellung von AR-Effekten erheblich reduzieren und ermöglicht es Künstlern, kompliziertere Effekte zu erstellen. Die neuen 3D-Bilder können die Ausdrücke der Benutzer imitieren und Entwickler können sogar Gesichtsmasken und Texturen erstellen.
Während die frühere Version von Lens Studio einfache Effekte wie das Platzieren eines Hutes auf dem Kopf einer Person zuließ, kann sich der Hut mit der neuen Version an die Beleuchtung im Video oder Bild anpassen und sich sogar mit dem Kopf der Person bewegen.
Darüber hinaus enthält die neue Version immersives ML und Gesichtseffekte, mit denen Entwickler das Gesicht des Benutzers auf der Grundlage eines hochgeladenen Bildes oder einer schriftlichen Eingabeaufforderung ändern können. Immersives ML kann die Umgebung sowie das Gesicht und den Körper der Benutzer in Echtzeit verändern.
Mit seinen neuen generativen KI-gestützten Funktionen möchte Snapchat es mit seinen Konkurrenten aufnehmen und durch einzigartige Effekte mehr Nutzer anziehen. Es zielt auch auf Entwickler ab, indem es den Prozess der Entwicklung von AR-Funktionen einfacher und schneller macht. Das Unternehmen plant außerdem, in Zukunft weitere KI-Funktionen auf die Plattform zu bringen, beispielsweise das Entwerfen ganzer Outfits in AR.
Was die Verfügbarkeit der bereits angekündigten Funktionen betrifft, werden die neuen benutzerorientierten Funktionen normalen Benutzern in den kommenden Monaten zur Verfügung stehen, während die für Entwickler konzipierten Funktionen bis zum Jahresende veröffentlicht werden.
Schreibe einen Kommentar