Apple hat die neueste iPhone-Reihe pünktlich zur „It’s Glowtime“-Zeit herausgebracht. Die Modelle iPhone 16 und 16 Pro werden von Apple als von Grund auf für Apple Intelligence entwickelt vermarktet. Falls Sie das Memo zu Apple Intelligence verpasst haben, das der Technologieriese Anfang dieses Jahres im Juni auf seiner jährlichen WWDC-Konferenz enthüllte, handelt es sich um ihre Interpretation von künstlicher Intelligenz.
Allerdings hat das Unternehmen während der WWDC bequemerweise eine Funktion ausgelassen, und das zu Recht, da sie mit den Hardwareänderungen zusammenhängt, die für die iPhone 16-Reihe anstehen. Visual Intelligence kommt auf das iPhone und ähnelt Google Lens für unterwegs auf Android, wird jedoch von künstlicher Intelligenz angetrieben. Es ähnelt ein wenig den multimodalen (Bild-/Video-)Eingabefunktionen für Googles Gemini Live oder OpenAIs ChatGPT-4o Advanced Mode (beide noch nicht verfügbar). Aber es scheint, dass Visual Intelligence nur Bilder als Eingabe verwenden kann.
Die Auslösung erfolgt durch Drücken und Halten der neuen Kamera-Steuerungstaste der iPhone 16-Serie.
Sie können Visual Intelligence alles Mögliche fragen. Wenn Sie beispielsweise Ihre Kamera auf ein Restaurant richten, kann Visual Intelligence schnell die Öffnungszeiten und Bewertungen des Restaurants anzeigen sowie Optionen zum Einsehen der Speisekarte oder zum Reservieren einer Reservierung.
Ebenso können Sie Ihre Kamera auf ein Veranstaltungsplakat richten und es automatisch zu Ihrem Kalender hinzufügen. Insbesondere Google Gemini kann auf Android-Geräten eine ähnliche Hilfe sein und geht sogar noch einen Schritt weiter und informiert Sie, ob Sie an diesem Datum bereits Verpflichtungen haben.
All dies wird durch eine Kombination aus Geräteintelligenz und Apple-Diensten ermöglicht, die Ihre Bilder nicht speichern. Darüber hinaus kann Visual Intelligence auch als Ihr Gateway zu Diensten von Drittanbietern wie Google und ChatGPT fungieren. Die Benutzeroberfläche zeigt zwei Schaltflächen – Suchen und Fragen.
Mit der Suche können Sie Google alles fragen, was auf Ihrem Bildschirm angezeigt wird, z. B. ein Fahrrad, das Sie entdecken und kaufen möchten. Mit Ask können Sie ChatGPT aufrufen und um Hilfe bitten, beispielsweise bei Ihren Notizen. Informationen werden nur dann an Tools von Drittanbietern weitergegeben, wenn Sie diese verwenden möchten.
Die Funktion wird nicht sofort verfügbar sein und erst später in diesem Jahr erscheinen. Konkrete Informationen zum Veröffentlichungsdatum gibt es noch nicht. Es sieht allerdings auch so aus, als ob die Funktion nicht für ältere iPhones verfügbar sein wird, die Apple Intelligence unterstützen, da Craig Federighi ausdrücklich sagt, dass sie „später in diesem Jahr für die Kamerasteuerung“ verfügbar sein wird.
Schreibe einen Kommentar