Kevin Reymann

Ein Blog.


Geduld aka Apple Intelligence

Eine Woche nach der WWDC 2024 Keynote ein paar lose Gedanken zum vorgestellten.

iOS 18

  • Es dauerte 18 Jahre, bis Apple die Möglichkeit eingebaut hat, App Icons beliebig auf dem Homescreen anzuordnen. Man benötigt Geduld, wenn man im Apple Ökosystem unterwegs ist. Dadrüber musste selbst Craig Federighi lachen (-> The Talk Show).
  • Die Passwortverwaltung aus den Einstellungen bekommt eine eigene App. Diese bleibt mit seinen Funktionen hinter 1Password und Co zurück – aber für den „normalen“ User ist es ein großer Fortschritt. Wie oft sehe ich, dass User ihre (zwei verschiedenen) Passwörter in Excel Listen verwalten.
  • iMessage bekommt neue Funktionen. Ganz nett. Aber (in Deutschland) leider nicht zu gebrauchen. Denn, die meisten benutzen enttäuschenderweise WhatsApp – auch wenn sie ein iPhone benutzen. Ich habe wenig Hoffnung, dass sich das bald ändert. Daran wird sich auch das mit iOS eingeführte RCS messaging nichts ändern.
  • Bisher nur in den USA, aber sehr spannend – Nachrichten über Satellit, eine Erweiterung der bereits bekannten SOS Funktion. Und das ganze offensichtlich kostenlos.
  • Saugroboter sind endlich in HomeKit (wenn es Updates für die bisherigen Geräte seitens der Hersteller gibt)

macOS Sequoia

  • Continuity bringt die Möglichkeit, sein iPhone direkt auf dem Mac zu bedienen – inkl. des Empfangens der Notifications. Eventuell wird es in Zukunft in einer weiteren Version auch möglich sein, von seinem iPad seinen Mac (über das Internet) zu steuern? Das würde zwar nicht erklären, warum ich einen M4 in meinem iPad brauche, wäre aber sehr nett.
  • Fenster lassen sich nun in Ecken oder Bildschirmhälften andocken. Geduld sage ich da nur…
  • Bei Videocalls kann man nun seinen Hintergrund direkt aus dem Betriebssystem heraus ersetzen lassen und muss nicht mehr die Funktion der Call-App (Zoom, …) benutzen

iPadOS 18

  • Ein Taschenrechner mit ähnlichen Funktionen wie Soulver sie hat.
  • Nichts weiter (abgesehen von den iOS-Funktionen, wie der Passwort-App, die auch hier verfügbar sind). Warum noch mal sollte ich mir ein iPad mit M4 kaufen?

visionOS 2

Vier Monate nach US-Marktstart kommt die Vision Pro auch nach Deutschland. Das bedeutet, ich kann jetzt meine deutsche Apple-Store-ID auf der Vision Pro benutzen, was ich als das beste Feature von visionOS 2 bewerte. Davon abgesehen, gibt es aber auch ein paar (wenige) richtige neue Funktionen:

  • Das Fenster des erweiterten Mac Bildschirms kann jetzt deutlich größer sein. Mein zweiter Favorit unter den neuen Funktionen.
  • Neue Gesten für den Home Bildschirm und das Kontrollzentrum. Auch sehr nett und besser als vorher, einen kleinen Punkt suchen zu müssen.

Die Betas auf iOS, iPad OS und Vision OS habe ich bereits installiert – und ich kann keine negativen Aspekte feststellen. Man könnte aber auch sagen, es hat sich ja auch nicht viel geändert.

Apple Intelligence

oder: AI für den Rest von uns

oder 2: Geduld. Denn Apple Intelligence ist noch nicht da. Auch nicht in den aktuellen Betas. Es kommt im Herbst. Als Beta und nur den USA. Spannend ist es dennoch.

Datenschutz wird bei Apple sehr großgeschrieben. Apple genießt ein Vertrauen der Benutzer, wovon Google, Amazon und Meta nur träumen können. Bisher war es aber meistens so, dass KI die Anfragen in die Cloud gesendet haben. Diese wurden nicht nur für die aktuelle Frage ausgewertet – sondern auch für das Training der KI verwendet. Apple macht es anders, muss dabei aber nicht auf die Partnerschaft mit Open AI verzichten.

Seit Jahren werden in den iOS- und macOS Geräten Prozessoren eingebaut, welche auf Apple Intelligence vorbereitet waren (und ich denke, niemand hatte damals eine Ahnung, dass die KI von Apple so aussieht, wie sie auf dieser WWDC gezeigt wurde).

Anfragen von Benutzern werden zunächst auf dem eigenen Gerät analysiert. Es wird geprüft, ob die Anfrage direkt auf dem Gerät beantwortet werden kann. Falls nein, wird versucht, die Anfrage in Apples „Private Cloud“ zu beantworten. Auch hier speichert Apple nichts auf den eigenen Servern und die Anfrage wird so an Apples Server gesendet, dass ein Rückschluss auf den Urheber nicht möglich sei.
Wenn auch die „Private Cloud“ nicht ausreicht, fragt Apple den Benutzer, ob die Anfrage an ein externes Modell weitergeleitet werden darf. Das ist im Moment ausschließlich chatGPT, soll aber demnächst um weitere ergänzt werden. Auch hier wird angeblich nichts bei Open AI bzw. chatGPT gespeichert.

Das ist ein spannender Weg, der da begangen wird und ich kann mir vorstellen, dass das so funktioniert. Interessant finde ich auch, dass weder Apple noch Open AI für die Verwendung der Schnittstelle bezahlen würden. Wenn man hier bedenkt, dass Google an Apple 20 Mrd. US-Doller im Jahr zahlt, nur dass Safari Google als Standardsuche einstellt, ist das noch bemerkenswerter.

Das, was Apple zeigt, macht Lust auf mehr. Noch kann man, wie zuvor besprochen, nichts testen, aber ich denke, schlechter kann es nicht mit Siri werden, als es jetzt ist.

Was mir besonders unklar an dem gezeigten ist, ist die Tatsache, dass Apple „hunderte von App-Interaktionen“ in AI integriert hat. Das bedeutet im Umkehrschluss, dass jeder Interaktionen manuell einprogrammiert werden mussten. Das heißt weiter, jeder Entwickler muss das auch für seine Apps machen?! Das bedeutet, dass die KI nicht so selbstständig arbeiten kann, wie man es erwarten würde.

Dennoch scheint Siri das gesprochene viel besser zu verstehen. Anweisungen müssen nicht mehr in klarer Struktur gegeben werden (und werden dann bei 2 von 3 mal dennoch nicht verstanden), Siri erinnert sich an die letzten Anfragen und kann den Kontext für weitere Befehle nutzen. Siri kann Apps nach Informationen durchsuchen und (scheinbar wenn einprogrammiert, das meinte ich oben) auch Befehle in (nicht Apple-) Apps umsetzen. Das hoffe ich sehr, dass das so wie im Marketing-Material funktioniert. Ich nutze zB nicht die Mail App sondern Proton Mail in einer eigenen App für meinen privaten Account und Outlook für berufliche Mails. Kommt Siri damit klar? Überzeugt bin ich nicht, würde mich aber gerne überraschen lassen.

Überall, wo Texte zu finden sind, kann AI seine Stärken ausspielen und diese zusammenfassen oder smarte Antworten dazu generieren. Ähnlich wie das, was Microsoft schon hat – auf den Bildern und Videos sieht es bei Apple aber erst einmal viel durchdachter und benutzerfreundlicher aus.

Dann kann man eigene Emojis (Genmoji … ) erstellen. Man kann im „Image Playground“ eigene Bilder erstellen – hier aber nur in gezeichneten/ animierten Stilen. Apple sagt hier deutlich, fotorealistische Bilder gibt es keine, dafür muss man sich einen anderen Anbieter suchen. Was aber geht ist, dass man eigene Bilder um störende Objekte oder Personen bereinigen kann.

Das ganze funktioniert nur auf dem neusten iPhone 15 Pro sowie allen Macs und iPads mit M-Prozessor. Das bedeutet aber auch, dass die Apple Watch und auch die HomePods (Apples Gerät für Sprachbefehle) aktuell nicht unterstützt werden. Bis zum (Deutschland) Start dauert es noch etwas – ich vermute mal, dass diese Geräte auch ein Update erfahren. Ich würde das sehr begrüßen, denn ein HomePod, welcher wirklich funktioniert… das wäre wie Weihnachten und Geburtstag zusammen.


Kommentare


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

About Me

Du hast meinen Blog gefunden. Gratulation! Hier geht es um Dinge, die mich interessieren – tolle Technik, schicke Fotos und spannende Geschichten.