In Apfeltalk live haben wir mit Caspar von Allwörden über Apples KI-Fahrplan gesprochen. Thema: der zähe Siri-Status, Googles Gemini – und ein kurioses Store-Fundstück.
Ein seltenes Apple-Objekt – und Vorsicht beim Kauf
Zum Einstieg ging es um einen Onlineshop, der Apple-Store-Objekte verkauft. Gekauft wurde ein AirPods-Pro-Demo-Set aus Glas mit ersten AirPods und AirPods Pro – ein Ausstellungsstück, kein reguläres Produkt. Preis: 150 Dollar (rund 140 Euro) plus 13 Euro Zoll. Das Paket kam aus Australien. Zusätzlich lagen „Today at Apple“-Pins bei (Auge, Mund, Hashtag). Der Shop nennt keine Herkunft der Ware, daher Vorsicht. Teile sollen später in einer Charity-Auktion zugunsten Trauerland landen; heute bleiben sie noch in der Redaktion.
Siri heute: Versprechen, Verzögerungen und Gemini-Fragen
Rückblick: Apple versprach zur Entwicklerkonferenz WWDC eine deutlich kompetentere Siri, zeigte sogar einen Werbespot mit Bella Ramsey – und zog ihn wieder zurück. Bislang kam wenig beim Publikum an. Parallel kursierten Gerüchte, Apple setze für Chatfunktionen auf Googles Gemini. Kasper zeigte sich überrascht über Google als Partner, sieht darin aber keinen zwingend falschen Schritt.
Wesentliche Fragen bleiben offen: Arbeitet Siri künftig lokal oder in der Cloud? Wenn Cloud, dann wo genau und unter welchem Schutz? Apple betont „local first“ und verweist auf „Private Cloud Compute“ für sensible KI-Verarbeitung. Außerdem könnt ihr einstellen, ob Anfragen an externe Dienste wie OpenAI überhaupt gesendet werden. Frühere Skandalisierung („alle Daten gehen zu Google“) war überzogen, dennoch braucht es klare technische Zusagen.
Als Negativbeispiel wurde ein experimenteller Bot („Open Claw“) genannt: eine Ein-Mann-Entwicklung mit Vollzugriff auf Dateien und Programme – leistungsfähig, aber ein Sicherheitsrisiko. Genau solche unkontrollierten Fähigkeiten wird Apple nicht zulassen.
Realistische nächsten Schritte – und wo Siri heute scheitert
Der Status quo bleibt ernüchternd: Siri versteht oft schlecht, besonders bei gemischter Sprache. Nützlich ist sie im Auto via CarPlay zum Starten von Anrufen, iMessage-Diktaten oder App-Öffnen. Erinnerungen oder Musiksuchen scheitern jedoch regelmäßig an der Spracherkennung.
Spannend wird, wie tief Siri künftig in Apps arbeiten darf. Über App-Intents könnten Entwickler:innen gezielt Funktionen freigeben, etwa: „Poste das letzte Foto mit dieser Bildunterschrift auf Instagram.“ Dafür müssen Apps Schnittstellen bereitstellen. Apples Bildgenerator „Image Playground“ läuft lokal, Textfunktionen nutzen die Private Cloud Compute – das zeigte ein kurzer Flugmodus-Test.
Ein vollwertiger Chatbot direkt auf dem iPhone ist kurzfristig unwahrscheinlich. Große Sprachmodelle brauchen Speicher und Leistung, die Smartphones nicht bieten. Apple sollte außerdem nicht nur die neuesten Geräte unterstützen. Erwartbar ist eher eine schrittweise Einführung: erste, klar begrenzte Funktionen und lokale Indizes über Nacht, damit Siri schneller auf Mails, Nachrichten und Fotos zugreifen kann. Die Dimension ist erheblich: iMessage-Datenbanken erreichen zweistellige Gigabyte-Größen mit Millionen Nachrichten.
Fazit aus der Runde: Haltet die Erwartungen an kurzfristige Updates niedrig. Die WWDC dürfte aber besonders spannend werden. Apple muss liefern – mit spürbar besserem Verstehen und ersten praxistauglichen Assistentenfunktionen, die eure Daten zugleich wirksam schützen.