- Apple arbeitet an einer LLM-basierten Siri, die auf fortschrittlichen KI-Modellen basiert und mehr menschliche Interaktionen ermöglichen soll. Apple plant eine Ankündigung für 2025 und die Veröffentlichung im Frühjahr 2026, doch die Konkurrenz bietet bereits ähnliche Funktionen. Apples LLM Siri könnte interaktiv mit Apps und Drittanbieter-Modellen wie ChatGPT kommunizieren. Google’s Integration von Gemini in Apple-Geräte zeigt den Druck auf Apple, im virtuellen Assistentenmarkt wettbewerbsfähig zu bleiben. Bis zur Veröffentlichung von LLM Siri könnte die Konkurrenz wie Google ihre Position weiter stärken.
Das bedeutendste Fazit des glanzvollen WWDC-Events von Apple in diesem Jahr war die nächste Evolutionsstufe von Siri im Zeitalter der Künstlichen Intelligenz. Bedauerlicherweise fehlen noch viele der vielversprechenden Upgrades für die breite Masse, und das, was bereits verfügbar ist, reißt nicht wirklich vom Hocker. Doch der Weg in die Zukunft sieht nicht allzu düster aus, auch wenn die Erlösung noch fern scheint.
Zwischenhalt auf der Reise ins Unbekannte
Intern arbeitet Apple laut Berichten an einer LLM-basierten Siri, einem fortschrittlichen KI-Stack, der dem Assistenten ermöglichen soll, Dialoge zu führen und komplexere Anfragen zu bearbeiten. LLM, die Abkürzung für Large Language Model, ist das geheime Rezept, das Konversationsprodukte wie OpenAIs ChatGPT und Googles Gemini antreibt. Apples Absichten mit LLM Siri weichen nicht weit ab, da das Unternehmen anstrebt, dass es in etwa auf ähnliche Weise wie Gemini agiert. Berichten zufolge wird die überarbeitete Siri auf neuen Apple-AI-Modellen basieren, um mehr menschliche Interaktionen zu bieten.
Ein Rennen gegen die Zeit
Während Apple 2025 mit einer Ankündigung rechnet und im Frühjahr 2026 eine Veröffentlichung plant, lässt sich diese Entwicklung nicht grade als Aufholjagd zur Konkurrenz beschreiben. Denn viele dieser Vorteile können bereits in großem Umfang auf iPhones erlebt werden. Die Integration von Siri-Chats mit ChatGPT, die jetzt in iOS-Testversionen verfügbar ist, bietet bereits einige der erhofften Funktionen. Ungeachtet dessen hat Google kürzlich seine Standalone-App veröffentlicht, die ebenfalls den Gemini Live-Konversationsmodus auf Apple-Smartphones bringt. Das wirft die wichtige Frage auf: Warum länger als ein Jahr warten, wenn andere Produkte bereits diese Bequemlichkeiten anbieten?
Ein Schritt ins Ungewisse
Es ist auch erwähnenswert, dass Apple offiziell Unterstützung für weitere Drittanbieter-Sprachmodelle wie ChatGPT als Teil des Apple-Intelligence-Pakets hinzufügen wird. Dabei steht die Google-Gemini-Integration bereits in der Warteschlange. Aktuell wirkt Apples Versuch, im Wettbewerb der virtuellen Assistenten aufzuholen, beunruhigend träge. Google hat bereits viele der Aufgaben des Google Assistant an Gemini abgegeben. Die Integration in Werkzeuge wie Gmail und Docs erweist sich schon jetzt als sehr lohnend.
Der bemerkenswerteste Fortschritt für LLM Siri wird voraussichtlich ihre Fähigkeit sein, mit Apps zu interagieren. Laut einem Bloomberg-Bericht wird sie auch erweiterte Nutzungsmöglichkeiten von App Intents besitzen, die eine präzisere Steuerung von Drittanbieter-Apps ermöglichen. Obwohl diese Zukunftsperspektive verheißungsvoll wirkt, bleibt sie noch über ein Jahr entfernt. Aber Apple wird in diesem Streben nicht der einzige Krieger sein. In zukünftigen Entwickler-Vorschauen könnte Gemini die Fähigkeit erlangen, Aufgaben über Drittanbieter-Apps auszuführen – eine Funktion, die bislang auf Workspace-Tools wie Gmail, Docs und Kalender beschränkt war. Es scheint, als setze Apple mit den Plänen für LLM Siri definitiv die richtigen Schritte, doch bis diese Prophezeiungen in Erfüllung gehen, könnte die Konkurrenz längst ihren Siegeszug angetreten haben.