Mit der Veröffentlichung von iOS 26, iPadOS 26 und macOS 26 stellt Apple Entwicklern das neue Foundation Models Framework zur Verfügung. Dieses Werkzeug ermöglicht es, Funktionen von Apple Intelligence direkt in Anwendungen zu integrieren. Die Verarbeitung findet dabei vollständig auf dem Gerät statt, was den Datenschutz erhöht und die Nutzung ohne Internetverbindung erlaubt.
Zahlreiche App-Entwickler aus den Bereichen Gesundheit, Bildung und Produktivität haben bereits begonnen, das Framework zu nutzen, um neue intelligente Funktionen anzubieten. Diese reichen von personalisierten Trainingsplänen bis hin zu interaktiven Lernhilfen und automatisierten Aufgabenverwaltungen.
Wichtige Fakten
- Apples Foundation Models Framework ist Teil von iOS 26, iPadOS 26 und macOS 26.
- Es ermöglicht die Nutzung von Apple Intelligence direkt in Apps von Drittanbietern.
- Die KI-Verarbeitung erfolgt lokal auf dem Gerät, was Datenschutz und Offline-Nutzung sicherstellt.
- Entwickler können die Funktionen ohne zusätzliche Serverkosten für die KI-Inferenz implementieren.
- Anwendungen in den Kategorien Fitness, Bildung und Produktivität nutzen das Framework bereits für neue Features.
Neue Möglichkeiten für Gesundheit und Fitness
Im Bereich Gesundheit und Fitness nutzen Entwickler das Foundation Models Framework, um personalisierte und interaktive Erlebnisse zu schaffen. Die Fähigkeit des Systems, natürliche Sprache zu verstehen und kontextbezogene Empfehlungen zu geben, steht dabei im Mittelpunkt.
SmartGym erstellt intelligente Trainingspläne
Die Fitness-App SmartGym verwendet die neue Technologie, um Nutzereingaben in strukturierte Trainingspläne umzuwandeln. Anwender können eine Übung oder ein Ziel in Alltagssprache beschreiben, und die App generiert daraus eine Routine mit Sätzen, Wiederholungen und Pausenzeiten. Der „Smart Trainer“ analysiert zudem absolvierte Trainingseinheiten und gibt Empfehlungen zur Anpassung von Gewichten oder zur Gestaltung neuer Routinen. Jede Empfehlung wird mit einer Erklärung versehen, damit Nutzer die Logik dahinter verstehen.
Zusätzlich erstellt die App Monatsübersichten und detaillierte Analysen der Trainingsleistung. Personalisierte Coaching-Nachrichten und Begrüßungen, die sich an aktuellen Fitnessdaten orientieren, sollen die Motivation steigern.
„Das Foundation Models Framework ermöglicht es uns, Funktionen auf dem Gerät bereitzustellen, die früher unmöglich waren. Es ist einfach zu implementieren und dennoch unglaublich leistungsfähig.“
- Matt Abras, CEO von SmartGym
Stoic verbessert das digitale Tagebuch
Die Journaling-App Stoic nutzt Apple Intelligence, um das Schreiben von Tagebucheinträgen zu unterstützen. Die App generiert personalisierte Anregungen, die auf früheren Einträgen basieren. Hat ein Nutzer beispielsweise schlechten Schlaf oder eine gedrückte Stimmung vermerkt, erhält er eine aufmunternde und mitfühlende Nachricht. Da alle Daten lokal verarbeitet werden, bleibt die Privatsphäre der Nutzer gewahrt.
Die App kann auch Zusammenfassungen vergangener Einträge erstellen, thematisch ähnliche Notizen gruppieren und die Suche in den eigenen Aufzeichnungen durch die Verarbeitung natürlicher Sprache verbessern.
Weitere Fitness-Apps mit neuen KI-Funktionen
- SwingVision: Analysiert Tennis- und Pickleball-Videos und gibt konkrete Verbesserungsvorschläge.
- 7 Minute Workout: Erstellt dynamische Workouts basierend auf Anweisungen wie „vermeide Übungen für das Knie“.
- Gratitude: Generiert wöchentliche Zusammenfassungen von Herausforderungen und Erfolgen und wandelt Einträge in Affirmationen um.
- Train Fitness: Schlägt alternative Übungen vor, wenn ein Gerät besetzt ist.
- Wakeout!: Erstellt personalisierte Bewegungspausen mit detaillierten Begründungen für die Übungsauswahl.
Innovationen im Bildungssektor
Auch Bildungs-Apps profitieren von den neuen KI-Funktionen. Das Framework hilft dabei, komplexe Themen verständlicher zu machen und Lerninhalte an das individuelle Wissen der Nutzer anzupassen.
CellWalk erklärt Biologie interaktiv
Die App CellWalk ermöglicht eine virtuelle Erkundung einer menschlichen Zelle in 3D. Nutzer können unbekannte wissenschaftliche Begriffe markieren, woraufhin die App eine verständliche Erklärung generiert. Der Inhalt der Erklärung wird an das im Nutzerprofil hinterlegte Wissensniveau angepasst, egal ob es sich um einen Schüler oder einen Forscher handelt.
Laut dem Entwickler Tim Davison erweckt das Framework die textlichen Inhalte der App zum Leben. Die wissenschaftlichen Daten werden zu einem dynamischen System, das sich an jeden Lernenden anpasst.
Wie funktioniert die lokale Verarbeitung?
Das Herzstück von Apple Intelligence ist ein großes Sprachmodell (Large Language Model, LLM) mit 3 Milliarden Parametern, das direkt auf kompatiblen Apple-Geräten läuft. Diese On-Device-Architektur hat mehrere Vorteile: Die Daten der Nutzer müssen das Gerät nicht verlassen, was den Datenschutz stärkt. Zudem sind die Funktionen auch ohne Internetverbindung verfügbar, und für Entwickler entstehen keine laufenden Kosten für die Nutzung der KI-Modelle.
Weitere Lern-Apps mit Apple Intelligence
Andere Bildungsanwendungen haben ebenfalls neue Funktionen eingeführt:
- Grammo: Ein KI-Tutor für englische Grammatik erklärt Nutzern, warum eine Antwort in einer Übung falsch war.
- Lil Artist: Kombiniert das Framework mit der ImageCreator API, um illustrierte Geschichten für Kinder zu personalisieren.
- Vocabulary: Kategorisiert von Nutzern gespeicherte Vokabeln automatisch in Themen wie „Verben“ oder „Anatomie“.
- Platzi: Eine spanischsprachige Lernplattform, die es Nutzern ermöglicht, während eines Video-Kurses spezifische Fragen zum Inhalt zu stellen und sofort eine Antwort zu erhalten.
Produktivität und Kreativität neu gedacht
Im Bereich der Produktivitäts- und Kreativ-Apps helfen die neuen KI-Funktionen dabei, Aufgaben schneller zu erledigen und kreative Prozesse zu vereinfachen.
Stuff organisiert Aufgaben automatisch
Die To-do-App Stuff erkennt nun Daten, Schlagwörter und Listen, während der Nutzer tippt. Die Eingabe „Sophia am Freitag anrufen“ wird automatisch in eine Aufgabe mit dem korrekten Fälligkeitsdatum umgewandelt. Der „Listen Mode“ wandelt gesprochene Sätze wie „Wäsche waschen heute Abend“ in organisierte Aufgaben um. Mit dem „Scan Mode“ können sogar handschriftliche Notizen erfasst und in die App importiert werden.
„Das Framework in iOS 26 hat die Arbeitsabläufe in Stuff grundlegend verändert. Es läuft vollständig auf dem Gerät, ist leistungsstark, vorhersehbar und bemerkenswert performant.“
- Austin Blake, Entwickler von Stuff
VLLO vereinfacht die Videobearbeitung
Die Videobearbeitungs-App VLLO nutzt das Foundation Models Framework in Kombination mit Apples Vision Framework. Die Software analysiert eine Videovorschau und schlägt automatisch passende Hintergrundmusik sowie dynamische Sticker für jede Szene vor. Dieser Prozess senkt die Hürden für neue Content-Ersteller, da komplexe Bearbeitungsschritte automatisiert werden.
Kyunghyun Lee, CEO des Entwicklerstudios Vimosoft, erklärte, dass die Kombination beider Frameworks es ermöglichte, fortschrittliche Empfehlungsfunktionen schnell und effizient zu entwickeln, ohne komplexe Algorithmen implementieren zu müssen.
Zusätzliche Produktivitäts-Apps mit neuen Funktionen
- Signeasy: Erstellt Zusammenfassungen von Dokumenten und beantwortet Fragen zum Inhalt.
- Agenda: Der Assistent „Ask Agenda“ durchsucht die Notizen des Nutzers und gibt Antworten in natürlicher Sprache.
- Detail: AI Video Editor: Wandelt einen Entwurf in ein fertiges Skript für einen Teleprompter um und generiert Titel und Beschreibungen.
- OmniFocus 4: Erstellt automatisch Projekte und Aufgaben, beispielsweise eine Packliste für eine bevorstehende Reise.
Technische Umsetzung für Entwickler
Das Foundation Models Framework ist eng in die Programmiersprache Swift integriert. Dies erleichtert es Entwicklern, Anfragen an das auf dem Gerät laufende Sprachmodell zu senden. Das Framework stellt sicher, dass die Antworten des Modells in einem konsistenten und für die App nutzbaren Format erfolgen.
Die neuen Funktionen sind auf allen Geräten verfügbar, die mit Apple Intelligence kompatibel sind und auf denen die Funktion aktiviert ist. Die Beta-Version von Apple Intelligence unterstützt zunächst mehrere Sprachen, darunter Englisch und Deutsch, wobei einige Funktionen regional oder sprachlich eingeschränkt sein können.





