ADMIN

2026

02

2026-01-27T12:00:00

Hybrid Work

SCHWERPUNKT

074

Hybride Arbeitsplätze

Betriebssystemen

Apple

Apple Intelligence

KI zum Mitnehmen

von Mark Zimmermann

Veröffentlicht in Ausgabe 02/2026 - SCHWERPUNKT

Apple hat mit Apple Intelligence den Umgang mit künstlicher Intelligenz im eigenen Ökosystem neu ausgerichtet. Der hybride Ansatz kombiniert lokale Rechenleistung mit einer abgesicherten Cloudumgebung. Mit den neuen Betriebssystemen öffnen sich diese Funktionen erstmals für Entwickler und Administratoren – einschließlich einer MDM-gestützten Steuerung im Unternehmen.

Als Apple im Sommer 2024 Apple Intelligence vorstellte, markierte dies einen Wendepunkt in Apples Umgang mit künstlicher Intelligenz. Erstmals wurde eine KI tief in das gesamte Apple-Ökosystem aus iPhone, iPad und Mac integriert – nicht als extern angebundener Clouddienst, sondern als Bestandteil des Betriebssystems. Nur wenn besonders komplexe Aufgaben zusätzliche Rechenleistung erfordern, werden sie über das speziell abgesicherte "Private Cloud Compute" ausgelagert. So entstand ein Ansatz, der Effizienz und Privatsphäre verbinden soll.
Anfangs war die Nutzung der Modelle jedoch stark eingeschränkt. Nur Apples eigene Apps wie Mail, Nachrichten oder Safari konnten die neuen Funktionen einsetzen. Der Fokus lag zunächst auf Datenschutz, Sicherheit und der stabilen Einführung der Basistechnologie. Mit den neuen Betriebssystemgenerationen iOS 26, iPad-OS 26 und macOS 26 erfolgte ein entscheidender Schritt: die Öffnung für Entwickler. Über klar definierte Schnittstellen können sie nun eigene Anwendungen mit den Foundation-Modellen von Apple Intelligence verknüpfen. Damit hat sich dieser Ansatz von einem geschlossenen System zu einem kontrolliert zugänglichen Entwicklerökosystem entwickelt, das Entwicklern mehr Gestaltungsspielraum bietet und zugleich die Privatsphäre berücksichtigt.
Architektur und Grundprinzip
Apple verfolgt mit Apple Intelligence einen hybriden Ansatz, der lokale Rechenleistung mit einer abgesicherten Cloudverarbeitung kombiniert. Ziel ist, sensible Informationen direkt auf dem Gerät auszuwerten und nur dann in die Cloud zu übertragen, wenn zusätzliche Rechenkapazität erforderlich ist. Diese Architektur vereint Geschwindigkeit, Effizienz und Datenschutz und erlaubt zudem eine Offline-Nutzung zentraler KI-Funktionen.
Als Apple im Sommer 2024 Apple Intelligence vorstellte, markierte dies einen Wendepunkt in Apples Umgang mit künstlicher Intelligenz. Erstmals wurde eine KI tief in das gesamte Apple-Ökosystem aus iPhone, iPad und Mac integriert – nicht als extern angebundener Clouddienst, sondern als Bestandteil des Betriebssystems. Nur wenn besonders komplexe Aufgaben zusätzliche Rechenleistung erfordern, werden sie über das speziell abgesicherte "Private Cloud Compute" ausgelagert. So entstand ein Ansatz, der Effizienz und Privatsphäre verbinden soll.
Anfangs war die Nutzung der Modelle jedoch stark eingeschränkt. Nur Apples eigene Apps wie Mail, Nachrichten oder Safari konnten die neuen Funktionen einsetzen. Der Fokus lag zunächst auf Datenschutz, Sicherheit und der stabilen Einführung der Basistechnologie. Mit den neuen Betriebssystemgenerationen iOS 26, iPad-OS 26 und macOS 26 erfolgte ein entscheidender Schritt: die Öffnung für Entwickler. Über klar definierte Schnittstellen können sie nun eigene Anwendungen mit den Foundation-Modellen von Apple Intelligence verknüpfen. Damit hat sich dieser Ansatz von einem geschlossenen System zu einem kontrolliert zugänglichen Entwicklerökosystem entwickelt, das Entwicklern mehr Gestaltungsspielraum bietet und zugleich die Privatsphäre berücksichtigt.
Architektur und Grundprinzip
Apple verfolgt mit Apple Intelligence einen hybriden Ansatz, der lokale Rechenleistung mit einer abgesicherten Cloudverarbeitung kombiniert. Ziel ist, sensible Informationen direkt auf dem Gerät auszuwerten und nur dann in die Cloud zu übertragen, wenn zusätzliche Rechenkapazität erforderlich ist. Diese Architektur vereint Geschwindigkeit, Effizienz und Datenschutz und erlaubt zudem eine Offline-Nutzung zentraler KI-Funktionen.
Vorlesen, Spracheingabe und Verarbeitung laufen vollständig und lokal auf dem Gerät.
Im Zentrum stehen zwei Foundation-Modelle, die gemeinsam diese Architektur bilden. Das kompakte Modell mit rund drei Milliarden Parametern läuft direkt auf Geräten mit Apple Silicon. Es reagiert auf lokale Anfragen, verarbeitet Text und funktioniert vollständig offline. Entwickelt wurde es speziell für diese Prozessorarchitektur. Es nutzt unter anderem KV-Cache-Sharing, um den Speicher effizient einzusetzen, sowie eine 2-Bit-Quantisierung, um das Modell stark zu komprimieren, ohne die Ausführungsgeschwindigkeit zu beeinträchtigen.
Für komplexere Aufgaben steht in der Private-Cloud-Compute-Infrastruktur ein leistungsfähigeres Servermodell bereit. Es nutzt eine Mixture-of-Experts-Architektur, die Anfragen dynamisch auf spezialisierte Teilkomponenten verteilt und so Rechenlast sowie Antwortqualität optimiert. Das Ergebnis ist eine Umgebung, die skalierbar, energieeffizient und zugleich sehr leistungsfähig ist. Die Serverumgebung wurde speziell für verschlüsselte, temporäre und auditierbare Datenverarbeitung entwickelt. Das System entscheidet automatisch, ob eine Anfrage lokal oder über die Cloud ausgeführt wird, wodurch geringe Verzögerungen bei maximaler Datensouveränität möglich sind.
Mit dem Foundation-Models-Framework erhalten Entwickler ein Werkzeug, um die Apple-Intelligence-Plattform direkt in eigene Anwendungen einzubinden. Über eine Swift-Programmierschnittstelle lassen sich Funktionen integrieren, die offline arbeiten, keine Nutzerdaten weiterreichen und keine externen API-Kosten erzeugen.
Das Framework ermöglicht eine präzise Steuerung der Modellantworten, das Ausführen definierter Funktionen und die Anpassung von Modellen mithilfe von LoRA-Adaptern zur effizienten Feinjustierung. Dadurch können auch kleine Teams KI-Funktionen in Anwendungen einarbeiten, ohne eine eigene Infrastruktur betreiben zu müssen. Beispiele hierfür sind SmartGym, Stoic oder VLLO.
KI-Funktionen in Kurzbefehlen
Die Integration von Apple Intelligence in die Kurzbefehle-App, insbesondere durch die neue Aktion "Modell verwenden" in iOS 16, erweitert die Möglichkeiten der persönlichen Automatisierung um eine intelligentere Datenverarbeitung auf Apple-Geräten. Über diese Aktion haben Arbeitsabläufe eine direkte Schnittstelle zu den Foundation-Modellen und können KI-Funktionen für eine Vielzahl von Aufgaben nutzen, die weit über einfache vordefinierte Schritte hinausgehen.
Neben klassischen Textverarbeitungen wie Korrekturlesen oder Umformatieren stehen auch erweiterte Modellfunktionen zur Verfügung. Anwender können wählen, ob sie das kleinere und datenschutzfreundliche On-Device-Modell für offline ausführbare Aufgaben oder das leistungsstärkere Cloudmodell für komplexere Anfragen verwenden möchten. Auch die Nutzung von ChatGPT als Cloudmodell ist möglich. Dadurch entsteht ein großes Potenzial für persönliche und kontextbezogene Arbeitsabläufe, die direkt in das Betriebssystem eingebettet sind.
Offline-Interview per Spracheingabe
Um die praktische Bedeutung dieser Integration zu verdeutlichen, betrachten wir einen konkreten Anwendungsfall: die Erstellung eines Kurzbefehls, mit dem sich ein standardisiertes Interview per Spracheingabe durchführen lässt und dessen Antworten lokal und vollständig offline zu einem strukturierten Markdown-Dokument verarbeitet werden. Ein solcher Kurzbefehl eignet sich für Journalisten, Forscher, Berater, Monteure oder Vertriebsmitarbeiter, die regelmäßig strukturierte Gespräche führen und diese effizient protokollieren müssen, ohne auf eine Internetverbindung angewiesen zu sein oder sensible Daten an externe Dienste zu übermitteln.
Der Aufbau eines solchen Kurzbefehls erfolgt in mehreren Schritten. Zunächst wird die native Diktatfunktion von iOS genutzt. Diese arbeitet vollständig offline, sofern das zugehörige Sprachpaket installiert ist. Der Kurzbefehl führt den Anwender anschließend durch eine Reihe vordefinierter Fragen, die mithilfe der Aktion "Text anzeigen" sichtbar gemacht oder mit der Aktion "Vorlesen" wiedergegeben werden. Nach jeder Frage – zum Beispiel "Beschreiben Sie bitte das Kernproblem" oder "Welche Ansätze haben Sie bereits in Betracht gezogen?" – wird die Diktataufnahme aktiviert, um die gesprochene Antwort zu erfassen. Auf diese Weise entsteht eine Sammlung von Textantworten.
Im nächsten Schritt werden die gesammelten Antworten in die Aktion "Modell verwenden" übergeben. Entscheidend ist hier die Auswahl des Modells, um unter anderem die Offline-Funktionalität sicherzustellen. Ein präzise formulierter Prompt weist das Modell an, die unstrukturierten Antworten in ein formatiertes Markdown-Dokument umzuwandeln. Ein Beispiel hierfür könnte lauten: "Erstelle aus den folgenden Interview-Antworten ein strukturiertes Markdown-Dokument. Verwende ## für Hauptüberschriften und ### für Unterüberschriften. Formatiere wichtige Kernaussagen als Aufzählungspunkte und beginne mit einer kurzen Executive Summary."
Das Modell setzt diese Anweisung um und erzeugt einen formatierten Rich-Text-Ausgabeinhalt. Dank der Unterstützung für Attributed Strings bleibt die Markdown-Formatierung beim Weitergeben an andere Anwendungen erhalten, sodass sich das Ergebnis problemlos in Apps wie Bear, Craft oder Apple Notes übernehmen lässt. Abschließend speichert eine Share-Aktion das fertige Protokoll in der gewünschten App oder als Datei in iCloud Drive.
Dieses Vorgehen erlaubt es dem Anwender, die Spracheingabe zu strukturieren und das Ergebnis verlässlich weiterzuverarbeiten. Er kann das Modell zum Beispiel anweisen, umgangssprachliche Formulierungen zu vermeiden oder die Ausgabe stets in einem festen Format zu erzeugen.
Es ist jedoch wichtig, die Besonderheiten des On-Device-Modells zu kennen, denn bei sehr langen Interviews oder umfangreichen Textmengen kann es an seine Grenzen stoßen und einen Fehler zurückgeben. In solchen Fällen empfiehlt es sich, den Prozess in mehrere kleinere Verarbeitungsschritte zu unterteilen. Sobald eine Internetverbindung verfügbar ist, kann der Anwender alternativ auf das leistungsfähigere Cloudmodell wechseln.
Eine weitere hilfreiche Funktion ist die "Follow-Up"-Möglichkeit der Aktion "Modell verwenden", mit der sich das generierte Dokument durch weitere Anweisungen wie "Fasse die Ergebnisse in drei Stichpunkten zusammen" oder "Formuliere den zweiten Absatz präziser" schrittweise verfeinern lässt.
Einführung im Unternehmen
Die erfolgreiche Einführung von Apple Intelligence im Unternehmen erfordert mehr als die technische Bereitstellung von MDM-Profilen. Eine durchdachte Strategie ist entscheidend, um die Akzeptanz der Mitarbeiter zu fördern und den Nutzen der neuen Funktionen zu maximieren. Ein bewährtes Vorgehen ist ein gestufter Rollout, beginnend mit einem Pilotprojekt in einer besonders experimentierfreudigen Abteilung. So kann die IT in einem kontrollierten Rahmen erste Erfahrungen sammeln, Auswirkungen auf Arbeitsabläufe bewerten und mögliche Hindernisse frühzeitig erkennen. Das Feedback der Pilotanwender hilft dabei, MDM-Richtlinien zu verfeinern und Empfehlungen für eine breitere Einführung zu entwickeln.
Parallel sollten IT-Verantwortliche Schulungen und Informationsmaterialien bereitstellen, die nicht nur die Funktionsweise der neuen Werkzeuge erklären, sondern auch die unternehmensspezifischen Vorgaben und Gründe für bestimmte Einschränkungen erläutern. Eine transparente Kommunikation trägt dazu bei, Unsicherheiten abzubauen und Vertrauen zu schaffen.
Ebenso wichtig ist ein Prozess für kontinuierliches Monitoring und regelmäßige Rückmeldeschleifen. Da Apple sein Ökosystem stetig weiterentwickelt, gilt es, auch interne Richtlinien und Konfigurationen regelmäßig zu überprüfen und anzupassen. Nur so lässt sich eine sinnvolle Balance zwischen Produktivität, Sicherheit und Datenschutz erreichen.
Für Unternehmen ist die Einführung von Apple Intelligence stets ein Balanceakt. Die neuen Funktionen können die Produktivität steigern, gleichzeitig müssen IT-Administratoren sicherstellen, dass deren Einsatz mit den Datenschutz- und Compliancevorgaben vereinbar ist. Apple trägt diesem Bedarf Rechnung und ermöglicht über Mobile-Device-Management-Systeme (MDM) eine umfassende und fein abgestimmte Steuerung der verfügbaren Funktionen. Dadurch erhalten Unternehmen die notwendigen Werkzeuge, um die Vorteile der künstlichen Intelligenz zu nutzen, ohne die Hoheit über sensible Daten zu verlieren.
Supervised Mode als Voraussetzung
Apple bietet Unternehmen umfangreiche Verwaltungs- und Steuerungsoptionen für Apple Intelligence. Mithilfe von MDM können Administratoren festlegen, welche Funktionen zur Verfügung stehen und wie Daten verarbeitet werden dürfen. So lassen sich Sicherheit, Compliance und Effizienz miteinander in Einklang bringen. Apple Intelligence steht damit für eine neue Art der Einbindung von KI-Funktionen in die Infrastruktur, die Leistung, Datenschutz und Benutzerfreundlichkeit verbindet und zentral steuerbar macht.
Die zentrale Verwaltung der Apple-Intelligence-Funktionen setzt voraus, dass die Geräte überwacht betrieben werden. Der Supervised Mode ist ein spezieller Betriebszustand für institutionseigene Geräte und ermöglicht eine tiefere Kontrolle durch das MDM-System. Geräte, die über den Apple Business Manager oder den Apple School Manager registriert und einem MDM-System zugewiesen sind, befinden sich automatisch in diesem Modus. Dies ist entscheidend, denn nur überwachte Geräte können die gesamte Bandbreite der Steuerungsfunktionen für Apple Intelligence empfangen.
MDM-Grenzen auf privaten Geräten
Auf privaten Geräten von Mitarbeitern, die im Rahmen von Bring Your Own Device genutzt werden und sich nicht im überwachten Modus befinden, stehen diese erweiterten Steuerungsmöglichkeiten nicht zur Verfügung. Hier greifen lediglich App-spezifische Verwaltungsrichtlinien im Rahmen des Mobile Application Management. Diese Richtlinien beschränken sich jedoch auf die Daten innerhalb der verwalteten Anwendungen und erlauben keine Steuerung der systemweiten Apple-Intelligence-Funktionen.
Unternehmen, die eine konsistente und sichere Nutzung der künstlichen Intelligenz gewährleisten möchten, sind daher auf firmeneigene und überwachte Geräte angewiesen. Nur so lässt sich sicherstellen, dass alle KI-Funktionen zentral konfigurierbar bleiben und keine Ausführung außerhalb der internen Richtlinien erfolgt.
MDM-Steuerung für Apple Intelligence
Feature Konfigurationsschlüssel Supervision erforderlich
Apple Intelligence Report
allowAppleIntelligenceReport
Ja
ChatGPT Integration
allowExternalIntelligenceIntegrations
Nein
ChatGPT Anmeldung
allowExternalIntelligenceIntegrationsSignIn
Nein
Genmoji
allowGenmoji
Ja
Image Playground
allowImagePlayground
Ja
Image Wand
allowImageWand
Ja
Mail Smart Replies
allowMailSmartReplies
Ja
Mail Summary
allowMailSummary
Ja
Notes Transcription
allowNotesTranscription
Ja
Notes Transcription Summary
allowNotesTranscriptionSummary
Ja
Safari Summary
allowSafariSummary
Ja
Siri
allowAssistant
Nein
Visual Intelligence Summary
allowVisualIntelligenceSummary
Ja
Writing Tools
allowWritingTools
Ja
Granulare MDM-Steuerung
Anstelle eines einzigen An-/Aus-Schalters bietet Apple eine detaillierte Liste an Konfigurationsmöglichkeiten für Apple Intelligence. Mithilfe dieser Vorgaben können IT-Administratoren festlegen, wie weit bestimmte Funktionen im Unternehmen eingesetzt werden dürfen. Die Einstellungen landen per MDM auf den verwalteten Geräten und ermöglichen eine sehr präzise Steuerung der verfügbaren Funktionen.
Ein zentraler Bereich betrifft die kreativen, textbasierten Werkzeuge. IT-Abteilungen können zum Beispiel die Writing Tools deaktivieren, die systemweit beim Umschreiben, Korrekturlesen und Zusammenfassen von Texten unterstützen. Gerade in stark regulierten Branchen wie dem Finanz- oder Rechtswesen kann dies notwendig sein, um unbeabsichtigte Veränderungen sensibler Dokumente zu verhindern. Ebenso lassen sich die kreativen Werkzeuge wie Image Playground oder Genmoji sperren. Dies kann relevant sein, um Corporate-Identity-Vorgaben einzuhalten oder zu vermeiden, dass Mitarbeiter geschütztes oder unangemessenes Bildmaterial erzeugen.
Darüber hinaus können Administratoren steuern, welche datenbezogenen Funktionen zugelassen sind. Die Zusammenfassungsfunktionen in Mail, Safari oder der Notizen-App greifen auf Inhalte zu, die unter Umständen vertraulich sind. Unternehmen können diese Funktionen einzeln deaktivieren, um sicherzustellen, dass keine Analyse sensibler Inhalte erfolgt. Auch die intelligenten Antwortvorschläge in Mail lassen sich abschalten, wenn eine automatische Auswertung von Nachrichten nicht erwünscht ist.
Für viele Organisationen ist die Kontrolle über die Schnittstellen zu externen KI-Diensten besonders wichtig. Apple ermöglicht es etwa, die Integration von ChatGPT vollständig zu unterbinden. Diese Option verhindert, dass eigene Daten die abgesicherte Umgebung von Private Cloud Compute verlassen. Falls eine Organisation den Zugriff auf externe Dienste erlauben möchte, kann es zusätzlich eine Liste zugelassener Workspace-IDs definieren. Dadurch ist gewährleistet, dass sich Mitarbeiter ausschließlich mit einem verwalteten und lizenzierten ChatGPT-Konto anmelden können. Auf diese Weise bleibt die Nutzung externer Dienste klar innerhalb der eigenen Richtlinien.
Auch über die Kernfunktionen von Apple Intelligence hinaus stellt Apple weitere sicherheitsrelevante MDM-Konfigurationen bereit. So lässt sich zum Beispiel die Funktion zur Aufzeichnung und Transkription von Telefongesprächen deaktivieren, was in vielen Ländern aufgrund rechtlicher Vorgaben notwendig ist. Ebenso kann das IT-Team das Spiegeln des iPhone-Bildschirms auf einen Mac abschalten, um zu verhindern, dass sensible Inhalte auf ungesicherten Geräten angezeigt werden. Mit diesen granularen Einstellungen schaffen IT-Abteilungen eine Arbeitsumgebung, die sowohl den organisatorischen Anforderungen als auch den Sicherheitsvorgaben entspricht.
Damit diese Einschränkungen für die Beschäftigten nachvollziehbar bleiben, zeigt das System klare Rückmeldungen an. Ruft ein Anwender eine durch MDM gesperrte Funktion auf, erscheint eine verständliche Meldung wie "Diese Funktion wird durch ein Profil gesteuert" oder "Momentan nicht verfügbar". Ist die ChatGPT-Integration deaktiviert, erscheint die entsprechende Auswahlmöglichkeit ausgegraut. Diese direkte Rückmeldung reduziert mögliche Irritationen und erhöht die Transparenz im Umgang mit den Vorgaben des Unternehmens.
Datenschutz im Apple-Intelligence-Kontext
Apple hat Apple Intelligence so gestaltet, dass zentrale Funktionen direkt auf dem Gerät arbeiten und nur bei anspruchsvolleren Aufgaben die Private-Cloud-Compute-Infrastruktur zum Einsatz kommt. Diese Architektur stellt sicher, dass Daten nur für den Zeitraum verarbeitet werden, der technisch notwendig ist.
Für die IT-Abteilung bietet die MDM-Steuerung eine wichtige Grundlage, um festzulegen, wie Apple Intelligence eingesetzt werden soll. Dazu gehört auch der Umgang mit externen Diensten wie ChatGPT. Die Richtlinien erlauben es, diese Anbindung vollständig zu deaktivieren oder auf verwaltete Konten zu beschränken, damit die Nutzung klar innerhalb der betrieblichen Vorgaben bleibt.
Die Einführung von Apple Intelligence ist damit sowohl eine technische als auch eine organisatorische Aufgabe. Ein gestuftes Vorgehen, begleitet von klaren internen Richtlinien und passenden Schulungen, erleichtert diesen Prozess. Da Apple seine Funktionen fortlaufend erweitert, sollten Unternehmen ihre Vorgaben regelmäßig überprüfen und anpassen, um die neuen Möglichkeiten sinnvoll in den Arbeitsalltag einzubinden.
Fazit
Apple Intelligence bringt leistungsfähige KI-Funktionen direkt in das Betriebssystem und eröffnet Entwicklern und Admins neue Gestaltungsmöglichkeiten. Die Kombination aus Foundation-Modellen, On-Device-Verarbeitung und Private Cloud Compute bildet eine technische Basis, die sich ohne eigene Infrastruktur nutzen lässt. Das Foundation-Models-Framework erleichtert das Einbetten dieser Fähigkeiten in Anwendungen, während die Kurzbefehle-App zeigt, wie sich solche Funktionen unmittelbar im Alltag einsetzen lassen.
Mit den umfangreichen MDM-Konfigurationen lassen sich die neuen Funktionen gezielt steuern. Dies ermöglicht einen kontrollierten und an den eigenen Anforderungen orientierten Einsatz. Wie schnell Organisationen und Entwickler das Potenzial von Apple Intelligence ausschöpfen, wird sich zeigen. Klar ist jedoch, dass Apple damit eine Grundlage für eine neue Form der Assistenz geschaffen hat, die sich flexibel in bestehende Strukturen integrieren lässt.
(ln)
Links
[1] Apple Intelligence: https://it-a.eu/q2z61