Mit Apple Intelligence verspricht CupertinoAnwendern generative KI-Funktionen mithöchster Datensicherheit und Privatsphäre aufiPhone, iPad und Mac. Es soll die begriffsstutzige Siriablösen, bringt aber neue Aufgaben für IT-Teams mit. Wir erklären, wieso der Dienst besser funktioniert als Siri und wie er besonders sorgsam mit personenbezogenenDaten umgeht. Gleichzeitig ist jedoch eine zentrale Verwaltung durch die IT bislang noch problembehaftet.
Apple verspricht, eine persönliche Intelligenz bereitzustellen, die den Benutzer versteht. Dadurch sollen die Hardwareprodukte für die Nutzer noch nützlicher werden. Die KI soll leistungsfähig und einfach zu bedienen sein und das Niveau des Datenschutzes heben. Damit stellt sich Apple gegen andere große Unternehmen wie Microsoft, Google und OpenAI, die (scheinbar) weniger Wert auf Datenschutz legen. Apple betont, alle Daten in der eigenen AI nur für die jeweilige Aufgabe zu verwenden und danach zu löschen. Ein Speichern zu Trainingszwecken oder zur Fehlersuche finde nicht statt. Die Daten seien zusätzlich jederzeit verschlüsselt und anonymisiert. Sensible Informationen wie Fotos, Dokumente, Nachrichten und E-Mails seien somit sicher gespeichert und verlassen niemals das Gerät selbst. Apple Intelligence unterstützt zum Start nur Englisch (USA).
Der Funktionsumfang von Apples AI ist kein Feuerwerk der Innovation, sondern steht vielmehr auf einer soliden Basis generativer KI-Modelle, wie von anderen Anbietern bekannt. Das System kann Text bearbeiten und zusammenfassen, E-Mails und Benachrichtigungen priorisieren, Bilder und Emojis erstellen, Informationen mit der Kamera live erkennen, Objekte aus Bildern entfernen und In-App-Aktionen installierter Anwendungen ausführen. Der Vorteil bei Apple ist jedoch, dass das Betriebssystem selbst KI für den User nutzbar macht, ohne dass sich dieser mit komplizierten Anweisungen in Form von Prompts herumschlagen muss. Die neuen Funktionen sind auch nicht nur in den Apple eigenen Apps verfügbar, sondern im gesamten System.
Intelligenz statt Begriffsstutzigkeit
Apple verspricht, dass Siri durch die neue KI ein echtes Schlauerle wird. Siri soll mehr verstehen und auch einen Wechsel zwischen Text- und Sprachmodus anbieten. Der Nutzer soll damit Befehle ausführen können, die auf Anwendungen von Drittanbietern genau so zugreifen können wie auf den Kontext des aktuellen Bildschirminhalts. So lässt sich unter anderem eine Adresse aus einer E-Mail zu den Kontaktdaten hinzufügen.
Apple verspricht, eine persönliche Intelligenz bereitzustellen, die den Benutzer versteht. Dadurch sollen die Hardwareprodukte für die Nutzer noch nützlicher werden. Die KI soll leistungsfähig und einfach zu bedienen sein und das Niveau des Datenschutzes heben. Damit stellt sich Apple gegen andere große Unternehmen wie Microsoft, Google und OpenAI, die (scheinbar) weniger Wert auf Datenschutz legen. Apple betont, alle Daten in der eigenen AI nur für die jeweilige Aufgabe zu verwenden und danach zu löschen. Ein Speichern zu Trainingszwecken oder zur Fehlersuche finde nicht statt. Die Daten seien zusätzlich jederzeit verschlüsselt und anonymisiert. Sensible Informationen wie Fotos, Dokumente, Nachrichten und E-Mails seien somit sicher gespeichert und verlassen niemals das Gerät selbst. Apple Intelligence unterstützt zum Start nur Englisch (USA).
Der Funktionsumfang von Apples AI ist kein Feuerwerk der Innovation, sondern steht vielmehr auf einer soliden Basis generativer KI-Modelle, wie von anderen Anbietern bekannt. Das System kann Text bearbeiten und zusammenfassen, E-Mails und Benachrichtigungen priorisieren, Bilder und Emojis erstellen, Informationen mit der Kamera live erkennen, Objekte aus Bildern entfernen und In-App-Aktionen installierter Anwendungen ausführen. Der Vorteil bei Apple ist jedoch, dass das Betriebssystem selbst KI für den User nutzbar macht, ohne dass sich dieser mit komplizierten Anweisungen in Form von Prompts herumschlagen muss. Die neuen Funktionen sind auch nicht nur in den Apple eigenen Apps verfügbar, sondern im gesamten System.
Intelligenz statt Begriffsstutzigkeit
Apple verspricht, dass Siri durch die neue KI ein echtes Schlauerle wird. Siri soll mehr verstehen und auch einen Wechsel zwischen Text- und Sprachmodus anbieten. Der Nutzer soll damit Befehle ausführen können, die auf Anwendungen von Drittanbietern genau so zugreifen können wie auf den Kontext des aktuellen Bildschirminhalts. So lässt sich unter anderem eine Adresse aus einer E-Mail zu den Kontaktdaten hinzufügen.
Die Versprechen waren bei der Einführung von Siri auch schon größer, als sie sich dann tatsächlich bewahrheiteten. Siri wurde 2010 von Apple übernommen und 2011 mit iOS 5 und dem iPhone 4S eingeführt. Mit SiriKit in iOS 10 konnten Entwickler "Intents" verwenden, um Aufgaben wie das Abspielen von Musik oder das Versenden von Nachrichten zu automatisieren. Mit iOS 16 wurde das App Intents Framework eingeführt, das es erlaubt, Apps tiefer mit Siri und anderen Funktionen zu verknüpfen.
App Intents machen inzwischen Funktionen von Apps systemweit verfügbar. Nutzer können Aktionen direkt aus Spotlight, Widgets oder Siri heraus ausführen, ohne die Anwendung öffnen zu müssen. In iOS 18 gibt es nun spezielle Funktionen für Apps, die über Domains gesteuert werden, was beispielsweise den Zugriff auf Bücher, Kameras und Tabellenkalkulationen ermöglicht. Entwickler sollen alle Funktionen ihrer Software als flexible Intents anbieten. So können Nutzer verschiedene Aktionen ausführen, ohne die App öffnen zu müssen.
Aber die Anbindung an Siri selbst, der bessere Kontext und ein übergreifendes Wissen fehlen noch und sind in späteren Subversionen von iOS 18 zu erwarten. Eine dieser künftigen iOS-Versionen soll ein kleines, schnelles KI-Modell in Siri enthalten, das Befehle verstehen, den Bildschirm erkennen und Apps steuern soll. Dieses Modell soll dabei viele Aufgaben automatisch erledigen, einschließlich der Buchung eines Ubers, sofern die hierfür notwendigen Apps auf dem Gerät vorhanden sind.
Kompatibilität mit Apple-Geräten
Apple Intelligence wird für iPhone 16/Plus/ Pro7Max, iPhone 15 Pro/Pro Max, iPad und Mac ab M1 verfügbar sein, sofern Siri und die Gerätesprache auf Englisch (USA) eingestellt sind. Weitere Sprachen und Plattformen sollen 2025 folgen. Viele Nutzer und Unternehmen waren überrascht, dass ein iPhone wie das Modell 15 Plus von der Apple AI ausgeschlossen ist. Der Grund ist aber nicht nur im Prozessor zu finden. Für die KI benötigen die Geräte mindestens 2 GByte freies RAM, was nur mit mehr als 6 GByte RAM möglich ist. Das iPhone 15 Pro hat 8 GByte RAM, ältere Modelle maximal 6 GByte.
Blick ins Trainingscamp
Der Konzern aus Cupertino verspricht, dass die Architektur hinter Apple AI sehr zuverlässig und sicher ist. Die KI lernt den Nutzer zwar kennen, aber ohne dass dieser persönliche Daten preisgeben muss. Derartige Informationen bleiben immer auf dem Gerät. Das dürfte auch für Unternehmen interessant sein, deren Verantwortliche wissen müssen, wo die Daten verarbeitet werden. So kann die Antwort auf einem iPhone anders ausfallen als auf einem iPad, denn die Basisdaten sind unterschiedlich.
Die KI-Modelle der Apple Foundation [1] basieren auf der Transformer-Architektur. Diese ermöglicht die effiziente Verarbeitung großer Textmengen. Die Modelle lernen auf Apples AXLearn Framework, das auf JAX und XLA basiert und zudem ein effizientes Training auf TPUs und GPUs erlaubt. Dieses Training basiert auf Daten, die Apple lizenziert hat, Open Source sind oder aus der Sammlung von Apples Webcrawler "Applebot" [2] stammen. Web-Publisher können die dritte Quelle jedoch über die robots.txt-Datei versiegen lassen.
Weitere wichtige Funktionen sind Sicherheits- und Umgangssprachfilter. Sie erkennen und löschen insbesondere personenbezogene Daten und Texte mit unange- messenen Inhalten wie Gewalt oder beleidigender Sprache. Weiterhin werden im Rahmen der globalen "Fuzzy-Deduplizierung" doppelte Daten erkannt und entfernt. Der Begriff "unscharf" beschreibt in diesem Fall ähnliche, aber nicht identische Daten als Dubletten. Zuletzt kommt die Qualitätsfilterung zum Einsatz, die Informationen beispielsweise auf ihre Struktur, Länge oder Sprache hin überprüft. Nur wenn sie bestimmte Kriterien erfüllen, kommen sie auch zum Einsatz, was Genauigkeit und Relevanz maximiert.
Apple verwendet verschiedene Techniken, um das Training effizienter und stabiler zu gestalten. Dazu gehören die RMS-Norm und die Query/Key-Normalisierung. RMSNorm normalisiert die Aktivierungen im Netzwerk, indem es das Quadrat der Werte einsetzt. Dies gleicht Extremwerte aus und stabilisiert das Training. Die Query/Key-Normalisierung sorgt für eine genauere Bewertung der Relevanz der Eingabedaten, was das Training ebenfalls stabilisiert. Die Grouped-Query-Attention-Technik spart Speicherplatz im KV-Cache, der Schlüssel- und Wertvektoren beinhaltet.
Apple AI verwendet Adapter und kleine neuronale Module, um vortrainierte Modelle anzupassen, ohne die ursprünglichen Parameter zu verändern. Auf diese Weise können iPhone, iPad und Mac Bilder erkennen und Aktionen ausführen. Andere Geräteklassen wie Apple TV, Apple Vision Pro, HomePods oder Apple Watch fehlen noch in der Ankündigung. Die Datenverarbeitung findet direkt auf dem Gerät statt – ohne Kontakt mit externen Servern. Allerdings gibt es Bereiche, in denen lokale Modelle nicht weiterhelfen. Dort, wo Cloudmodelle notwendig sind, schützt die Architektur die Privatsphäre etwa durch IP-Maskierung und Verhinderung einer dauerhaften Datenspeicherung.
Bild 1: Dank Apple Intelligence zeigt die Mail-App eine Zusammenfassung statt der meistnichtssagenden ersten Zeilen einer E-Mail.
Datenschutz in der Apple-Cloud
Wie angesprochen, möchte Apple die Privatsphäre der Nutzer bei jedem Schritt schützen, etwa durch das Verarbeiten auf dem Gerät und das lokale Ausführen vieler der zugrunde liegenden Modelle. Apple Intelligence priorisiert diese lokalen Berechnungen auf dem iPhone, was erklärt, warum der Dienst aktuell lediglich auf Geräten mit mindestens 8 GByte RAM zum Einsatz kommt. Werden die Kalkulationen jedoch zu aufwendig, springt Private Cloud Compute (PCC) ein und beansprucht Apples Server. Hierbei verspricht der Anbieter, alle Eigenschaften der lokalen Datenverarbeitung auch in der Cloud sicherzustellen.
Die zuständige Cloudinfrastruktur unterliegt strikten Vorgaben. Zunächst ist hier anzuführen, dass die Cloud mit eigenen Prozessoren und einem auf Privatsphäre ausgelegten Betriebssystem arbeitet. Durch einen kryptografisch gesicherten Secure-Boot, wie wir es von iOS kennen, stellen die Cloudinstanzen sicher, dass sie je Nutzeranfrage hochgefahren werden, diese abarbeiten und danach sich selbst wieder herunterfahren und ihre erworbenen Daten dabei löschen. Selbst Apples Mitarbeiter haben zur Laufzeit keinen privilegierten Zugriff auf die Cloud-Instanzen.
Die sichere AI-Verarbeitung in der Cloud bringt jedoch neue Herausforderungen. Die Hardware muss komplexe maschinelle Lernmodelle verarbeiten und strenge Sicherheitsanforderungen erfüllen. Die größten Herausforderungen aus Sicht des Datenschutzes sind folgende:
- Es ist oft schwierig zu prüfen, ob Cloudanbieter ihre Datenschutzversprechen einhalten, da sie keine Transparenz bezüglich ihrer Sicherheitsmaßnahmen bieten.
- Mangelnde Laufzeit-Transparenz: Clouddienste geben selten Informationen über ihren Software-Stack preis, da diese als proprietär gelten.
- Privilegierte Admin-Zugriffe: Die Verwaltung von Clouddiensten ist komplex, und die Überwachung durch Administrationspersonal birgt das Risiko, privilegierte Zugriffe zu missbrauchen.
Apple setzt auf die eigene Cloud, um die nötige Rechenleistung für AI-Dienste zu liefern, hat aber für PCC strenge Sicherheitsanforderungen definiert. Darunter fällt die flüchtige Datenverarbeitung, bei der PCC-Knoten persönliche Nutzerdaten nur zur Beantwortung der Anfrage halten, nicht speichert oder protokolliert. Daneben gibt es keine privilegierten Laufzeitzugriffe: Ein PCC-Knoten enthält keine Schnittstellen, die Datenschutzgarantien umgehen können. Er ist ein geschlossenes System. Die Benutzerdaten sind damit selbst für Apple-Mitarbeiter mit administrativem Zugriff auf den Dienst oder die Hardware nicht verfügbar. Schließlich soll eine überprüfbare Sicherheit selbst bei gezielten Angriffen auf die Infrastruktur persönliche Daten umfassend schützen. Dies soll durch (fremde) Sicherheitsforscher überprüfbar sein.
Ein PCC-Knoten nutzt spezielle Hardware mit den gleichen Sicherheitsfunktionen wie Apple-Geräte. Dazu gehören Secure Enclave, Secure Boot und weitere Mechanismen wie Pointer Authentication Codes und Code Signing. Apple will in Rechenzentren keine herkömmlichen Verwaltungstools wie Remote-Shells und Inspektionstools mehr nutzen. Stattdessen setzt das Unternehmen auf bestimmte Betriebsmetriken, um Auffälligkeiten zu bemerken. Apple hat seine PCC-Knoten so konzipiert, dass niemand physisch oder per Software Zugriff hat. Der seit iOS bekannte Code-Signing-Mechanismus verhindert, dass fremder Code geladen und ausgeführt wird. Jeder PCC-Knoten läuft in einer eigenen virtuellen Maschine mit signierten Bootprozessen, und nur freigegebene PCC-Images starten überhaupt. Zudem unterliegt die eingesetzte Hardware einer geschützten Lieferkette. Mit all diesen Maßnahmen möchte Apple eine Manipulation von Hard- und Software ausschließen [3]. Bei der Herstellung werden alle Komponenten genau dokumentiert. Jede nachträgliche Änderung am PCC-Knoten führt dazu, dass dieser nicht mehr nutzbar ist, und auch der Einbau erfolgt unter strengen Sicherheitsvorgaben.
Die PCC-Attestierung stellt sicher, dass ein anfragendes Apple-Gerät nur mit gültigen PCC-Knoten kommuniziert. Dafür kommen Secure Enclave und die Apple-Beglaubigungsserver zum Einsatz, wie bei der Geräte-Attestierung seit Längerem im Rahmen des Gerätemanagements bekannt. Sobald ein PCC-Knoten beglaubigt ist, kann dieser die Anfrage von einem Gerät erhalten, sonst verweigert das anfragende Gerät den Datenverkehr. Dabei wird die IP-Adresse des anfragenden Device verschleiert.
Bild 2: Apple Intelligence unterscheidet nicht zwischen dienstlichenund privaten Daten (Stand: iOS 18.1 Beta 3).
Künftige ChatGPT-Integration
Reicht der PCC-Knoten zur Beantwortung nicht aus, soll der Nutzer künftig (geplant für iOS 18.2) seine Anfrage an ChatGPT weiterleiten können. Apple stellt aber auch hier sicher, dass die Daten der Nutzer geschützt sind. Fragt ein Anwender zum Beispiel, was in der deutschen Politik in seinem Geburtsjahr passierte, erkennt Apple AI die personenbezogenen Daten und leitet die Anfrage an OpenAI weiter. OpenAI erfährt dabei aber weder den Namen noch andere persönliche Daten wie das Geburtsdatum.
ChatGPT ist jedoch standardmäßig ausgeschaltet und manuell zu aktivierten. Dieser Dienst kommt laut aktuellem Ausblick nur für kreative Aufgaben wie das Schreiben von Geschichten oder für komplexe Anfragen zum Einsatz, bei denen die lokalen Modelle versagen. Apple setzt auch hier auf Datenschutz und anonymisiert die Informationen. OpenAI speichert Anfragen nur, wenn der Nutzer sein ChatGPT-Konto verknüpft.
Bild 3: Die Architektur von Apple Intelligence erlaubt eine lokale Ausführung in der PCC-Cloud von Apple oder sogar bei Drittanbietern wie OpenAI.
Zentrale Verwaltung schwierig
Apple bietet den Vorteil, dass es sowohl die Hard- als auch Software kontrolliert und umfassende Sicherheitsmaßnahmen umsetzen kann. Dennoch besteht die Gefahr, dass KI-Modelle missbraucht werden, um Daten zu manipulieren. Daher ist das bisherige Markenversprechen von Apple natürlich auch auf Einhaltung für die neuen angekündigten AI-Funktionen zu prüfen. Unterbindet der Administrator die Apple-AI-Nutzung nicht, kann der Anwender diese aktivieren.
Apple Intelligence ist mit ersten Funktionen seit iOS 18.1, iPadOS 18.1 und macOS Sequoia 15.1 verfügbar, weitere Features sollen folgen. Es ist daher zu beachten, dass Nutzer – sofern auch dies nicht organisatorisch beziehungsweise technisch unterbunden wird – bereits jetzt Teile von Apple AI sogar in Europa nutzen können. Damit besteht die Gefahr einer unkontrollierten Datenverarbeitung mit Firmendaten. Gerade das Aktivieren von ChatGPT dürfte hier besonderes Augenmerk genießen.
Die Einführung von Apple AI bringt aber auch rechtliche Probleme mit sich, insbesondere bei der Datenverarbeitung in der Apple-Cloud. Denn das System unterscheidet (in der aktuellen Beta-Version) nicht zwischen privaten und dienstlichen Daten. Unternehmen müssen daher frühzeitig mit Apple klare Regeln vereinbaren, damit sie ihre Daten sicher aufbewahren. Apple sorgt wie beschrieben dafür, dass die Datenverarbeitung auf den Geräten und in der PCC-Cloud sicher ist. Dennoch scheint ein Vertrag zur Auftragsdatenverarbeitung eine gute Idee und Unternehmen sollten dies rechtlich prüfen.
Technisch bietet Apple Administratoren von Endgeräten verschiedene Möglichkeiten, mit einem Mobile Device Management (MDM) die Nutzung von Apple AI zu steuern. Auf überwachten Geräten kann ein Admin einzelne Funktionen in der Verwendung für den Nutzer einschränken. Dazu gehören unter anderem ChatGPT, Emojis, Bilder, Schreibwerkzeuge und Ähnliches. Einen generellen Schalter für Apple AI gibt es aktuell jedoch nicht und er ist auch bislang nicht angekündigt. Auch das Überspringen des AI-Dialogs bei der Geräteeinrichtung können IT-Verantwortliche durch eine MDM-Einstellung steuern. Es gibt aber einen Haken dabei: Das Bereitstellen von Konfigurationsoptionen durch Apple alleine reicht nicht aus, auch die MDM-Systeme selbst müssen dafür von ihren Herstellern ertüchtigt werden, die neuen Konfigurationsoptionen zu nutzen.
Es ist ferner wichtig zu wissen, dass Geräte, die nicht im Betreuungsmodus sind (insbesondere private Devices, die Mitarbeiter selbst mit in die Firma bringen), von keinem Mobile Device Management in Sachen Apple AI beeinflusst werden können. Hier bedarf es organisatorischer Maßnahmen.
Fazit
Nur wenn Unternehmen sich gut vorbereiten und Apple Intelligence kontrolliert ausrollen, kann die Technologie erfolgreich zum Einsatz kommen. Datenschutz, Sicherheit und ethische Überlegungen sind dabei besonders wichtig. Organisationen, die jetzt handeln, können die Vorteile von Apple Intelligence frühzeitig nutzen, ihren Mitarbeitern mehr Produktivität und Sicherheit beim Einsatz bieten und so auch rechtliche Risiken vermeiden.