Apple Intelligence im Check: Macht nicht nur Siri nervös
KI auf Computern, Smartphones und Tablets? Was bei Google und Microsoft längst Realität ist, ließ bei Apple eine ganze Weile auf sich warten. Wie so oft bei dem Konzern mit dem Argument, es besonders gut machen zu wollen. Nun gibt es mit den Entwicklerbetas mit der Versionsnummer .1 – also MacOS 15.1, iOS 18.1 und iPadOS 18.1 – die ersten Apple-Intelligence-Features zum Ausprobieren .
Dabei gibt es direkt eine Einschränkung: Apples künstliche Intelligenz läuft nämlich nur auf Geräten mit M-Prozessor – oder dem iPhone 15 Pro, selbst wenn die entsprechende Beta installiert ist.
Inbetriebnahme nur in Englisch
Hinzu kommt: Eigentlich ist Apple Intelligence für User in der EU noch nicht verfügbar . Apple zofft sich nach wie vor mit der EU wegen des Digital Services- und des Digital Markets Act . Dementsprechend aufwendig ist es derzeit, den Dienst in der EU auf iPhone und iPad in Betrieb zu nehmen: Neben einem Entwicklerkonto ist es notwendig, einen US-basierten (Fake-)Apple-Account einzurichten. Das ist ausgesprochen lästig.
Unter MacOS lässt sich Apple Intelligence in der EU deutlich einfacher einrichten, was möglicherweise mit Apples Vertriebsstrategie zu tun hat: Der Mac ist seit jeher eine offene Plattform, im Gegensatz zu iPhone und iPad. Es ist möglich, dass Apple es hier gut sein lässt und Apple Intelligence auf dem Mac auch in der EU bereitstellt .
In der Praxis lässt sich der Service einfach installieren: Nach der kostenlosen Registrierung der Apple-ID in Apples Entwicklerportal(öffnet im neuen Fenster) bietet MacOS nach einer Weile das Update auf die MacOS Sequoia 15.1-Beta an, die sich auch reibungslos installieren lässt.
Nur in den USA – und mit einem Trick in Deutschland
Um Apple Intelligence anschließend in Betrieb zu nehmen, reicht es, den Mac virtuell in die Vereinigten Staaten zu verpflanzen: in den Spracheinstellungen die Region auf USA stellen, als Sprache US-Englisch auswählen und den Rechner neu starten – schon ist der Mac für Apple Intelligence vorbereitet und der Menüpunkt in den Systemeinstellungen ist aktiv. Andernfalls meldet der Mac, dass Apple Intelligence in der jeweiligen Region nicht verfügbar sei.
Apple Intelligence benötigt derzeit eine Art Bewerbung: Nutzer können sich per Klick auf eine Warteliste setzen lassen. Apple schaltet den Dienst aber in der Regel binnen weniger Stunden frei. Anschließend ist die KI einsatzbereit, wobei ... MacOS muss im Hintergrund noch ordentlich Daten herunterladen und installieren, vorher funktioniert der Dienst nicht.
Für User mit 256-Gigabyte-Basis-Macs ist zudem wichtig, zu wissen: Mehr als 5 Gigabyte Speicher schlucken die tief im System installierten Modelle der KI-Features derzeit, und höchstwahrscheinlich wird es mit dem vollständigen Rollout noch mehr. Immerhin: In Sachen RAM kommt Apple Intelligence derzeit mit den 8 Gigabyte der Mac-Basismodelle gut klar.
Apple Intelligence: In der Praxis bereits gut nutzbar
Doch was ist derzeit bereits an Bord? Apple wird Apple Intelligence erst nach und nach und wahrscheinlich im Lauf des Jahres 2025 vollständig ausrollen. Bisher gibt es zwei Features: die generative Text-KI sowie den KI-gestützten Sprachassistenten Siri. Was aktuell fehlt, sind der Bildgenerator Image Playground, die Genmoji sowie der ChatGPT-Fallback für Aufgaben, welche die Apple-KI nicht lokal oder in Apples privater Cloud durchführen kann. Kurz: Alles, was mit Text-Generierung und -Bearbeitung möglich ist, ist bereits aktiviert, alles andere nicht.
In der Praxis bedeutet das aber, dass sich Apple Intelligence in weiten Teilen bereits nutzen lässt. Denn die Kernfunktion von Large Language Models – und Apple Intelligence ist ein solches – besteht darin, Text zu verstehen und zu generieren.
Was kann KI-Siri?
Daher ist es nur logisch, zunächst ein wenig mit Siri zu spielen. Siri ist eine alte Bekannte, aber im Vergleich zur Konkurrenz war der 2011 erstmals erschienene Sprachassistent in der Vergangenheit nicht sonderlich hilfreich. Apple stattete Siri in iOS/iPadOS 18 und MacOS 15 mit Apple Intelligence aus, was bedeutet, dass der Sprachassistent nun endlich nützlich werden könnte. Vor allem, wenn Apple auch das Kunststück fertigbringt, seine Smart-Home-Geräte wie den Homepod oder das AppleTV mit der Funktion auszustatten.
Siri reagiert wie gehabt auf " (Hey) Siri " oder Texteingaben. Anders als in älteren MacOS-Versionen zeigt sich der Assistent schon in der Beta deutlich kommunikativer und intelligenter als alle Vorversionen: Siri kann nun an vorherige Fragen anknüpfen. Dabei erweist sich bereits die Beta-KI-Siri als nützlich: Locker zugeworfene Fragen und Anweisungen führt Siri ohne Murren aus, solange die angesprochene Funktion oder App schon von KI-Siri unterstützt wird. Dementsprechend sind es derzeit vor allem die Systemanwendungen wie Mail, Notizen, Kalender, Adressbuch und Maps, die mit Siri funktionieren, Entwickler von Drittanbieterapps müssen künftig nachziehen.
Im Test erwies sich Siri allerdings noch als sehr eingeschränkt: Zwar konnte der KI-Assistent Notizen erstellen, sie aber nicht befüllen oder ändern. Im Zusammenspiel mit der Adressbuch-App können Kontakte zwar aufgerufen, aber nicht ergänzt oder neu erstellt werden. E-Mails werden angelegt, doch nach dem ersten Satz verschluckt sich Siri und weigert sich, den Text zu ergänzen. Immerhin: Die Mailverwaltung klappt zumindest teilweise, auch wenn Siri keine Mails als Spam markieren kann.
Nervöser Assistent
Fragt man Siri nach dem Fußweg zum Kölner Dom, gibt der Assistent zwar eine Wanderroute samt Zeitangabe an, kann damit aber nichts weiter anfangen, etwa das Setzen eines weiteren Wegpunkts. In Apple Music gibt es nur rudimentäre Befehle, Apple Fotos wird derzeit noch gar nicht unterstützt. Wer Bilder aus der App angezeigt haben möchte, wird von Siri zu Webergebnissen gelotst. Im Test reagierte Siri auch häufig nicht mehr oder beantwortete Anfragen mit " kann ich nicht " oder sogar einem " No ". Immerhin: Schnell etwas berechnen kann Siri, aber das konnte der Assistent auch ohne KI.
Besonders ärgerlich: Apple scheint das Time-out von Siri noch nicht korrekt eingestellt zu haben, denn Siri präsentiert schon bei einer kurzen Atempause Ergebnisse. Oft ist die Anfrage dann aber noch gar nicht fertig formuliert, was im Vorschlagen von Webergebnissen endet oder die Anfrage im Sande verlaufen lässt. Schlimmer noch: Siri vergisst leider unterwegs auch oft, worüber man sich gerade unterhalten hat – und tut so, als handele es sich um eine neue Anfrage. Komplexere Konversationen, wie sie etwa mit ChatGPT-4o möglich sind, funktionieren nicht.
Immer wieder bleibt der Assistent stehen und lässt sich nur mit einer neuen " Hey Siri "-Anfrage wieder aktivieren, hat dann aber den Verlauf der vergangenen Anfrage vergessen. Kurzum: Siri ist aktuell, nur wenige Wochen vor dem Release-Termin der neuen Apple-Betriebssyssteme, alles andere als fertig. Und das bei einem Feature, das als zentral eingestuft wird.
KI-Textverarbeitung bereits brauchbar
Doch wie schaut es mit dem anderen großen Teil der KI-Features aus, der Textbearbeitung? Hier scheint sich Apple mehr Zeit genommen zu haben. Apples generative KI ist mit Blick auf die Nutzer entworfen, die in vielen Fällen aus dem kreativen Bereich stammen. Anders als etwa ChatGPT ist Apple Intelligence derzeit aber bei Textarbeiten nicht dafür gedacht, von Grund auf neuen Text zu generieren. Vielmehr soll die KI Nutzern dabei helfen, vorhandenen Text zu optimieren. Das klappt in der Praxis systemweit in allen Textfeldern per Rechtsklick und bereits erstaunlich gut. Zudem funktioniert es auch in Apps, die noch kein Update für MacOS 15 erhalten haben.
Vorhandener Text muss zunächst markiert werden. Anschließend löst ein Rechtsklick – oder Control-Klick, wie ihn erfahrene Apple-Nutzer kennen – das Kontextmenü aus. In diesem gibt es das neue Menü Writing Tools, in dem zahlreiche KI-Funktionen für die Textveränderung und -analyse zur Verfügung stehen: Korrekturlesen, Umschreiben sowie drei Tools, um den Text freundlich, professionell oder präzise zu formulieren. Zudem gibt es die Möglichkeit, Text zusammenzufassen, eine Liste von zentralen Schlüsselpunkten sowie eine Liste oder Tabelle aus dem vorhandenen Text zu erstellen.
Fließtext in Tabellen packen
Nicht immer ist jede Option sinnvoll, hilfreich ist der KI-Texthelfer aber durchaus: Vor allem die Tabellenfunktion kann bei Fließtext mit Informationen hilfreich sein und viel Arbeit sparen. Die Zusammenfassungsfunktion ist eher eine Möglichkeit, einen langen Text in wenigen Worten zu beschreiben.
Im Test versuchten wir uns an der englischen Version von Moby Dick vom Projekt Gutenberg(öffnet im neuen Fenster) . Der rund 170 Jahre alte Literaturklassiker hat mehr als 200.000 Wörter und ist als reine Textdatei 1,2 Megabyte groß. Das ist nicht nur für Schüler schwere Kost: Auch Apple Intelligence tut sich schwer damit, das Buch sinnvoll zusammenzufassen, auch wenn das Ergebnis nach wenigen Sekunden erscheint.
Immerhin warnt Apple Nutzer, dass die Zusammenfassen-Funktion nicht für diese Art von Content geeignet sei. Das Ergebnis ist aber in Ordnung. Auch die Schlüsselpunkt-Funktion warnt, schafft es aber dennoch, die wichtigsten Informationen sinnvoll aufbereitet aus dem Buch zu entnehmen. Die Listen-Funktion bricht nach viel Rechnerei mit Fehlermeldung ab. Das Erstellen einer Tabelle ergibt in diesem Fall keinen Sinn.
Ein praktisches Alltags-Feature
Das Umschreiben des Romans war natürlich ein Extrembeispiel. Dass es dabei zu Fehlfunktionen kommt, liegt an der schieren Textmenge. Erstaunlich ist aber, wie flott die Funktion bereits jetzt arbeitet. Im Alltag dürften Anwender kaum mit Texten dieser Größenordnung zu kämpfen haben: Nutztexte wie E-Mails, Berichte, Drehbücher oder wissenschaftliche Artikel sind der Alltag von Mac-Anwendern. Und hier funktioniert die Text-KI bereits sehr gut und kann Texte problemlos zusammenfassen.
Wie immer bei KI gilt aber auch bei Apple Intelligence: Informationen, insbesondere Fakten, sollten gut unter die Lupe genommen werden. Denn auch Apple Intelligence ist natürlich keine bewusste KI, die das, was sie abliefert, tatsächlich versteht. Löblich: Apple Intelligence erweist sich als ressourcenschonend. Selbst beim Versuch, Moby Dick durch die KI umschreiben zu lassen, kletterte die Systemlast selten über 15 Prozent.
Gutes Transkript-Feature und leistungsstarke Bildsuche
Ein weiteres Feature der Text-KI von Apple Intelligence ist die Fähigkeit, Sprachnotizen zu transkribieren. Die Notizen-App erhält mit MacOS Sequoia beziehungsweise iOS/iPadOS 18 die Fähigkeit, Audio aufzunehmen. Das ist für Notizen sehr praktisch. Am iPhone wird es sogar möglich sein, Telefonate aufzuzeichnen. Leider haben Tondokumente den Nachteil, dass sie aufwendig transkribiert werden müssen. Dort springt Apple Intelligence ein: In der Notizen-App abgelegte Audionotizen werden automatisch per KI in Text überführt.
Die Texterkennung ist hervorragend, das Transkript kann anschließend in die Notiz übernommen werden. Wenn die Audionotiz erneut abgespielt wird, markiert die Notizen-App automatisch das gerade gesprochene Wort. Praktisch bei längeren Audionotizen ist die Möglichkeit, die Notiz zusammenfassen zu lassen. Natürlich funktionieren auch alle Text-KI-Features im transkribierten Text, sobald dieser in die Notiz übernommen wurde.
Bildsuche in natürlicher Sprache
Ebenfalls praktisch ist die KI-gestützte Bildersuche in der Fotos-App: Wohl jeder Apple-Nutzer kennt das Problem, dass massenweise Fotos auf dem System sind – man das eine, das man sucht, aber partout nicht findet. Mit den neuen OS-Versionen hilft die Fotos-App (und hoffentlich künftig auch Siri, siehe oben) dabei, die gewünschten Bilder aufzuspüren: Hund am Strand in Frankreich? Kein Problem. Kind auf dem Fahrrad im Herbst? Auch das schafft die KI problemlos.
Bei manchen Anfragen kommt natürlich noch Murks heraus. Hier und da tauchen Bilder in den Ergebnissen auf, die mit der Suche nichts zu tun haben, während andere fehlen. Aber im Kern ist die Suche eine deutliche Erleichterung bei der Verwaltung großer Fotosammlungen.
Kein Bildgenerator, nirgends
Eine weitere Erleichterung wäre übrigens das Clean Up Tool, der magische Radierer von Apple, in der Fotos-App: Er soll künftig unerwünschte Bildelemente aus Fotos entfernen können. Mit der Beta 3 von MacOS 15.1 wurde das zwar implementiert. Das Feature erscheint aber bei vielen Nutzern erst gar nicht. Alle anderen angekündigten KI-Funktionen für die Foto- und Bildbearbeitung fehlen noch komplett.
Auch die App Image Playground – in den ersten Betas noch nichtfunktional enthalten – ist derzeit nicht in der MacOS-Developer-Beta verfügbar. Die KI-generierten Emojis – Apple nennt sie pragmatisch Genmoji – sind ebenfalls noch nicht im System vorhanden.
Fazit: Vieles fehlt noch – und Apple muss noch viel arbeiten
Wenn man bedenkt, dass MacOS 15 bereits im September final erscheinen soll, wirken Teile der KI-Features in den aktuellen Betas noch sehr unausgereift. Die bereits sehr leistungsfähige Text-KI steht dem eher hakeligen Siri und der vollständig fehlenden generativen Bild-KI gegenüber.
Hier hat Apple noch einiges zu tun, um zumindest zu den Mitbewerbern aufzuschließen. Dass erst die Developer-Beta der Versionsnummer 15.1 – also des ersten großen Systemupdates – überhaupt KI-Funktionen enthält, deutet darauf hin, dass das offizielle Release von Apple Intelligence kaum vor Ende Oktober 2024 stattfinden wird und User zunächst ohne die Funktionen auskommen müssen.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.