
Eigenen Angaben zufolge hat Apple in der KI-Forschung einen bedeutenden Durchbruch erzielt, indem es eine Methode entwickelt hat, um Große Sprachmodelle (LLMs) auf iPhones und anderen Apple-Geräten mit begrenztem Speicher auszuführen. Wie die Forscher in einem Paper mit der wortspielerischen Überschrift „LLM in a flash“ darlegen, wird bei der neuen Technik nicht nur, wie allgemein üblich, der Arbeitsspeicher (RAM) für das Modell bzw. die Parameter verwendet, sondern auch der wesentlich größere Flash-Speicher, der für die Speicherung von Apps, Fotos und Videos genutzt wird.
Die neue Herangehensweise beinhaltet zwei Haupttechniken: Windowing, bei dem ein Teil der bereits verarbeiteten Daten wiederverwendet wird, und Row-Column Bundling, das es erlaubt, Daten effizienter und damit schneller aus dem Flash-Speicher zu lesen. In Kombination ermöglichen die Techniken, dass KI-Modelle bis zum Doppelten der verfügbaren iPhone-Speicherkapazität nutzen können, und eine 5-fache Geschwindigkeitssteigerung bei Standardprozessoren (CPUs) erreichen und sogar 20- bis 25-fach schneller sind, wenn Grafikprozessoren (GPUs) die Parameter berechnen bzw. beinhalten.
Darüber hinaus entwickelt Apple sein eigenes generatives KI-Modell namens „Ajax“, das sich angeblich mit OpenAIs GPT-3 und GPT-4 messen kann und auf 200 Milliarden Parametern basiert. Dies deutet auf ein hohes Maß an Komplexität und Fähigkeit im Sprachverständnis und in der Sprachgenerierung hin. Apple plant, die KI tiefer in sein Ökosystem zu integrieren, wobei der Schwerpunkt auf der Verbesserung der Siri-Funktionen und der Integration von KI in so viele Apple-Apps wie möglich liegt. Gerade ersteres ist bitter nötig, da Siri von der Qualität her immer weiter ins hintertreffen gegenüber anderen Assistenten gerät.
Die neuen Fortschritte in der KI-Effizienz sollen nicht nur Siri konkurrenzfähig machen, sondern auch die Echtzeit-Sprachübersetzung verbessern und KI-gesteuerte Funktionen in Foto- und Augmented Reality-Apps ermöglichen.
Das gesamte Apple-Papier zu dem Thema können Sie hier herunterladen: https://arxiv.org/pdf/2312.11514.pdf