Generative Datenintelligenz

Apple veröffentlicht 8 kleine KI-Sprachmodelle, um mit Microsofts Phi-3 – Decrypt – zu konkurrieren

Datum:

Angesichts der zahlenmäßigen Stärke hat Apple mit der Bereitstellung von acht kleinen KI-Modellen einen strategischen Schritt auf dem hart umkämpften Markt für künstliche Intelligenz unternommen. Die kompakten Tools, die gemeinsam OpenELM genannt werden, sind für die Ausführung auf Geräten und offline konzipiert – perfekt für Smartphones.

Veröffentlicht in der Open-Source-KI-Community Gesicht umarmenDie Modelle werden in den Parameterversionen 270 Millionen, 450 Millionen, 1.1 Milliarden und 3 Milliarden angeboten. Benutzer können Apples OpenELM auch in einer vorab trainierten oder auf Anweisungen abgestimmten Version herunterladen.

Die vorab trainierten Modelle bieten eine Grundlage, auf der Benutzer eine Feinabstimmung und Weiterentwicklung vornehmen können. Die auf Anweisungen abgestimmten Modelle sind bereits so programmiert, dass sie auf Anweisungen reagieren, wodurch sie sich besser für Gespräche und Interaktionen mit Endbenutzern eignen.

Obwohl Apple keine konkreten Anwendungsfälle für diese Modelle vorgeschlagen hat, könnten sie zum Ausführen von Assistenten eingesetzt werden, die E-Mails und Texte analysieren oder auf der Grundlage der Daten intelligente Vorschläge machen können. Dies ist ein ähnlicher Ansatz Von Google übernommen, das sein Gemini AI-Modell auf seiner Pixel-Smartphone-Reihe einsetzte.

Die Modelle wurden anhand öffentlich verfügbarer Datensätze trainiert, und Apple teilt sowohl den Code für CoreNet (die Bibliothek, die zum Trainieren von OpenELM verwendet wird) als auch die „Rezepte“ für seine Modelle. Mit anderen Worten: Benutzer können sehen, wie Apple sie gebaut hat.

Die Veröffentlichung von Apple erfolgt kurz darauf Microsoft hat Phi-3 angekündigt, eine Familie kleiner Sprachmodelle, die lokal ausgeführt werden können. Phi-3 Mini, ein 3.8-Milliarden-Parameter-Modell, das auf 3.3 Billionen Token trainiert wurde, ist immer noch in der Lage, 128 Kontext-Tokens zu verarbeiten, was es mit GPT-4 vergleichbar macht und Llama-3 und Mistral Large in Bezug auf die Token-Kapazität übertrifft.

Da Phi-3 Mini quelloffen und leichtgewichtig ist, könnte es für einige Aufgaben möglicherweise traditionelle Assistenten wie Apples Siri oder Googles Gemini ersetzen, und Microsoft hat Phi-3 bereits auf einem iPhone getestet und zufriedenstellende Ergebnisse und schnelle Token-Generierungen gemeldet.

Während Apple diese neuen KI-Sprachmodellfunktionen noch nicht in seine Verbrauchergeräte integriert hat, ist dies beim kommenden iOS 18-Update der Fall gemunkelt um neue KI-Funktionen einzubinden, die die Verarbeitung auf dem Gerät nutzen, um die Privatsphäre der Benutzer zu gewährleisten. 

Apple-Hardware hat bei der lokalen KI-Nutzung einen Vorteil, da sie Geräte-RAM mit GPU-Video-RAM (oder VRAM) kombiniert. Das bedeutet, dass ein Mac mit 32 GB RAM (eine übliche Konfiguration in einem PC) diesen RAM genauso nutzen kann wie GPU-VRAM, um KI-Modelle auszuführen. Im Vergleich, Windows-Geräte sind gelähmt durch getrennten Geräte-RAM und GPU-VRAM. Benutzer müssen häufig eine leistungsstarke 32-GB-GPU kaufen, um den Arbeitsspeicher für die Ausführung von KI-Modellen zu erweitern.

Allerdings hinkt Apple im Bereich der KI-Entwicklung Windows/Linux hinterher. Die meisten KI-Anwendungen drehen sich um von Nvidia entwickelte und gebaute Hardware, die Apple zur Unterstützung seiner eigenen Chips auslaufen ließ. Dies bedeutet, dass es relativ wenig Apple-native KI-Entwicklung gibt und die Verwendung von KI auf Apple-Produkten daher Übersetzungsebenen oder andere komplexe Verfahren erfordert.

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang.

spot_img

Neueste Intelligenz

spot_img