Nachdem ich alle "AI-PCs" angesehen habe, habe ich festgestellt, dass der Mac hier war und immer hier sein wird.
Zu Beginn des Jahres war der Mac Mini zeitweise ausverkauft, und die Wartezeit betrug sogar bis zu anderthalb Monaten.
Der Mac mini ist ein ausgezeichnetes Produkt, und das wissen alle immer schon. Der Preis in den chinesischen Vertriebskanälen ist attraktiv, und die Leistung des M-Chips ist hervorragend. Man kann ein Einsteiger-Modell für weniger als 3.000 Yuan erwerben, was es ideal als Hauptrechner für Neueinsteiger in der Kreativbranche macht.
Allerdings hat die jüngste Popularität des Mac mini nichts mit Kreativität oder der alltäglichen Nutzung zu tun.
Freunde, die sich für Tech-News interessieren, wissen sicher, was los ist: OpenClaw (früher Clawdbot) ist plötzlich sehr populär geworden.
OpenClaw kann auf verschiedene Weise eingesetzt werden: Sie können es auf Ihrem eigenen Computer installieren oder ihm einen separaten Computer zuweisen. Es ist auch möglich, es in einer virtuellen Maschine oder einer Sandbox-Umgebung in der Cloud bereitzustellen. Später haben einige führende KI-Dienste auch eine Lösung für die eine-Klick-Bereitstellung in der Cloud angeboten, was die Einstiegshürde für Einsteiger erheblich senkt.
Anfangs war die beliebteste Bereitstellungsoption jedoch der Kauf eines separaten Mac mini.
Der Grund ist sicherlich nicht, dass er billig ist. Vielmehr liegt es daran, dass OpenClaw einen "Körper" braucht, um auf Dateien zuzugreifen und Software zu bedienen.
Eine Cloud-Server kann OpenClaw ausführen, aber es ist immer noch nicht Ihr eigener Computer. Es gibt keine Ihrer Dateien, Software oder angemeldeten Konten im Browser, also keine sogenannte "Kontext". Der Mac mini steht auf dem Schreibtisch, muss nicht ausgeschaltet werden und kann sogar per Chatbot ferngesteuert werden, ohne dass ein separater Monitor erforderlich ist.
Wenn Sie OpenClaw einen eigenen Computer zur Verfügung stellen, ist die einzige nennenswerte Kosten die Gebühr für die Token der Backend-Großmodell-API. Viele frühe Benutzer haben hier schon Probleme gehabt. Wenn Sie jedoch einen Mac mini mit ausreichend hoher Konfiguration kaufen und ein ausreichend großes Modell herunterladen, um es lokal auszuführen, können Sie sagen, dass Sie abgesehen von Strom- und Internetkosten fast einen kostenlosen Arbeiter haben...
Ein MacBook wäre auch möglich, aber...
Laut Berichten von Medien wie Tom's Hardware und TechRadar hat sich die Wartezeit für die 24-GB- und 32-GB-Konfigurationen des Mac mini nach dem Aufstieg von OpenClaw auf 6 Tage bis 6 Wochen verlängert. Bei dem leistungsstärkeren Mac Studio ist die Lieferzeit von zwei Wochen auf fast zwei Monate gestiegen.
Diese Wartezeiten sind die Stimmen der frühen OpenClaw-Nutzer, die mit ihren echten Käufen abgestimmt haben.
(Hinweis: Der Ausverkauf einiger Modelle hängt auch mit der jüngsten Einführung neuer Mac-Desktop-Computer von Apple zusammen. In der Vergangenheit gingen die alten Modelle immer in den Verkaufsauslauf, wenn neue Modelle nahe an der Veröffentlichung standen. Die Popularität von OpenClaw ist nicht der einzige Grund.)
Es scheint, dass der Mac im Jahr 2026 zum bevorzugten "KI-PC" geworden ist. Im Gegensatz dazu hat die Windows-PC-Branche, die seit Jahren von "KI-PCs" schwärmt, noch keine Wärme gespürt.
Chip-Hersteller wie Intel, AMD und Qualcomm sowie führende PC-Marken haben seit 2023 das Konzept des "KI-PCs" vermarktet. Viele der neuesten Windows-Computer sind mit Copilot+ PC zertifiziert, und die GPU- und NPU-Leistung ist nicht schlecht. Einige Geräte sind sogar viel billiger als vergleichbare Mac-Produkte.
Aber die Frage ist: Warum strömen die Menschen dennoch in Massen auf den Mac zu?
Warum der Mac?
Die Debatte, ob Windows-PCs oder Macs besser sind, hat niemals eine absolute Antwort. Aber wenn es um die KI-Entwicklung geht, ist der Mac die unausgesprochene Wahl.
Obwohl das "Gehirn" der Großmodelle auf Cloud-Servern liegt, sitzen die Hände der Entwickler auf dem Mac. Dies hat wenig mit der Form und dem Bedienungserlebnis des Mac-Computers zu tun: Das Herzstück von macOS ist die UNIX-Heritage.
Die Kernaufgabe eines AI-Agents besteht darin, Dateien zu bearbeiten, Befehlszeilentools aufzurufen, APIs zu steuern und sogar die grafische Benutzeroberfläche zu kontrollieren. Um es direkt zu sagen, ein Agent ist ein intelligenter und automatisierter "Skriptingenieur", wobei die Skripte von einem Sprachmodell in Echtzeit generiert werden. macOS ist ein UNIX-ähnliches System, das die bash- und zsh-Befehle nativ hervorragend unterstützt.
Dies löst das grundlegende Problem der Umgebungsaufsetzung in der KI-Entwicklung. Auf Windows müssen Sie möglicherweise zuerst die WSL2-Virtuelle Maschine installieren. Auf dem Mac sind jedoch von der Python-Umgebung bis hin zu komplexen C++-Kompilierungs-Toolketten im Wesentlichen alle Komponenten sofort einsatzbereit. Paketmanager wie Homebrew ermöglichen es, alle Tools und Abhängigkeiten mit einem einzigen Befehl zu installieren.
Darüber hinaus entspricht macOS dem POSIX-Standard und ist bei der Verarbeitung von Dateipfaden, Multithreading-Aufgaben und Netzwerkprotokollen etwas zuverlässiger. Agenten müssen häufig Daten lesen und schreiben und APIs aufrufen. Die effiziente System-Level-Scheduling ermöglicht es den Agenten, auf dem Mac schneller zu arbeiten.
Diese Nativeität und Stabilität ermöglichen es Entwicklern und Neulingen, schneller in die Arbeit einzusteigen und mehr Zeit für die eigentliche Agent-Orchestrierung zu verbringen.
Windows hat WSL und PowerShell, die in den meisten Fällen die gleichen Funktionen bieten. Aber WSL ist eine Kompatibilitätsebene, die auf Windows aufgesetzt ist, und es gibt historische Probleme wie Pfadvereinbarungen, Registrierungsmechanismen und Berechtigungsmodelle. Die KI-Modelle und Agent-Projekte laufen auf Windows mit etwas mehr Reibung.
Nehmen wir beispielsweise Ollama und LM Studio. Diese Tools machen die lokale Inferenz von Großmodellen so einfach wie "Herunterladen, Installieren, Ausführen". Die Windows-Version von Ollama kam sechs Monate später als die macOS-Version. LM Studio unterstützt zwar von Anfang an beide Plattformen, aber die Benutzererfahrung auf dem Mac ist in der Community immer besser. Das gleiche gilt für OpenClaw.
Wenn wir uns auf die Hardwareebene konzentrieren, ist der Arbeitsspeicher der Schlüsselelement für die Inferenz von Sprachmodellen.
Nehmen wir wieder OpenClaw als Beispiel. Benutzer können über die Bezahlung von Token auf Cloud-Modelle zugreifen, aber es ist besser geeignet für die lokale Inferenz. Laut allgemeinen Untersuchungen benötigt OpenClaw, um wie ein Mensch mit normaler Intelligenz zu arbeiten, ein Backend-Modell mit mindestens 7 Milliarden Parametern. In der Regel sind mindestens 32 Milliarden Parameter erforderlich, um stabil zu arbeiten.
Selbst nach der 4-Bit-Quantisierung benötigt ein so großes Modell noch etwa 20 GB Arbeitsspeicher (und etwas zusätzlichen Speicher für das Kontextfenster).
Hierbei zeigt sich die Schwäche der Windows-PC-Architektur. Zwischen dem CPU-Arbeitsspeicher und dem Grafikspeicher besteht eine physische Trennung, und die Daten werden über die PCIe-Bus übertragen, was durch die Bandbreiteneinschränkung beeinträchtigt wird. Die häufige Datenübertragung beeinträchtigt die Geschwindigkeit des Inferenzprozesses.
Ganz zu schweigen davon, dass die Großmodelle in der Regel auf die GPU-Beschleunigung für die Inferenz angewiesen sind, und der Grafikspeicher muss groß genug sein, um das Modell aufzunehmen. In der NVIDIA-Konsumgrafikkarte-Reihe erreicht nur die 24-GB-Grafikspeicher-Karte mit der 90-Suffix die Konfigurationsanforderungen. Der Gesamtkosten für einen neuen Computer (nur neue Geräte betrachtet) belaufen sich auf mindestens 10.000 Yuan, und mit neuen Karten kann es bis zu 40.000 - 50.000 Yuan betragen.
Das einheitliche Speicher-Architektur (Unified Memory Architecture) von Apple ermöglicht es den Macs mit M-Serie-Chips, größere Modelle auf der lokalen Seite zu inferieren.
Einfach ausgedrückt, ermöglicht die einheitliche Speicher-Architektur, dass CPU, GPU und der neuronale Rechenmotor den gleichen Arbeitsspeicherpool teilen. Dadurch entfällt der Verlust bei der Datenübertragung über die physische Bus, und der Mac kann eine sehr hohe Arbeitsspeicherbandbreite erreichen. Darüber hinaus ist die Skalierbarkeit für die Kopplung mehrerer Geräte besser.
Nehmen wir den Mac mini als Beispiel. Wenn Sie einen leistungsstärkeren M4 Pro-Prozessor wählen und ihn mit 48 GB Arbeitsspeicher kombinieren und die anderen Komponenten auf die Basisausstattung setzen, kostet der gesamte Computer etwa 13.000 Yuan, was der von der OpenClaw-Community allgemein empfohlenen Konfiguration für ein 32-Milliarden-Parameter-Modell entspricht.
Natürlich handelt es sich hierbei nur um eine professionelle Konfiguration, die eine hohe Token-Durchsatzgeschwindigkeit erfordert. Wenn Sie ein OpenClaw-Enthusiast sind und es nur ausprobieren möchten, können Sie auch einen Mac mit einem normalen M4-Chip und 32 GB Arbeitsspeicher verwenden.
Natürlich gibt es eine Voraussetzung für diesen Kostenvergleich: Es geht um die lokale Inferenz oder das Ausführen von OpenClaw, nicht um die Verwendung als Hauptrechner. Ein Windows-PC im gleichen Preisbereich kann auch Spiele spielen und Videos schneiden und ist daher viel universeller.
Darüber hinaus ist der einheitliche Arbeitsspeicher des Macs nicht das Gleiche wie der Grafikspeicher einer separaten Grafikkarte auf einem PC. Der einheitliche Arbeitsspeicher wird von System und Modell geteilt. Auf einem Mac mini mit 32 GB Arbeitsspeicher benötigt das macOS-System und andere Software noch einige GB. Der Grafikspeicher der RTX 3090 ist separat, und das Modell kann ihn vollständig nutzen, und es kann sogar in Kombination mit dem CPU-Arbeitsspeicher größere quantisierte Modelle ausführen.
Wenn Sie nur die Cloud-API als "Gehirn" für OpenClaw verwenden und keine lokale Bereitstellung in Betracht ziehen, besteht der Vorteil der Benutzerfreundlichkeit des Macs weiterhin.
Darüber hinaus bietet CUDA zwar eine einheitliche Speicherprogrammierungsschnittstelle, aber physisch sind der CPU-Arbeitsspeicher und der Grafikspeicher immer noch getrennt, und die Datenübertragung und die Bandbreiteneinschränkung werden nicht beseitigt.
Betrachten wir nun den Stromverbrauch.
Der Arbeitsmodus eines Agents ist ein kontinuierlicher Zyklus: Aufgabe auslösen, denken und inferieren, ausführen, warten, erneut auslösen. Ein Windows-PC mit der oben genannten Konfiguration verbraucht etwa 300 - 400 W (bei lokaler Bereitstellung), und die Kühlgeräusche und der Stromverbrauch sind nicht zu vernachlässigen.
Der Mac mini hat normalerweise einen stabilen Stromverbrauch von etwa 10 - 40 W und eine Spitzenleistung von 65 W (M4) oder 155 W (M4 Pro). Die Kühlung ist kontrollierbar, und es gibt fast keine Lüftergeräusche. Dieser kontinuierliche Arbeitsmodus mit geringer Latenz und geringem Stromverbrauch führt zu einem subtilen Unterschied im Benutzererlebnis.
Das 3D-gedruckte Kit "Clawy MacOpenClawface" von einem Nutzer
Natürlich diskutieren wir hauptsächlich über den OpenClaw-Szenario, das auf die Inferenz ausgerichtet ist. Wenn Ihre Arbeit die lokale Feinabstimmung umfasst und Sie an Effizienz interessiert sind, müssen Sie auf der macOS-Plattform in der Regel einen Mac Studio oder mindestens einen Macbook Pro in der Top-Konfiguration verwenden, um überhaupt an den Start zu kommen.
Zugleich ist es eine Tatsache, dass der Mac nicht CUDA unterstützt, und dies wird wahrscheinlich nie ändern. Aber das eigentliche Schlachtfeld von CUDA ist die Modelltraining, und die Inferenz-Szenarien sind weitaus weniger von ihm abhängig. Schließlich hat Apple mit MLX eine starke Karte in der Inferenz.
Zurück zu OpenClaw: Der Schöpfer von OpenClaw, Peter Steinberger, hat einmal öffentlich gesagt, dass er Windows mag und es für leistungsfähiger hält. In einem