AMD hat eine neue Initiative gestartet, die darauf abzielt, fortschrittliche künstliche Intelligenz aus der Cloud direkt auf private Computer zu bringen. Mit dem OpenClaw-Framework und den dazugehörigen Hardware-Konfigurationen RyzenClaw und RadeonClaw will das Unternehmen Entwicklern die Werkzeuge an die Hand geben, um komplexe Sprachmodelle und KI-Agenten lokal auszuführen. Dieser Schritt könnte die Abhängigkeit von Rechenzentren verringern und neue Möglichkeiten für Datenschutz und Personalisierung eröffnen.
Wichtige Erkenntnisse
- AMD hat das OpenClaw-Framework vorgestellt, um KI-Anwendungen lokal auf PCs auszuführen.
- Zwei Hardware-Konfigurationen, RyzenClaw und RadeonClaw, zielen auf unterschiedliche Leistungsanforderungen ab.
- Die Initiative soll Entwicklern mehr Kontrolle über Daten und Privatsphäre geben und die Abhängigkeit von Cloud-Diensten reduzieren.
- Die Systeme sind derzeit auf professionelle Anwender und Entwickler ausgerichtet, nicht auf den Massenmarkt.
Die Vision der lokalen KI
Die meisten Menschen kennen künstliche Intelligenz als einen Dienst, der über das Internet von großen Serverfarmen bereitgestellt wird. AMD möchte diesen Ansatz grundlegend ändern. Das Unternehmen treibt die Idee voran, dass die Zukunft der KI nicht ausschließlich in der Cloud liegt, sondern direkt auf den Geräten der Nutzer stattfinden sollte.
Diese Vision ist Teil der breiteren „Agent Computer“-Initiative von AMD. Das Ziel ist es, eine Umgebung zu schaffen, in der KI-Assistenten kontinuierlich und ohne ständige Netzwerkverbindung arbeiten können. Nutzer sollen die volle Kontrolle über ihre Daten und ihre Rechenumgebung behalten.
Die Vorteile liegen auf der Hand: Weniger Abhängigkeit von externen Abonnements, eine potenziell höhere Reaktionsgeschwindigkeit und vor allem ein deutlich verbesserter Datenschutz, da sensible Informationen den lokalen Rechner nicht verlassen müssen.
Was ist ein KI-Agent?
Ein KI-Agent ist ein autonomes Programm, das in der Lage ist, seine Umgebung wahrzunehmen, Entscheidungen zu treffen und Aktionen auszuführen, um bestimmte Ziele zu erreichen. Im Gegensatz zu einem einfachen Chatbot können Agenten komplexe, mehrstufige Aufgaben über einen längeren Zeitraum hinweg bearbeiten, beispielsweise die Planung einer Reise oder die Verwaltung von E-Mails.
OpenClaw: Die technische Umsetzung
Um diese Vision in die Realität umzusetzen, hat AMD das OpenClaw-Framework entwickelt. Es dient als eine Art Bauanleitung für Entwickler, um eine vollständige Umgebung für lokale KI-Agenten aufzusetzen. Die Plattform basiert auf Windows und nutzt das Windows Subsystem for Linux (WSL2) als Grundlage.
Für die eigentliche Ausführung der Sprachmodelle kommt die Software LM Studio zum Einsatz, die wiederum auf das weit verbreitete llama.cpp-Backend zurückgreift. Dies ermöglicht es, Modelle wie das Qwen 3.5 35B A3B direkt auf der eigenen Hardware laufen zu lassen.
Ein weiterer wichtiger Baustein ist Memory.md, ein System, das es der KI ermöglicht, sich an frühere Interaktionen zu erinnern. Dieser „Gedächtnisspeicher“ wird ebenfalls lokal verwaltet, ohne dass Daten in die Cloud synchronisiert werden müssen.
Zwei Konfigurationen für unterschiedliche Ansprüche
AMD schlägt zwei verschiedene Hardware-Pfade vor, um OpenClaw zu nutzen. Beide richten sich an professionelle Anwender und unterscheiden sich in Leistung, Kosten und Spezialisierung.
RyzenClaw: Maximale Speicherkapazität
Die RyzenClaw-Konfiguration basiert auf dem Prozessor AMD Ryzen AI Max+ in Kombination mit beeindruckenden 128 GB einheitlichem Arbeitsspeicher (Unified Memory). AMD empfiehlt, davon etwa 96 GB für die Grafikeinheit zu reservieren, um die KI-Berechnungen flüssig zu halten.
Diese Konfiguration zeichnet sich durch ein riesiges Kontextfenster von bis zu 260.000 Token aus. Das bedeutet, die KI kann sehr große Mengen an Informationen gleichzeitig verarbeiten, was ideal für komplexe Aufgaben oder das Testen mehrerer KI-Agenten ist, die zusammenarbeiten – sogenannte „Agent Swarms“.
Leistungsdaten von RyzenClaw
- Generierungsgeschwindigkeit: ca. 45 Token pro Sekunde
- Verarbeitungszeit (10.000 Token): ca. 19,5 Sekunden
- Maximales Kontextfenster: 260.000 Token
- Gleichzeitige Agenten: Bis zu sechs
Die Stärke von RyzenClaw liegt also in der Fähigkeit, mehrere Agenten parallel laufen zu lassen und dabei einen umfassenden Kontext zu behalten. Die reine Verarbeitungsgeschwindigkeit ist jedoch geringer als bei der zweiten Option.
RadeonClaw: Geschwindigkeit im Fokus
Im Gegensatz dazu setzt die RadeonClaw-Konfiguration auf eine dedizierte Profi-Grafikkarte, die Radeon AI PRO R9700. Diese Karte verfügt über 32 GB eigenen Videospeicher (VRAM), was die Verarbeitungsgeschwindigkeit drastisch erhöht.
Mit der Radeon-Konfiguration wird die Rechenlast auf eine spezialisierte GPU verlagert, was den Durchsatz erheblich steigert.
Die Leistung steigt auf rund 120 Token pro Sekunde, und die Verarbeitung von 10.000 Token dauert nur noch etwa 4,4 Sekunden. Dieser Geschwindigkeitsvorteil hat jedoch seinen Preis: Das maximale Kontextfenster schrumpft auf 190.000 Token, und es können nur noch bis zu zwei Agenten gleichzeitig betrieben werden.
Diese Konfiguration ist ideal für Entwickler, die auf maximale Inferenzgeschwindigkeit angewiesen sind und weniger Wert auf die parallele Ausführung vieler Agenten legen.
Ein Blick auf die Kosten und die Zielgruppe
Beide Systeme sind weit von einer günstigen Verbraucherlösung entfernt. AMD zielt mit OpenClaw klar auf Entwickler, Forscher und sogenannte „Early Adopters“ ab, die mit den Möglichkeiten lokaler KI experimentieren wollen.
Ein Desktop-System, das den Anforderungen von RyzenClaw entspricht, beginnt bei etwa 2.700 US-Dollar. Die RadeonClaw-Option ist noch teurer, da allein die Grafikkarte Radeon AI PRO R9700 mit rund 1.299 US-Dollar zu Buche schlägt.
Diese Preise verdeutlichen, dass es sich derzeit um eine Nischenanwendung handelt. AMD positioniert sich jedoch strategisch für eine Zukunft, in der lokale KI eine größere Rolle spielen könnte. Sollte sich der Trend zu mehr Autonomie und Datenschutz durchsetzen, könnte AMD eine wichtige Rolle in diesem neuen Segment des KI-Marktes einnehmen und die Grenze zwischen professioneller Workstation und Rechenzentrum weiter verwischen.





