Itdaily - AMD wil AI-agenten lokaal laten draaien met OpenClaw

AMD wil AI-agenten lokaal laten draaien met OpenClaw

AMD logo

AMD heeft het OpenClaw-framework uitgebreid met twee hardwareconfiguraties waarmee ontwikkelaars grote AI-modellen lokaal kunnen draaien in plaats van in de cloud.

OpenClaw maakt deel uit van AMD’s Agent Computer-strategie, waarmee het bedrijf AI dichter bij de gebruiker wil brengen. Volgens AMD kunnen lokale AI-agenten zorgen voor minder afhankelijkheid van datacenters, meer controle over data en minder privacyrisico’s.

Twee hardwarepaden voor lokale AI

OpenClaw kan op Windows draaien via WSL2 (Windows Subsystem for Linux), terwijl lokale inferentie gebeurt via LM Studio met de llama.cpp-backend. Daardoor kunnen ontwikkelaars grote modellen, zoals Qwen 3.5 35B A3B, rechtstreeks op hun eigen hardware uitvoeren.

AMD introduceert twee configuraties. RyzenClaw gebruikt een Ryzen AI Max+ processor met 128 GB gedeeld geheugen. In deze setup haalt het model ongeveer 45 tokens per seconde en kan het een invoer van 10.000 tokens verwerken in ongeveer 19,5 seconden. De configuratie ondersteunt een contextvenster tot 260.000 tokens en kan volgens AMD tot zes AI-agenten tegelijk laten draaien.

GPU-configuratie voor hogere snelheid

De tweede configuratie, RadeonClaw, verschuift de belasting naar een de Radeon AI PRO R9700 met 32 GB VRAM. Hier stijgt de prestaties tot ongeveer 120 tokens per seconde, waardoor een input van 10.000 tokens in ongeveer 4,4 seconden kan worden verwerkt. Het contextvenster daalt echter wel naar ongeveer 190.000 tokens en dat maximaal twee AI-agenten tegelijk kunnen draaien.