AMD ha pubblicato una guida tecnica pensata per chi vuole far girare OpenClaw, una piattaforma open source per agenti AI autonomi, direttamente su macchine locali equipaggiate con processori Ryzen o schede Radeon. Il materiale spiega come mettere in piedi un ambiente su Windows impiegando componenti come WSL2, LM Studio e l’inferenza tramite llama.cpp, offrendo così un’alternativa ai servizi cloud per le operazioni di intelligenza artificiale.
La proposta rientra nel più ampio concetto che AMD chiama Agent Computer, ovvero macchine pensate non tanto come strumenti d’uso diretto, ma come host per agenti software che ricevono compiti e li eseguono autonomamente. Questa idea ricorda altre soluzioni emergenti nel mercato, come il concetto alla base di Perplexity Computer, e punta su vantaggi quali controllo dei dati, costi operativi e assenza di limiti imposti dal cloud.
La visione e i vantaggi dell’esecuzione locale
Nella documentazione AMD viene sottolineato che molte organizzazioni e utenti privati potrebbero preferire una soluzione in locale per motivi legati alla privacy, al controllo dei dati e a una gestione dei costi più prevedibile. Un sistema locale può agire come un assistente persistente sempre attivo in casa o in ufficio, pronto a eseguire servizi e workflow senza latenza di rete o dipendenze esterne. L’integrazione con strumenti digitali e la possibilità di scegliere tra modalità a pieno accesso al sistema o sandbox per motivi di sicurezza sono elementi chiave della guida.
Due percorsi hardware definiti: RyzenClaw e RadeonClaw
AMD descrive due configurazioni hardware distinte per eseguire OpenClaw su Windows: la prima, chiamata RyzenClaw, è orientata su piattaforme con Ryzen AI Max+ e ampia memoria unificata; la seconda, RadeonClaw, sfrutta una GPU workstation come la Radeon AI PRO R9700.
Entrambi i percorsi fanno uso di WSL2, LM Studio e llama.cpp per l’inferenza locale, ma offrono compromessi differenti tra capacità di memoria, larghezza di contesto e parallelizzazione degli agenti.
RyzenClaw: memoria elevata per swarm di agenti
La configurazione RyzenClaw proposta parte da una piattaforma con Ryzen AI Max+ dotata di 128 GB di memoria unificata, con la raccomandazione di assegnare 96 GB come memoria grafica variabile per i modelli linguistici. In questa impostazione OpenClaw è in grado di eseguire il modello Qwen 3.5 35B A3B a circa 45 token al secondo, trattando 10.000 token di input in circa 19,5 secondi, con una finestra di contesto fino a 260.000 token e supportando fino a sei agenti in parallelo.
La disponibilità di molta memoria consente di sperimentare configurazioni di agent swarm dove più agenti collaborano per compiti complessi.
RadeonClaw: velocità superiore ma meno parallelismo
La strada RadeonClaw si basa su una Radeon AI PRO R9700 con 32 GB di VRAM: con lo stesso modello la velocità sale sensibilmente, arrivando a circa 120 token al secondo e a un’elaborazione di 10.000 token in circa 4,4 secondi. Tuttavia questa scelta riduce la capacità di eseguire molti agenti contemporaneamente: la guida indica supporto massimo per due agenti e una finestra di contesto di circa 190.000 token, un compromesso fra throughput e parallelizzazione.
Costi, destinatari e prospettive
Dal punto di vista economico le configurazioni suggerite non sono ancora pensate per il grande pubblico.
Un sistema basato su Ryzen AI Max+ con 128 GB di memoria può superare i 2.700 dollari senza considerare lo storage, mentre una scheda Radeon AI PRO R9700 parte da circa 1.300 dollari. Questi investimenti rendono la proposta più adatta a sviluppatori, ricercatori e early adopter che vogliono sperimentare agenti AI in locale, piuttosto che a utenti consumer in cerca di soluzioni economiche pronte all’uso.
Nonostante ciò, il documento AMD indica una strada credibile verso PC specializzati che ospitano agenti sempre attivi: se da un lato i costi e la complessità limitano l’adozione immediata, dall’altro la possibilità di mantenere controllo e performance in locale rappresenta una direzione promettente del mercato AI. Per chi lavora su integrazioni, privacy e automazione continua, la guida costituisce un punto di partenza pratico per valutare scenari e compromessi tra prestazioni, memoria e scalabilità.

