Il mini PC AI giapponese con CPU RISC-V: compatto, sperimentale e pensato per l’intelligenza artificiale locale

Il Vividnode Mobile AI è un mini PC giapponese basato su architettura RISC-V pensato per eseguire modelli di intelligenza artificiale in locale in formato compatto e sperimentale.

Il mini PC AI giapponese con CPU RISC-V: compatto, sperimentale e pensato per l’intelligenza artificiale locale

Nel panorama sempre più affollato dei dispositivi dedicati all’intelligenza artificiale, arriva dal Giappone una proposta decisamente fuori dagli schemi. Si chiama Vividnode Mobile AI ed è un mini PC sviluppato dal brand Zuiki, progettato attorno a un’architettura ancora poco diffusa nel mondo consumer ma sempre più osservata con interesse dagli addetti ai lavori: RISC-V. Dietro questa sigla si nasconde un ecosistema open-source nato nei laboratori dell’Università di Berkeley e pensato per offrire una alternativa ai tradizionali standard come x86 e ARM.

Nonostante non abbia ancora raggiunto una diffusione di massa, RISC-V sta diventando un terreno fertile per sperimentazioni avanzate, soprattutto nel campo dell’intelligenza artificiale e del computing edge. Il cuore del Vividnode Mobile AI è il SoC SpacemiT K3, un chip octa-core con frequenza fino a 2,4 GHz basato su core A100 e accreditato di una potenza di calcolo che può arrivare fino a 60 TOPS. Si tratta di un dato significativo per un dispositivo di queste dimensioni, soprattutto considerando che l’obiettivo principale non è la produttività tradizionale, ma l’esecuzione locale di modelli di intelligenza artificiale.

Il sistema può essere configurato con 16 o 32 GB di RAM, a seconda delle esigenze, e integra 64 GB di storage UFS con possibilità di espansione tramite slot M.2. Il punto chiave è la capacità di eseguire modelli linguistici di grandi dimensioni direttamente sul dispositivo, senza dipendere da servizi cloud. Un approccio che punta su privacy, autonomia e riduzione della latenza. A livello software, il mini PC utilizza VividLinux, una distribuzione ottimizzata per i carichi di lavoro AI. Il sistema è compatibile con framework ormai standard nel settore come ONNX, TensorFlow e PyTorch, e integra strumenti come Ollama per la gestione dei modelli linguistici.

Tra i modelli già pronti all’uso figura anche Qwen-30B, segno che il dispositivo è pensato per scenari avanzati e non solo dimostrativi. Le dimensioni rappresentano uno degli aspetti più interessanti: 125 x 88 x 28 mm. In pratica, un dispositivo tascabile che può essere collocato in ambienti ridotti o utilizzato come nodo edge in configurazioni più complesse. Il consumo energetico si attesta intorno ai 40 watt, un valore contenuto per una macchina con queste capacità di calcolo.

Sul fronte della connettività, la dotazione è essenziale ma mirata. Troviamo una porta Ethernet Gigabit affiancata da una 10 Gigabit, oltre a USB-C con supporto DisplayPort. Non manca il Wi-Fi 6 e il Bluetooth 5.2, mentre la scelta di privilegiare le connessioni cablate conferma la vocazione professionale del dispositivo, orientato a contesti di sviluppo e sperimentazione piuttosto che all’uso consumer. Il progetto non nasce come prodotto di massa, ma come iniziativa sperimentale presentata sulla piattaforma di crowdfunding giapponese Kibidango.

I prezzi, infatti, non sono entry-level: si parte da circa 927 euro fino a superare i 1.200 euro nelle configurazioni più complete. Una fascia che lo colloca chiaramente nel segmento degli early adopter e degli sviluppatori.

Continua a leggere su Fidelity News