Tiiny AI, startup statunitense specializzata in soluzioni hardware dedicate all’intelligenza artificiale personale, ha svelato ufficialmente il nuovo Pocket Lab, un mini PC che punta a ridefinire il concetto di elaborazione locale dei modelli linguistici di grandi dimensioni. L’obiettivo dichiarato è ambizioso: consentire l’esecuzione offline di LLM avanzati direttamente su un dispositivo estremamente compatto, senza dipendere dal cloud. Il Tiiny AI Pocket Lab colpisce subito per le dimensioni ridotte.
Con un ingombro di circa 14,2 x 8 x 2,5 centimetri e un peso che si aggira intorno ai 300 grammi, il dispositivo si presenta come uno dei mini PC più piccoli mai realizzati per questo tipo di utilizzo. Non a caso, l’azienda rivendica un primato piuttosto specifico, sostenendo che il Pocket Lab sia stato riconosciuto come il “mini PC più piccolo al mondo nella categoria 100B LLM Local”, una definizione curiosa ma che rende bene l’idea del target a cui il prodotto si rivolge.
Dal punto di vista hardware, la proposta di Tiiny AI è decisamente fuori dal comune. Al centro del sistema troviamo una CPU ARM a 12 core basata su architettura ARMv9.2, affiancata da una NPU dedicata in grado di raggiungere, secondo quanto dichiarato, fino a 160 TOPS di potenza di calcolo per le operazioni di intelligenza artificiale, a cui si aggiungono ulteriori 30 TOPS. Un valore che, almeno sulla carta, posiziona il Pocket Lab su un livello superiore rispetto a molti mini PC tradizionali.
Un altro elemento chiave è la memoria. Tiiny AI ha scelto di integrare ben 80 GB di RAM LPDDR5X, una quantità insolita per un dispositivo di queste dimensioni. Di questi, 48 GB sarebbero dedicati direttamente alla NPU, a conferma del focus totale sull’elaborazione AI. Completa la dotazione un SSD da 1 TB e un envelope energetico dichiarato di 65 watt, un dato interessante se rapportato alla potenza promessa. Secondo l’azienda, il Pocket Lab sarebbe in grado di eseguire modelli linguistici con fino a 120 miliardi di parametri in locale.
Un’affermazione che ha già acceso il dibattito tra gli addetti ai lavori, soprattutto in assenza di dettagli precisi sui livelli di quantizzazione utilizzati. Anche ipotizzando configurazioni aggressive, come il 4-bit, si tratta di un traguardo estremamente ambizioso per un sistema con 80 GB di memoria complessiva. Saranno quindi i test reali a stabilire quanto queste promesse possano tradursi in prestazioni concrete. Sul fronte software, Tiiny AI parla di un’esperienza semplificata, con installazione “one-click” per numerosi modelli open source noti come Llama, Qwen, DeepSeek, Mistral e Phi, oltre al supporto a GPT-OSS. È previsto anche un sistema di aggiornamenti OTA regolari, un aspetto fondamentale per un prodotto che si colloca in un settore in rapida evoluzione. Interessante anche la possibilità di operare completamente offline, un requisito sempre più richiesto da professionisti e aziende attente alla privacy e al controllo dei dati.
Al momento non sono stati comunicati dettagli ufficiali sul prezzo, ma è lecito aspettarsi una cifra elevata, considerando la componentistica e la nicchia di riferimento. Per l’utente medio, che non ha esigenze legate all’esecuzione locale di grandi modelli di intelligenza artificiale, soluzioni più tradizionali e meno costose continueranno probabilmente a rappresentare una scelta più equilibrata. Il Tiiny AI Pocket Lab, però, non nasce per il pubblico generalista. Si rivolge a sviluppatori, ricercatori e professionisti che vogliono sperimentare o lavorare con LLM avanzati in mobilità, senza compromessi sul fronte della riservatezza e della latenza. Se le promesse verranno mantenute, potrebbe rappresentare uno dei prodotti più interessanti e discussi dell’area AI hardware nel 2026.