Gemini AI: Google ammette che la demo mostrata non era reale

Google ha annunciato il suo modello AI più potente di sempre, Gemini, ma la demo presentata ha suscitato polemiche. Il video mostrava interazioni impressionanti con il modello multimodale, ma si è scoperto che era in gran parte falsificato.

Gemini AI: Google ammette che la demo mostrata non era reale

Il recente annuncio di Google riguardo al suo modello di intelligenza artificiale più potente di sempre, Gemini, ha scatenato un’ondata di polemiche. Un editoriale della testata Bloomberg ha sollevato dubbi sulle reali capacità di Gemini dopo la messa in onda di un video durante l’annuncio di Google all’inizio di questa settimana.

Il video presentava le capacità multimodali di Gemini, evidenziando la sua abilità innata nell’elaborare suggerimenti vocali basandosi sul riconoscimento delle immagini. Tuttavia, la giornalista Parmy Olson ha sollevato un velo di scetticismo, suggerendo che le abilità mostrate potessero essere eccessivamente performanti. Google ha successivamente ammesso che la demo non è avvenuta in tempo reale con suggerimenti vocali, bensì è stata costruita utilizzando fotogrammi fissi e suggerimenti di testo pre-scritti.

Il cuore della controversia risiede nel disclaimer di Google, descritto dalla giornalista come una distorsione della realtà. “Ai fini di questa demo, la latenza è stata ridotta e gli output di Gemini sono stati ridotti per brevità,” dichiara Google nel tentativo di giustificare la discrepanza tra la rappresentazione nel video e la realtà effettiva. La differenza tra ciò che Google sembrava suggerire e ciò che è emerso dopo l’analisi della giornalista è notevole. L’azienda ha dato l’impressione che Gemini potesse gestire una conversazione vocale fluida in tempo reale, mentre in realtà il video era una rappresentazione pre-costruita.

Parmy Olson ha sostenuto che Google potrebbe essere intenzionalmente fuorviante, cercando di minimizzare le differenze tra Gemini e il GPT di OpenAI. La difesa di Google ha cercato di dissipare le preoccupazioni, sostenendo che il video intendeva illustrare le potenziali esperienze utente multimodali costruite con Gemini.

Tuttavia, la confessione che la demo era in gran parte falsificata è destinata a minare la fiducia degli utenti nell’integrità e nelle capacità reali di Google. La trasparenza è un elemento cruciale quando si tratta di tecnologie avanzate come l’IA, e la scoperta di una demo fuorviante potrebbe compromettere la percezione di Google come azienda affidabile. La reazione di Google, annunciando la rimozione del video dai suoi canali di comunicazione, ha sollevato ulteriori dubbi.

Alcuni osservatori ritengono che l’azienda stia cercando di limitare i danni senza affrontare pienamente le conseguenze delle proprie azioni. La perdita di fiducia degli utenti potrebbe avere ripercussioni significative sulla capacità di Google di commercializzare Gemini, sia tra gli sviluppatori che tra gli utenti finali.

Continua a leggere su Fidelity News