Controversie sull’Intelligenza Artificiale: Meta e X sotto accusa per pratiche opache

Meta è criticata per la definizione dei suoi modelli AI come "open source", mentre X annuncia l'uso dei dati degli utenti per addestrare modelli di terze parti, scatenando preoccupazioni sulla privacy e sul controllo dei dati.

Controversie sull’Intelligenza Artificiale: Meta e X sotto accusa per pratiche opache

Negli ultimi tempi, le polemiche riguardanti l’intelligenza artificiale (AI) e i social network sono emerse con forza, generando discussioni accese su come queste tecnologie stiano evolvendo e influenzando le nostre vite quotidiane. Due notizie recenti hanno attirato l’attenzione: da un lato, Meta è stata criticata per l’uso del termine “open source” in relazione ai suoi modelli AI, dall’altro, X ha annunciato la condivisione dei dati degli utenti per addestrare modelli di terze parti. Entrambi gli sviluppi sollevano interrogativi fondamentali sul significato di trasparenza e responsabilità nell’era digitale. 

Meta ha fatto notizia per la sua affermazione che i suoi modelli linguistici, noti come Llama, siano open source. Tuttavia, esperti come Stefano Maffulli, responsabile della Open Source Initiative, hanno contestato questa definizione, sottolineando come l’uso del termine possa confondere gli utenti e compromettere il significato originale di “open source”. La Open Source Initiative, fondata nel 1998 per promuovere i principi dell’open source, avverte che definire i modelli AI di Meta come tali è “estremamente dannoso”, poiché questi modelli sono controllati da un’unica azienda. Maffulli osserva che, a differenza di Meta, altri giganti della tecnologia come Microsoft e Google hanno evitato di etichettare i loro modelli come open source, mantenendo un certo livello di trasparenza. 

Meta, dal canto suo, difende la propria posizione, affermando che l’open source è parte integrante della sua filosofia aziendale. Nel loro sito ufficiale, sostengono che i modelli Llama rappresentano una famiglia di modelli open source, sottolineando il loro impegno a promuovere un ecosistema competitivo. Tuttavia, la critica principale riguarda la mancanza di trasparenza. Anche se gli sviluppatori possono scaricare i modelli gratuitamente, le informazioni tecniche disponibili sono limitate, e la licenza di Llama non consente un uso libero dalla concorrenza. Questo va contro i principi fondamentali dell’open source, che richiedono accessibilità e collaborazione. Il dibattito si intensifica ulteriormente con la definizione di open source che la Open Source Initiative pubblicherà prossimamente. Si prevede che la nuova definizione richieda non solo l’accesso ai modelli, ma anche una trasparenza sui bias e sugli algoritmi utilizzati per l’addestramento. Questo cambiamento potrebbe portare a una rivalutazione della legittimità delle affermazioni di Meta riguardo ai suoi modelli AI. 

Dall’altro lato, X ha recentemente annunciato un’importante modifica alla sua politica sulla privacy, permettendo la condivisione dei dati degli utenti con terze parti per l’addestramento di modelli AI. Questa novità, che entrerà in vigore il 15 novembre 2024, ha suscitato preoccupazioni tra gli utenti riguardo alla loro privacy e all’uso dei dati personali. Anche se X afferma che gli utenti possono rinunciare a questa condivisione, non sono chiari i dettagli su come farlo. Attualmente, non sembra esserci un’opzione specifica nelle impostazioni per disattivare questa funzionalità, il che lascia molti dubbi su come i dati saranno gestiti. Questa mossa potrebbe aprire la porta a un modello di business simile a quello di Reddit, in cui le aziende esterne possono pagare per accedere ai dati della piattaforma.

Se da un lato questo potrebbe rappresentare una nuova fonte di entrate per X, dall’altro suscita interrogativi etici su come vengono trattati i dati degli utenti. Inoltre, X sta aggiornando i suoi termini di servizio per includere sanzioni più severe per chi cerca di estrarre dati in modo automatizzato, una misura che riflette la crescente preoccupazione per la privacy e la sicurezza delle informazioni. 

Continua a leggere su Fidelity News