Wikipedia ha deciso di intraprendere una posizione netta contro l’intelligenza artificiale generativa, introducendo una nuova politica che consente l’eliminazione immediata di articoli identificati come generati da strumenti automatici come ChatGPT. La misura, soprannominata “G15” dalla comunità di editori, è stata pensata per contrastare la crescente diffusione di contenuti realizzati da AI che non rispettano gli standard qualitativi richiesti dalla più grande enciclopedia online del mondo.
Il problema nasce dalla facilità con cui i modelli di linguaggio, oggi sempre più evoluti, riescono a produrre testi apparentemente coerenti, ma che spesso mancano di fonti affidabili, includono errori concettuali o addirittura diffondono informazioni completamente inventate. Una situazione che mina le basi della Wikipedia stessa, fondata sul contributo umano volontario, la verifica delle fonti e il consenso della comunità.
Fino a poco tempo fa, gli articoli sospettati di essere stati generati da AI venivano sottoposti alle consuete procedure di valutazione. Questo significava aprire discussioni, analizzare la rilevanza dei contenuti e verificare la presenza di fonti attendibili, un processo che poteva richiedere giorni o settimane, rallentando enormemente il lavoro degli amministratori.
Con l’introduzione della G15, gli amministratori della piattaforma hanno ora il potere di eliminare immediatamente quei testi che rispettano due criteri ben definiti. Il primo è la presenza di espressioni tipiche delle risposte automatiche, come “Ecco il tuo articolo su…” oppure “Secondo il mio ultimo aggiornamento…”, formule che tradiscono l’origine automatizzata del contenuto. Il secondo criterio è la presenza di fonti manifestamente false, inventate o irrilevanti, come riferimenti a studi mai pubblicati o collegamenti a pagine web non pertinenti.
Questa procedura di “cancellazione rapida” è concepita come un filtro iniziale, volto a fermare i casi più evidenti. Tuttavia, non rappresenta una soluzione definitiva: gli articoli scritti da AI con maggiore raffinatezza o revisionati da esseri umani rimangono difficili da individuare con certezza, rendendo necessaria una valutazione più approfondita.
La nuova linea si inserisce nel più ampio progetto “WikiProject AI Cleanup”, un’iniziativa con cui Wikipedia intende regolamentare e limitare l’uso improprio dell’intelligenza artificiale, promuovendone invece un utilizzo responsabile e utile. L’obiettivo è chiaro: garantire l’affidabilità delle informazioni fornite e preservare la reputazione della piattaforma. In un’epoca in cui i contenuti generati da AI sono sempre più presenti in rete, la decisione della Wikipedia rappresenta un segnale forte. Non si tratta di un rifiuto assoluto della tecnologia, ma di un richiamo all’importanza della qualità, dell’etica e del controllo umano sui contenuti diffusi online.