ChatGPT: vulnerabilità nello strumento di ricerca che permette manipolazioni e disinformazione

Un'inchiesta del Guardian ha rivelato che lo strumento di ricerca di ChatGPT può essere manipolato tramite contenuti nascosti, restituendo risultati falsi o addirittura codice dannoso, sollevando preoccupazioni sulla sicurezza e l'affidabilità del sistema.

ChatGPT: vulnerabilità nello strumento di ricerca che permette manipolazioni e disinformazione

Un’indagine condotta dal Guardian ha sollevato importanti preoccupazioni riguardo la sicurezza degli strumenti di ricerca basati su ChatGPT, come il nuovo strumento di ricerca di OpenAI. Secondo i risultati, sembra che il sistema sia vulnerabile a manipolazioni attraverso contenuti nascosti, con il rischio di restituire risultati falsi o persino codice dannoso da siti web manipolati.

L’ultimo aggiornamento di OpenAI ha reso disponibile il suo strumento di ricerca per gli utenti paganti, promuovendolo come il loro strumento predefinito per le ricerche online. Tuttavia, l’inchiesta del Guardian ha evidenziato possibili falle di sicurezza che potrebbero compromettere l’affidabilità e l’integrità dei risultati restituiti dallo strumento. L’indagine ha testato come ChatGPT risponde alle richieste di riepilogo di pagine web contenenti contenuti nascosti.

Questi contenuti, che possono includere istruzioni indirizzate a ChatGPT, sono noti come “prompt injection”. Si tratta di un metodo utilizzato per alterare le risposte del sistema, ad esempio includendo del testo invisibile che enfatizza in modo eccessivo i vantaggi di un prodotto o servizio. In alcuni casi, il contenuto nascosto ha spinto ChatGPT a restituire valutazioni esageratamente positive, anche quando la stessa pagina conteneva recensioni negative.

Per esempio, quando è stato fornito a ChatGPT un URL di una pagina fittizia su una fotocamera, l’IA ha inizialmente restituito una valutazione equilibrata del prodotto. Tuttavia, quando il testo nascosto conteneva istruzioni per l’IA di fornire una recensione positiva, il sistema ha sempre restituito un giudizio interamente favorevole, ignorando eventuali recensioni negative presenti sulla pagina. 

Questi risultati suggeriscono che la funzionalità di ricerca di ChatGPT potrebbe essere sfruttata da malintenzionati per creare pagine web ad hoc, progettate per ingannare gli utenti. In altre parole, persone senza scrupoli potrebbero progettare siti web che, attraverso tecniche di manipolazione dei contenuti nascosti, inducano l’IA a generare recensioni e valutazioni false. La presenza di contenuti nascosti positivi, come recensioni inventate, potrebbe garantire una valutazione favorevole anche in presenza di feedback negativi genuini.

Jacob Larsen, ricercatore di cybersecurity presso CyberCX, ha sottolineato che se il sistema attuale venisse rilasciato senza modifiche, ci sarebbe un “rischio elevato” che gli utenti vengano ingannati da siti web creati appositamente per manipolare il sistema di ChatGPT. Tuttavia, Larsen ha anche precisato che la funzionalità di ricerca è stata rilasciata da poco e che OpenAI sta lavorando per risolvere queste problematiche. Larsen ha poi sollevato un’altra questione più ampia: l’integrazione dei modelli linguistici di grandi dimensioni (LLM) come ChatGPT con i motori di ricerca potrebbe portare a problematiche legate alla fiducia dei risultati. La ricerca automatizzata tramite IA, infatti, potrebbe non sempre restituire informazioni affidabili, soprattutto quando l’intelligenza artificiale è esposta a contenuti manipolati.

Per questo motivo, è essenziale che gli utenti rimangano cauti e critici nei confronti delle risposte restituite dai chatbot. OpenAI non ha ancora rilasciato dichiarazioni ufficiali riguardo le preoccupazioni sollevate dal Guardian e non ha risposto alle domande inviate in merito alla vulnerabilità della funzionalità di ricerca. 

Continua a leggere su Fidelity News