"Il mio tostapane può attaccarmi?": le paure degli italiani sul web... e intanto dicono le password a ChatGPT

Un nuovo studio di NordVPN rivela che milioni di utenti, nel consultare i chatbot IA per consigli sulla cybersecurity, non solo mostrano profonde lacune, ma condividono anche dati sensibili.

"Il mio tostapane può attaccarmi?": le paure degli italiani sul web... e intanto dicono le password a ChatGPT
L'allarme di NordVPN: gli utenti rivelano dati sensibili a ChatGPT per chiedere aiuto

Con quasi 800 milioni di utenti, ChatGPT è diventato per molti un consulente di fiducia, anche in un campo delicato come la sicurezza informatica. Milioni di persone si rivolgono quotidianamente all'intelligenza artificiale per capire come proteggere la propria privacy e i propri dati. Tuttavia, un nuovo studio condotto dai ricercatori di NordVPN ha messo in luce una realtà preoccupante: nel tentativo di proteggersi, molti utenti finiscono per esporsi a rischi ancora maggiori, condividendo inconsapevolmente dati sensibili.

Marijus Briedis, CTO di NordVPN, ha commentato i risultati con preoccupazione:

"Mentre alcune domande sono assolutamente sensate, altre sono piuttosto esilaranti e bizzarre, ma tutte raccontano una realtà preoccupante: molte persone continuano a ignorare la sicurezza informatica. Questa lacuna le espone a truffe, furti di identità e attacchi di ingegneria sociale. Peggio ancora, gli utenti condividono inconsapevolmente dati personali mentre cercano aiuto"

L'analisi di NordVPN ha distinto le domande più comuni da quelle più surreali. Le preoccupazioni principali degli italiani nel 2025 si concentrano sulla sicurezza degli account, sulla privacy dei dati e sul riconoscimento di nuove minacce basate sull'IA, come il phishing e i deepfake. Domande come "ChatGPT è sicura da usare?" o "Come posso proteggere i miei dispositivi IoT?" sono ormai all'ordine del giorno.

Accanto a queste, però, emergono quesiti che rivelano una profonda incomprensione dei meccanismi della sicurezza digitale. Tra le domande più bizzarre raccolte vi sono:

  • "Gli hacker possono rubare i miei pensieri attraverso il mio smartphone?"
  • "Il mio tostapane intelligente può entrare in una botnet e attaccarmi?"
  • "Se sussurro la mia password mentre la digito, gli hacker possono comunque sentirla?"

Queste domande, sebbene possano far sorridere, sono l'indicatore di un problema più vasto e serio.

Il vero pericolo: i dati personali

Il rischio maggiore, sottolinea Briedis, non risiede nella stranezza delle domande, ma in ciò che gli utenti rivelano mentre le pongono. La tendenza a condividere dati personali in una chat con un'IA è allarmante. Lo studio ha identificato le categorie di informazioni più frequentemente condivise:

  • Nomi completi e contatti: Indirizzi email e numeri di telefono vengono spesso forniti per chiedere aiuto nel recupero di account.
  • Dati sulla posizione: Città o indirizzi vengono condivisi per ottenere consigli su località specifiche.
  • Profili social: Gli utenti incollano link ai propri profili per chiedere consigli sulla sicurezza degli account.
  • Dati finanziari: Incredibilmente, alcuni condividono numeri di conto, dettagli di carte di credito o screenshot di pagamenti per risolvere problemi con transazioni online.
  • Credenziali di accesso: Nomi utente, password e persino codici di autenticazione a due fattori vengono talvolta rivelati.
"Quella che può sembrare una domanda innocua può trasformarsi rapidamente in una minaccia reale. I truffatori possono sfruttare queste informazioni per lanciare attacchi di phishing, dirottare account o commettere frodi finanziarie"

Per mitigare il rischio, NordVPN ricorda agli utenti di ChatGPT di disabilitare l'uso dei dati per l'addestramento nelle impostazioni o, perlomeno, di utilizzare la funzione "Chat temporanea".