Usare ChatGPT come terapista? Una pessima idea, secondo Sam Altman
In un podcast, il CEO di OpenAI ha spiegato che, in assenza di un quadro normativo, le conversazioni con l'IA non sono protette da segreto professionale.
Gli utenti che si affidano a ChatGPT per supporto emotivo o come "terapia" dovrebbero essere più cauti. A lanciare l'avvertimento è lo stesso CEO di OpenAI, Sam Altman, il quale ha sottolineato che l'industria dell'intelligenza artificiale non ha ancora trovato un modo per garantire la privacy degli utenti in queste conversazioni sensibili, poiché non esiste un segreto professionale medico-paziente quando il "medico" è un'IA.
In un recente episodio del podcast "This Past Weekend w/ Theo Von", Altman ha spiegato che uno dei problemi principali è l'assenza di un quadro giuridico e normativo per l'intelligenza artificiale. Di conseguenza, le conversazioni con ChatGPT non godono della stessa riservatezza legale prevista per quelle con un terapista, un medico o un avvocato:
"Le persone confidano a ChatGPT i dettagli più personali della loro vita, ma non abbiamo ancora capito come gestire la privacy in questi casi"
Il rischio concreto, ha aggiunto, è che in caso di una causa legale OpenAI sarebbe legalmente obbligata a produrre tali conversazioni. Altman ha definito questa situazione "davvero sbagliata", sostenendo che le interazioni con l'IA dovrebbero avere lo stesso livello di privacy di quelle con un professionista.
Questa mancanza di tutele legali rappresenta un potenziale ostacolo all'adozione di massa dell'IA e OpenAI sta già affrontando questa problematica in tribunale: nella causa con il New York Times, l'azienda si oppone a un'ordinanza che la obbligherebbe a salvare le chat di centinaia di milioni di utenti.
Altman stesso ha concluso che è comprensibile e sensato che gli utenti desiderino maggiore chiarezza legale prima di affidare i propri pensieri più intimi a un chatbot.
Fonte: TechCrunch