Il Garante per la protezione dei dati personali ha imposto una limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT. Questa decisione è stata presa a causa della mancanza di una base giuridica per la raccolta e la conservazione massiccia di dati personali, oltre alla mancanza di un’informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI.

Inoltre, il Garante privacy ha rilevato che le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto. Il servizio è rivolto ai maggiori di 13 anni, ma l’assenza di un filtro per la verifica dell’età degli utenti esporrebbe i minori a risposte inadeguate rispetto al loro grado di sviluppo e autoconsapevolezza.

ChatGPT è uno dei software di intelligenza artificiale relazionale più noti, in grado di simulare ed elaborare le conversazioni umane. Tuttavia, lo scorso 20 marzo la piattaforma ha subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante. In caso contrario, rischia una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

È importante che le società che raccolgono e trattano dati personali rispettino la disciplina privacy e garantiscano la protezione dei dati degli utenti. Le informazioni personali degli utenti non dovrebbero essere raccolte senza una base giuridica adeguata e senza che gli utenti siano informati in modo trasparente. Inoltre, le società dovrebbero adottare misure per garantire la corretta elaborazione dei dati e proteggere la privacy degli utenti, soprattutto quando si tratta di minori.