Il Garante privacy blocca ChatGPT, il software per l'intelligenza artificiale. Le ragioni: raccolta illecita dati personali e assenza di sistemi per verificare età minori

Intelligenza artificiale: il Garante blocca ChatGPT

Raccolta illecita di dati personali e assenza di sistemi per la verifica dell'età dei minori. Queste le ragioni principali per cui il Garante privacy ha bloccato ChatGPT con effetto immediato. Lo ha reso noto l'autorità il 31 marzo 2023, informando di aver contestualmente aperto un'istruttoria.

ChatGPT, si ricorda, è il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

Nel provvedimento, il Garante privacy rileva il mancato rispetto della privacy, e nello specifico, "la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di 'addestrare' gli algoritmi sottesi al funzionamento della piattaforma".

Da ultimo, nonostante - secondo i termini pubblicati da OpenAI - il servizio sia rivolto ai maggiori di 13 anni, l'Autorità evidenzia come "l'assenza di qualsivoglia filtro per la verifica dell'età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza".

OpenAI ora deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.


Foto: 123rf.com
Altri articoli che potrebbero interessarti:
In evidenza oggi: