Menu Chiudi

“Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di dati personali. Assenza di sistemi per la verifica dell’età dei minori”

Ma cosa è successo?  Cos’è chatGPT?

Si tratta di un modello di chatbot basato su intelligenza artificiale, specializzato nella conversazione con un utente umano. Il Garante per la protezione dei dati personali, con effetto immediato è intervenuto disponendo una limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, società che ha sviluppato e gestisce ad oggi la piattaforma oggetto della limitazione.

ATTENZIONE!

L’Autorità Garante non ha bloccato l’accesso a ChatGPT ha “bloccato” il trattamento dei dati.

Lo scorso 20 marzo ChatGPT aveva subito un Data Breach relativamente alle conversazioni degli utenti e le informazioni riguardanti i dati dei pagamenti degli abbonati.

Le mancanze rilevate dall’Autorità Garante riguardano:

·       mancanza di una informativa agli utenti e a tutti gli interessati;

·       assenza di una base giuridica che giustifichi la raccolta e la conservazione “massiccia” dei dati personali;

·       trattamento dati inesatto.

Un’altra criticità sollevata dall’Autorità Garante riguarda la mancanza di un controllo relativamente all’accesso alla piattaforma da parte di minori, esponendo questi ultimi ad una illimitata quantità di informazioni, che potrebbero rivelarsi “pericolose e/o controproducenti” rispetto al loro grado di sviluppo e autoconsapevolezza.

ChatGPT ad oggi risulta inaccessibile dall’Italia, non perché l’abbia deciso l’Autorità Garante, ma in quanto la società ha “sospeso” il servizio in Italia su sua spontanea decisione. Avrebbe, invece, dovuto fornire le informazioni richieste dal Garante quanto prima. Questo modo di agire potrebbe far pensare davvero ad una non corretta gestione dei dati personali degli utenti!

La società OpenAI, non ha una sede all’interno dell’Unione Europea, ma ha designato un rappresentante nello Spazio economico europeo, e dovrà comunicare entro 20 giorni le misure intraprese in esecuzione a quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Ma perché tanta preoccupazione, non solo per ChatGPT ma per l’IA in generale?

La preoccupazione in questi giorni è aumentata, c’è chi sostiene il progresso tecnologico e chi invece si sente invaso dai sistemi di intelligenza artificiale. Il pensiero prevalente in questa circostanza, sembra evidenziare che il temere che un sistema di intelligenza artificiale o similari, possa essere ostacolato e non canalizzato nei giusti modi, rivela soltanto una “nativa mancanza di intelligenza naturale”.

Non possiamo negare che ad oggi, l’evoluzione tecnologica proceda incessante, non possiamo fermarla, ma con responsabilità e consapevolezza si può confidare in un corretto utilizzo.

Individuare, migliorare e risolvere le eventuali criticità che si riscontrano con i sistemi di AI, ci consentirebbe di evolvere di pari passo con la tecnologia e di sfruttare quest’ultima nel migliore dei modi, supportando le attività umane che non potrebbero che giovarne.

I problemi concreti riscontrati attualmente, riguardano sicuramente la “dispersione” di una quantità importante di dati personali che affidiamo a questi sistemi; gli stessi, devono comunque essere oggetto di attenzione, senza considerare che potrebbero configurarsi problemi legati a discriminazioni, deep fake etc.

L’intervento e il controllo umano su questo è fondamentale, di conseguenza il progresso tecnologico ci aiuterà, ma la centralità umana farà sempre la differenza.