Stile Urbano, l’appuntamento ricorrente per commentare il mondo della tecnologia, della privacy e dei diritti digitali, ospitato all’interno della cornice del Magazine internazionale MonteCarloStyle.
“Con gentile concessione di Montecarlo Style”
Con la L. 23 settembre 2025, n. 132, l’Italia ha introdotto la prima normativa organica nazionale per la regolamentazione dell’impiego dell’Intelligenza Artificiale, seguendo il tracciato dell’AI Act ma, di fatto, agendo da apripista. Molti termini, definizioni e principi sono ovviamente collegati al quadro europeo (anche con un rinvio esplicito), ma la declinazione nazionale provvede a fornire spunti operativi ed elementi di valore strategico per chiunque voglia fare ricorso a questa nuova tecnologia e che possono valere come ispirazione anche per altri legislatori.
L’ambizione della norma è già nelle finalità che intende perseguire: fissare dei “principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale”, in modo tale da promuovere “un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità”. Dichiarazioni di principio molto importanti che però hanno risvolti significativi per gli imprenditori che intendono approcciare questo settore di business. Non importa che impieghino modelli cc.dd. fondativi, ovverosia modelli di base pre addestrati fra cui rientrano i LLM (large language model, i modelli linguistici di grandi dimensioni come ChatGPT, Claude, Gemini, Deepseek o Llama, ad esempio), o altrimenti modelli personalizzati o specializzati: i principi definiscono un quadro – o meglio, una direzione – perché lo sviluppo di tecnologie di questo tipo possa avvenire nel rispetto della normativa. In pratica, forniscono delle informazioni fondamentali per ridurre al minimo il rischio d’impresa.
Settori rilevanti e il tema dei dati personali
Già da una lettura della rubrica degli articoli della norma emergono e gli ambiti attenzionati dalla norma: sviluppo economico, sicurezza e difesa nazionale, sanità, ricerca e sperimentazione scientifica, lavoro, professioni intellettuali, pubblica amministrazione e attività giudiziaria. Uno dei comuni denominatori è quello del trattamento dei dati personali, dal momento che sia l’addestramento sia l’impiego degli strumenti incontrano i limiti e le condizioni stabilite dalla normativa in materia di protezione dei dati personali il cui presidio europeo è nel Reg. UE 2016/679 o GDPR. Questa tematica è più volte stata affrontata dalle autorità di controllo nazionali e dall’EDPB, il comitato europeo dei Garanti, dal momento che soprattutto nella trasformazione digitale che stiamo vivendo è necessario essere in grado di coordinare la tutela dei diritti fondamentali con le esigenze imprenditoriali. La normativa non deve infatti impedire l’avanzamento della tecnologia bensì renderlo sostenibile in termini di rischi e, soprattutto, vantaggi tanto per gli individui quanto per la collettività.
Dall’esempio italiano agli spunti per standard condivisi
L’esempio italiano è quello di una normativa che innanzitutto individua alcuni settori particolarmente rilevanti in cui promuovere l’impiego sostenibile e consapevole delle nuove tecnologie di Intelligenza Artificiale attraverso linee di indirizzo e condizioni, nonché la previsione di tavoli di lavoro ed osservatori per monitorare continuamente lo “stato dell’arte” di un settore in continua evoluzione. Il motivo è semplice: adattare le regole ad un mondo che cambia.
In pratica, la norma formalizza quelli che sono i pilastri fondamentali dei modelli di business di chi intende promuovere l’offerta di strumenti e servizi basati sull’impiego dell’Intelligenza Artificiale. Ad esempio, il limite generale di preservare l’autonomia e il potere decisionale dell’uomo, sia come individuo che negli
organismi dello Stato, è un elemento di cui qualsiasi impianto legislativo o standard regolatorio dovrà tenere necessariamente conto per normare questo ambito. Per quanto riguarda invece la responsabilizzazione dei soggetti affinché i processi di sviluppo siano in grado di garantire correttezza, attendibilità, sicurezza, qualità, appropriatezza, trasparenza e sicurezza, se non sarà una legge e la relativa sanzione allora le conseguenze negative deriveranno semplicemente dal mercato.
L’esempio italiano è ovviamente quello di un apripista, dal quale però possono emergere non pochi spunti interessanti utili sia per chi ha intenzione di normare a livello nazionale i sistemi di Intelligenza Artificiale sia per chi ha intenzione di individuare gli elementi che sono in grado di far acquisire competitività alla strategia imprenditoriale che si intende intraprendere in questo settore tecnologico particolarmente innovativo.