Intelligenza artificiale e diritti fondamentali
L'intelligenza artificiale viene spesso descritta in termini di algoritmi, dati, potenza di calcolo. Per il giurista costituzionalista la domanda decisiva è un'altra: che cosa resta dell'idea di persona come centro di diritti, quando la persona tende a comparire davanti ai poteri pubblici e privati sotto forma di profilo, punteggio, correlazione statistica"
Dietro la retorica delle "macchine intelligenti" riemergono questioni antiche relative a chi decide davvero e chi è responsabile, fino a che punto l'essere umano può essere trattato come oggetto di calcolo. La novità dell'IA non è tanto il conflitto tra tecnica e diritto, quanto il modo radicale in cui mette alla prova la promessa originaria del costituzionalismo, la persona non è mai solo un mezzo.
Per capire la portata delle trasformazioni in corso occorre partire da lontano, dal diritto naturale e dalle dichiarazioni dei diritti, per arrivare alla Carta dei diritti fondamentali dell'Unione europea, al Regolamento (UE) 2024/1689 sull'intelligenza artificiale (AI Act) e, infine, alla legge italiana 23 settembre 2025, n. 132, che tenta di tradurre in chiave interna le scelte dell'Unione.
1. Dal diritto naturale alla Carta dei diritti fondamentali
L'idea che esistano diritti della persona che precedono e vincolano il potere politico è una conquista del diritto naturale moderno. Ben prima delle costituzioni rigide, il linguaggio dei diritti naturali è servito per affermare che vi sono sfere della vita umana come la la libertà, l'integrità fisica, la coscienza che nessun sovrano può violare senza perdere legittimità. Le dichiarazioni del Settecento, così come la Dichiarazione universale del 1948 sono figlie di questo paradigma.
La Costituzione italiana si inserisce consapevolmente in questo solco. L'articolo 2 "riconosce e garantisce" i diritti inviolabili dell'uomo, non li crea, prende atto di una dignità che lo Stato non fonda ma deve rispettare. L'articolo 3, con la duplice promessa di eguaglianza formale e sostanziale e l'articolo 32 con il diritto alla salute, completano un quadro in cui la persona viene posta al centro. L'articolo 117, primo comma apre l'ordinamento ai vincoli derivanti dal diritto dell'Unione e dagli obblighi internazionali, rendendo naturale il dialogo con la Carta dei diritti fondamentali dell'Unione europea e con la CEDU.
La Carta dei diritti fondamentali dell'Unione europea (talvolta indicata come Carta di Nizza) si colloca precisamente a questo livello, non inventa ex novo i diritti, ma li riordina e li rende visibili in un testo unitario. Raccoglie in 54 articoli, organizzati in sei grandi titoli la dignità, libertà, eguaglianza, solidarietà, cittadinanza, giustizia e le garanzie che provengono dalle tradizioni costituzionali comuni, dalla CEDU, dalle Carte dei diritti, dalla giurisprudenza della Corte di giustizia e della Corte di Strasburgo.
Con il Trattato di Lisbona la Carta ha ottenuto lo stesso valore giuridico dei Trattati trattandosi di un diritto primario dell'Unione, vincolante per le istituzioni europee e per gli Stati membri quando attuano il diritto dell'Unione (art. 6 TUE, art. 51 Carta). Essa non estende le competenze dell'Unione, ma fissa un parametro per l'interpretazione e la validità del diritto derivato. In questa architettura alcuni diritti assumono una rilevanza particolare per il tema dell'IA, il diritto al rispetto della vita privata e familiare (articolo 7), il diritto alla protezione dei dati personali (articolo 8), le libertà di espressione e informazione (articolo 11), il divieto di discriminazione (articolo 21) oltre ai diritti procedurali del Titolo VI.
La Carta non è solo un catalogo di diritti, ma una lente attraverso cui leggere l'intero sviluppo del diritto dell'Unione compresa la regolazione dell'intelligenza artificiale.
Il 25º anniversario della proclamazione della Carta, celebrato nel 2025 con iniziative dedicate e con una rinnovata attenzione alla sua applicazione coincide, non casualmente con l'entrata in vigore dell'AI Act e con l'adozione della legge italiana 132/2025. Proprio nel momento in cui l'Unione e gli Stati membri si dotano di una disciplina organica sull'IA, lo statuto costituzionale europeo dei diritti fondamentali torna al centro del dibattito politico e giuridico.
2. Dal cittadino alla "persona algoritmica"
Le costituzioni del secondo dopoguerra e la Carta dei diritti fondamentali dell'Unione europea hanno articolato la soggettività giuridica attorno a due figure, la persona e il cittadino. La prima è titolare dei diritti inviolabili; il secondo, di uno status che lo lega a una comunità politica e gli attribuisce diritti e doveri specifici. L'evoluzione del diritto dell'Unione ha affiancato allo status nazionale quello di cittadino europeo, con diritti di circolazione, soggiorno e partecipazione politica che travalicano i confini dello Stato.
Su questa architettura si è innestata negli ultimi decenni la rivoluzione digitale. L'informatica, e poi l'IA, non si limitano a fornire nuovi strumenti ai poteri pubblici e privati ma cambiano la forma sotto cui la persona appare al potere. Accanto al cittadino in carne e ossa si affaccia una figura ulteriore, che possiamo chiamare "persona algoritmica" un soggetto ricostruito attraverso tracce digitali, profili di comportamento, correlazioni statistiche, punteggi di rischio o di affidabilità.
Dal punto di vista giuridico, questa figura trova un primo riconoscimento nel GDPR, la definizione ampia di dato personale, la disciplina della profilazione e delle decisioni interamente automatizzate (articolo 22), i diritti di accesso e di informazione, i principi di correttezza e trasparenza sono risposte ancora imperfette, ma significative alla tendenza a trasformare l'individuo in un fascio di informazioni trattate da sistemi automatici.
Nella pratica, la distanza tra persona e persona algoritmica si amplia. L'accesso al credito dipende sempre più da sistemi di scoring; la selezione del personale passa per software che filtrano curricula e profili; l'attenzione delle forze dell'ordine è orientata da modelli predittivi costruiti su grandi banche dati; in ambito sociale, l'erogazione di prestazioni può essere condizionata da classificazioni automatizzate. In alcuni ordinamenti si sperimentano forme di punteggio sociale più o meno pervasivo. Tutto ciò non sostituisce formalmente lo status civitatis, ma lo affianca e lo condiziona, due cittadini eguali sulla carta possono trovarsi, nei fatti in posizioni molto diverse perché diversi sono i loro profili algoritmici.
Questa trasformazione della soggettività giuridica pone interrogativi fondamentali che il costituzionalismo europeo non può eludere. E, sul piano dei principi impone una precisazione, la persona algoritmica può essere una figura utile alla governance e all'analisi dei rischi, ma non può sostituire la soggettività costituzionale né l'imputazione personale di diritti e responsabilità.
3. L'IA come questione di diritti fondamentali
Se assumiamo questa chiave di lettura, l'IA smette di essere un capitolo tecnico da affidare agli ingegneri o un mero problema di privacy. Diventa una questione di potere e di garanzie lungo assi che il costituzionalismo europeo conosce molto bene.
Sul terreno della cittadinanza e dell'appartenenza, i sistemi informativi europei relativi a frontiere, visti, asilo e sicurezza interna sono sempre più integrati e suscettibili di essere analizzati da strumenti di IA. Le amministrazioni sperimentano algoritmi per individuare il rischio di frodi, classificare domande di prestazioni, determinare priorità nei controlli. In astratto, tutto questo può migliorare l'efficienza, in concreto, può produrre nuove forme di discriminazione indiretta, soprattutto nei confronti di stranieri, minoranze e soggetti vulnerabili. L'eguaglianza formale davanti alla legge rischia di essere incrinata da una diseguaglianza sostanziale di fronte agli algoritmi.
La giurisprudenza amministrativa ha già affrontato, in altri contesti questioni che oggi parlano la lingua dell'algoritmo. Quando l'amministrazione si autovincola a criteri predeterminati di valutazione, deve applicarli in modo coerente e motivato, punteggi incoerenti rispetto ai parametri dichiarati non possono essere semplicemente compensati da elementi residuali o discrezionali. La valutazione deve essere logicamente congrua e adeguatamente motivata, proprio perché sindacabile dal giudice. Questi principi nati in una selezione analogica acquistano un rilievo particolare nell'era dell'IA, dove la trasparenza dei meccanismi decisionali, anche quando mediati da algoritmi, diventa condizione essenziale per il controllo giurisdizionale.
Sul terreno del corpo, della vita e della salute, l'IA entra anche nella medicina e nella bioetica attraverso sistemi di supporto alle decisioni cliniche, analisi automatizzata di immagini diagnostiche, triage algoritmico e medicina personalizzata. Le potenzialità in termini di cura sono enormi, ma interrogativi altrettanto grandi emergono sul piano del diritto alla salute, dell'autodeterminazione del paziente, delle scelte di allocazione delle risorse sanitarie. In un ordinamento in cui il dibattito su aborto, procreazione medicalmente assistita, trattamenti di fine vita ha già messo alla prova l'interpretazione degli articoli 2, 3 e 32 Cost., l'ingresso massiccio di sistemi di IA in sanità non è un semplice problema di efficienza organizzativa.
Sul terreno della democrazia e dello spazio pubblico l'IA incide sul modo in cui si forma l'opinione e si svolge la competizione politica. Gli algoritmi di raccomandazione filtrano le notizie, i sistemi generativi rendono sempre più plausibile la creazione di contenuti sintetici (deepfake) e il micro-targeting consente di indirizzare messaggi politici diversificati a gruppi ristrettissimi di elettori. La libertà di informazione, il pluralismo, l'eguaglianza dei cittadini nel processo elettorale, la stessa integrità delle consultazioni diventano parametri fragili.
Su tutti questi assi agiscono i grandi poteri privati algoritmici, fornitori di modelli di base, infrastrutture cloud che concentrano quote crescenti di potere. Il problema dell'efficacia orizzontale dei diritti fondamentali si ripropone oggi nei confronti di soggetti privati che pur non essendo Stati, incidono profondamente sulla vita delle persone.
4. La risposta europea: GDPR, Carta e AI Act
Di fronte a queste sfide, l'ordinamento europeo ha reagito costruendo un quadro normativo articolato. Il rapporto tra IA e diritti fondamentali si colloca all'interno di un sistema già strutturato, costituzioni nazionali, Carta dei diritti fondamentali dell'Unione europea, CEDU, GDPR, Digital Services Act, Digital Markets Act.
Il GDPR ha segnato un primo salto di qualità. Ha trasformato il diritto alla protezione dei dati personali sancito dall'articolo 8 della Carta dei diritti fondamentali dell'Unione europea in un sistema di principi (liceità, correttezza, trasparenza, minimizzazione, limitazione della finalità) e di diritti soggettivi immediatamente azionabili, imponendo ai titolari un dovere di accountability. Particolarmente rilevanti, per l'IA sono l'articolo 22 che riconosce il diritto a non essere sottoposti a decisioni basate unicamente su un trattamento automatizzato che produca effetti giuridici o incida in modo analogo significativamente sulla persona, e l'articolo 35 che impone valutazioni d'impatto sulla protezione dei dati nei casi in cui il trattamento presenti un rischio elevato per i diritti e le libertà delle persone fisiche.
Su questa base si innesta l'AI Act, il Regolamento (UE) 2024/1689 che stabilisce regole armonizzate sull'intelligenza artificiale. Il regolamento si richiama espressamente alla dignità umana, ai diritti fondamentali e ai valori dell'Unione e dichiara l'obiettivo di promuovere un'IA antropocentrica e affidabile, garantendo al tempo stesso un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali.
L'AI Act è entrato in vigore il 1° agosto 2024, con una applicazione graduale scandita nel tempo. La chiave di volta è l'approccio basato sul rischio. Il regolamento distingue tra pratiche vietate, sistemi ad alto rischio, sistemi soggetti a obblighi di trasparenza e applicazioni a rischio minimo. Per i sistemi ad alto rischio quelli utilizzati, tra l'altro nell'istruzione, nel lavoro, nella concessione del credito, nell'accesso a servizi essenziali, nella sanità e nella gestione delle infrastrutture critiche sono previsti requisiti stringenti.
Il regolamento si applica anche a soggetti extra-UE quando i sistemi o i loro output sono impiegati nell'Unione. L'AI Act ha dunque una vocazione chiaramente extraterritoriale e replica il Brussels effect già sperimentato con il GDPR utilizzando la forza del mercato interno europeo per fissare standard che tendono a divenire parametri globali.
Il rischio, tuttavia è quello di una progressiva proceduralizzazione dei diritti fondamentali, dignità, non discriminazione, libertà di espressione, protezione dei dati che diventano criteri che orientano valutazioni d'impatto, audit interni ed esterni, sistemi di gestione del rischio. DPIA, audit e sistemi di gestione del rischio sono strumenti di conformità, non sostituiscono il controllo giurisdizionale né esauriscono la tutela sostanziale dei diritti. La sfida è evitare che i diritti si riducano a oggetti di certificazione, affidati a tecnici e organismi di conformità e mantenere uno spazio effettivo per il giudice e per l'interpretazione evolutiva delle Carte.
5. La risposta italiana: la legge 132/2025 e la centralità della persona
Dopo il passaggio dal piano dei dati GDPR a quello dei sistemi AI Act, il legislatore italiano radica tali scelte nel tessuto costituzionale con la legge 132/2025.
Nel contesto italiano l'AI Act viene assunto e sviluppato con la legge 23 settembre 2025, n. 132 che reca "disposizioni e deleghe al Governo in materia di intelligenza artificiale". Fin dall'articolo 1, la legge dichiara di voler promuovere un utilizzo "corretto, trasparente e responsabile, in una dimensione antropocentrica" dell'IA, vigilando sui rischi economici e sociali e sull'impatto sui diritti fondamentali. Le sue disposizioni devono essere interpretate e applicate in conformità al Regolamento (UE) 2024/1689.
L'articolo 3 elenca i principi generali che devono informare ricerca, sviluppo, adozione e utilizzo di sistemi e modelli di IA, rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell'Unione e degli obblighi internazionali come trasparenza, proporzionalità, sicurezza, protezione dei dati personali e riservatezza, accuratezza, non discriminazione, parità dei sessi, sostenibilità. I sistemi devono essere sviluppati su dati e processi corretti, sicuri, di qualità e trasparenti, inoltre devono rispettare l'autonomia e il potere decisionale dell'uomo, la prevenzione del danno, la conoscibilità, la spiegabilità, assicurando sempre sorveglianza e intervento umano.
La legge sottolinea inoltre che l'utilizzo dell'IA non deve pregiudicare lo svolgimento democratico della vita politica e istituzionale, né la libertà del dibattito democratico da interferenze illecite, tutelando gli interessi della sovranità dello Stato e i diritti fondamentali dei cittadini riconosciuti dagli ordinamenti nazionale ed europeo. La cybersicurezza è qualificata come precondizione essenziale lungo tutto il ciclo di vita dei sistemi, secondo un approccio proporzionato e basato sul rischio, e viene garantito alle persone con disabilità il pieno accesso ai sistemi di IA, in conformità con la Convenzione ONU del 2006.
Accanto ai principi, la legge interviene con disposizioni settoriali che rendono concreta la scelta antropocentrica.
Nel contesto della sanità, l'IA è pensata come strumento di supporto alle decisioni degli esercenti le professioni sanitarie, non come sostituto, i pazienti devono essere informati sull'uso delle tecnologie, l'accesso alle prestazioni non può essere selezionato in modo discriminatorio e la responsabilità professionale resta in capo all'umano.
Nel lavoro, l'IA deve essere utilizzata per migliorare le condizioni lavorative e tutelare l'integrità psicofisica del lavoratore, la legge impone obblighi di informazione trasparente sui sistemi che incidono su gestione, valutazione o selezione del personale e richiede percorsi di alfabetizzazione per datori di lavoro e dipendenti. L'articolo 11 prevede che "il datore di lavoro o il committente è tenuto a informare il lavoratore dell'utilizzo dell'intelligenza artificiale" nei casi e con le modalità stabilite dalla normativa sul rapporto di lavoro, segnalando così che l'incidenza dell'IA sullo status del lavoratore non può avvenire nell'ombra.
Per la pubblica amministrazione, l'articolo 14 stabilisce che l'utilizzo dell'intelligenza artificiale avviene "in funzione strumentale e di supporto all'attività provvedimentale, nel rispetto dell'autonomia e del potere decisionale della persona che resta l'unica responsabile dei provvedimenti". Questo principio si coordina con gli obblighi di motivazione di cui alla legge 7 agosto 1990, n. 241, e con il d.lgs. 31 marzo 2023, n. 36, che in materia di contratti pubblici richiamano la conoscibilità e comprensibilità dei meccanismi decisionali e il divieto di affidare esclusivamente all'algoritmo la decisione finale. Trasparenza degli strumenti, possibilità di controllo umano e motivazione restano dunque anche requisiti di legittimità degli atti amministrativi.
Per le professioni intellettuali, l'IA è ammessa come strumento ausiliario, ma il rapporto fiduciario con il cliente resta fondato sulla responsabilità personale del professionista, che deve informare il cliente sull'uso di sistemi automatizzati.
In ambito giudiziario, il legislatore delinea un modello di giurisdizione assistita particolarmente significativo. L'articolo 15 della legge 132/2025 stabilisce che, nei casi di impiego dei sistemi di intelligenza artificiale nell'attività giudiziaria, "è sempre riservata al magistrato ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti". La riserva al giudice su interpretazione, valutazione dei fatti e adozione dei provvedimenti non è derogabile, l'IA assiste l'organizzazione e la ricerca ma non il nucleo valutativo. I sistemi di IA possono essere utilizzati per l'organizzazione dei servizi, la gestione del fascicolo, la ricerca giurisprudenziale, la redazione di parti standardizzate dei provvedimenti, ma il centro della decisione resta saldamente umano, come espressione della sovranità democratica.
La legge contiene inoltre una delega ampia al Governo in materia penale, con criteri direttivi che prevedono l'introduzione di nuove fattispecie per la realizzazione e l'impiego illecito di sistemi di IA, strumenti per inibire e rimuovere contenuti generati illecitamente (come i deepfake), aggravanti per i reati commessi mediante IA e una disciplina della responsabilità delle persone fisiche e degli enti che tenga conto del livello effettivo di controllo sui sistemi.
Sul fronte del diritto d'autore, infine la legge interviene sulla L. 22 aprile 1941, n. 633, chiarendo che la protezione permane legata all'apporto creativo umano, anche quando l'opera è realizzata con l'ausilio di strumenti di IA e disciplinando per la prima volta in modo organico il text and data mining (TDM) per l'addestramento dei modelli, nel tentativo di bilanciare sviluppo tecnologico e diritti degli autori. La scelta netta è che l'IA è strumento ma non autore.
Nel complesso, la legge 132/2025 non si limita a recepire tecnicamente l'AI Act, ma tenta di radicare la regolazione dell'IA nel tessuto della Costituzione italiana attraverso il personalismo, eguaglianza sostanziale, tutela del lavoro, diritto alla salute, sovranità democratica, responsabilità dei poteri pubblici e privati.
6. Una conclusione aperta (ma non neutrale)
L'itinerario che va dal diritto naturale all'AI Act e alla legge italiana del 2025 non è lineare, ma ha un filo conduttore riconoscibile, la convinzione che la persona, con la sua dignità, non possa essere ridotta a semplice variabile di un calcolo. L'IA rende questo rischio molto concreto, perché consente una gestione degli individui attraverso profili, correlazioni e punteggi che spesso sfuggono alla loro comprensione e al loro controllo.
Il diritto costituzionale, europeo, nazionale reagisce riaffermando la centralità della persona, introducendo requisiti tecnici, imponendo obblighi di trasparenza, creando autorità e procedure di controllo. Ma resta aperta una domanda cruciale, queste architetture normative saranno sufficienti a contenere gli squilibri di potere che l'IA può generare, o rischiano di trasformarsi in gusci formali, mentre le vere scelte vengono spostate su chi progetta e controlla i sistemi"
In questo quadro comincia a delinearsi, in chiave descrittiva una nuova dimensione di status algoritmico della persona la posizione giuridica del soggetto così come filtrata, classificata e talvolta condizionata da sistemi di intelligenza artificiale. Sarà questo uno dei terreni su cui si misurerà, nei prossimi anni, la capacità del costituzionalismo multilivello di trasformare i profili digitali in oggetti di diritto e non in meri esiti tecnici, e che merita un'analisi specifica nei successivi contributi.
Per il costituzionalismo, la posta in gioco è alta. Si tratta di verificare se principi come dignità, eguaglianza, cittadinanza, partecipazione democratica, diritto alla salute, tutela del lavoro sono ancora in grado di orientare le trasformazioni tecnologiche, o se verranno progressivamente adattati alle esigenze dell'innovazione fino a perdere incisività.
La sfida del costituzionalismo europeo sarà, in definitiva, mantenere viva la promessa dei diritti nell'epoca degli algoritmi, evitando che la persona venga ridotta a semplice oggetto di calcolo e che la figura del cittadino sia sostituita da quella, ben più fragile, della persona profilata.
Dott.ssa Svetlana Bounegru, dottore di ricerca in State Theory and Comparative Political Institutions (Università "La Sapienza" di Roma), è ricercatore in Giurisprudenza presso il Dipartimento di Diritto pubblico dell'Università di Stato della Moldavia e consulente tecnico d'ufficio del Tribunale ordinario di Roma. Tra le sue pubblicazioni, le monografie Lo status giuridico del cittadino italiano ed europeo e Diritto alla vita versus diritto all'aborto (Pacini Giuridica).
Fonti normative essenziali
Costituzione della Repubblica italiana.
Carta dei diritti fondamentali dell'Unione europea, GU C 202 del 7 giugno 2016.
Dottrina e contributi
[1] F. Donati, La protezione dei diritti fondamentali nel Regolamento sull'intelligenza artificiale, in «Rivista AIC», 2025.
[2] G. Sartor, Artificial Intelligence and Fundamental Rights, in «European Journal of Legal Studies», 2023.
[3] E. Cirone, L'AI Act e l'obiettivo (mancato") di promuovere uno standard globale per la tutela dei diritti fondamentali, in «Quaderni AISDUE», fasc. spec. n. 2/2024, La nuova disciplina UE sull'intelligenza artificiale.
[4] G. Finocchiaro, L'intelligenza artificiale nell'ambito giudiziario, in «Rivista Trimestrale di Diritto e Procedura Civile», 2, 2024, 425 - 447.
Data: 29/12/2025 07:00:00
Autore: Svetlana Bounegru