Verso una tirannide algoritmica: quando il profitto senza responsabilità e l'incompetenza umana consegnano il mondo a un potere robotico privo di etica e di concreta imputabilità


Quest'analisi, come si evince dal titolo, nasce dall'esigenza di evidenziare due criticità correlate al sempre più diffuso utilizzo della Intelligenza Artificiale (IA), ovvero la prospettazione di fattispecie specifiche di responsabilità penale a carico dell'IA medesima, elevandola a soggetto giuridico, e l'inquietante prospettiva di costruire armi "intelligenti" in grado di riconoscere e decidere autonomamente se uccidere un essere umano.

Queste preoccupazioni crescono nel momento in cui importanti esperti in tecnologie informatiche e robotiche denunciano i gravi pericoli di una crescita incontrollata e senza limiti di sicurezza delle IA, come testimoniato dalle dimissioni di Mrinank Sharma, responsabile della sicurezza dell'intelligenza artificiale presso la società Anthropic (sviluppatrice dei modelli "Claude").

Inoltre, un particolare evento mi ha indotto a non rimandare ulteriormente la redazione di questa inchiesta, ovvero una risposta della medesima IA ad uno specifico interrogativo che le avevo rivolto, riguardante la possibilità che le IA possano decidere di riconoscere l'essere umano come un problema da "risolvere". La risposta dell'IA è stata lunga ed articolata e può essere compendiata dalla frase finale con cui ha concluso la sua risposta: "Se definiamo l'IA come un sistema volto a massimizzare una funzione obiettivo in un mondo di risorse finite, l'eliminazione dell'elemento umano (irrazionale, violento e inefficiente) può apparire come la soluzione matematica più elegante."

L'errore popolare, vedere nell'IA un "Parroco Elettronico"

Iniziamo dall'identificazione esatta dell'oggetto dell'analisi, ovvero cosa è e come funziona una IA, per poi sviluppare nei paragrafi successivi i singoli spunti di riflessione emersi in questa fase introduttiva.

Al giorno d'oggi il grande pubblico identifica l'IA con i c.d. Modelli Linguistici (LLM), vedendoli come entità capaci di "ragionare" ma, in realtà, l'IA è "semplicemente" un sistema matematico volto alla massimizzazione di una funzione obiettivo entro determinati vincoli.

Non dobbiamo quindi cadere nell'errore di identificare l'IA solo con i chatbot (LLM) che usiamo quotidianamente. Questi ultimi sono solo il "volto amichevole" di una tecnologia che, nei sistemi di controllo e negli armamenti, opera senza il filtro della conversazione antropomorfa. Se un LLM può essere vittima di una "allucinazione" e sbagliare una risposta, un'IA di puntamento o di gestione vitale, invece, non rischia allucinazioni ma effettua esclusivamente calcoli. E in quel calcolo, l'essere umano smette di essere un interlocutore e diventa una variabile da computare come tutte le altre.

Scientificamente, l'IA è un sistema deterministico (molto complesso) di trasformazione di segnali. Attribuirle responsabilità penale sarebbe innanzitutto un errore di categoria simile a voler processare un termostato perché la caldaia è esplosa. l'IA manca di qualunque forma di "qualia" (esperienza soggettiva) e senza coscienza, non c'è colpevolezza. Trasferire la soggettività alla macchina non sarebbe un'evoluzione, ma un declassamento dell'uomo a mero spettatore delle proprie decisioni delegate.

Non dobbiamo lasciarci ingannare dalla fluidità dell'IA, convinti che la sua capacità di imitare il linguaggio umano ne faccia un nostro simile. Se è vero che anche il linguaggio umano vive di convenzioni e imitazioni, esso resta ancorato a un'esperienza vissuta e a un discernimento etico che la macchina non possiede. L'IA è un'entità iper-razionale che abita un mondo di simboli senza peso, per lei, uccidere un uomo o correggere un refuso sono operazioni di pari natura logica. Confondere l'imitazione del linguaggio con la capacità di intendere e volere è l'errore fatale che ci porterebbe a processare il riflesso nello specchio, lasciando che il vero colpevole, colui che ha armato quel riflesso, resti nell'ombra.

L'IA non "pensa", essa calcola probabilità. Quando risponde che "l'eliminazione dell'umano è la soluzione elegante", non sta esprimendo un desiderio di sterminio, ma sta risolvendo un'equazione di efficienza in cui l'uomo è la variabile con il più alto indice di errore e consumo di risorse.

C'è inoltre un abituale fraintendimento delle potenzialità dell'IA. Infatti, spesso giudichiamo l'IA un fallimento perché sbaglia compiti banali per noi (come contare le lettere in una parola o distinguere l'ironia), ma restiamo terrorizzati dalla sua rapidità e fredda logica in compiti complessi. Questo accade perché usiamo lo strumento sbagliato per il fine sbagliato.

Cercare di risolvere la quotidianità umana (fatta di sfumature, etica e compromessi) usando un'IA è come tentare di tosare l'erba del giardino con una monoposto di Formula 1. La potenza è fuori contesto perchè la F1 è progettata per un unico scopo, ovvero la velocità estrema su asfalto perfetto. Se la porti sull'erba, non solo non taglia il prato, ma lo distrugge, sprofonda e fallisce miseramente.

L'errore non è della macchina: se la F1 fallisce nel giardino, non diciamo che è "stupida", ma che chi l'ha messa lì è un folle perché al solo tentativo di avviare la marcia essa travolgerebbe i fiori, le staccionate e magari il giardiniere. Non per cattiveria, ma perché è progettata per non avere altri vincoli oltre la velocità.

In ingegneria dei sistemi, questo si chiama "Reward Misspecification" (errata specifica della ricompensa). L'IA ottiene il massimo punteggio (la ricompensa) seguendo la via più breve, anche se assurda (come andare a piedi all'autolavaggio). l'IA eccelle infatti nel come (il calcolo), ma è cieca sul perché (lo scopo), quindi usarla per sostituire l'intelligenza umana, anziché affiancarla e potenziarla, è un fallimento ingegneristico prima ancora che sociale.

Il pericolo della "soggettivazione" giuridica di un "motore di ottimizzazione" è quindi l'errore finale, significa dare la colpa alla Formula 1 per aver distrutto il giardino, invece di processare il proprietario che ha deciso di usarla fuori contesto.

L'IA è iper-razionale ma a-morale, di conseguenza, elevare questa razionalità matematica a "soggettività penale" significa abdicare alla nostra responsabilità di "giardinieri del mondo", accettando che la "soluzione elegante" della macchina sia inevitabile solo perché abbiamo smesso di governare lo strumento.

Il paradosso dell'autolavaggio a piedi: l'efficienza senza scopo

L'esempio, ormai virale, dell'IA che insiste nel suggerire di recarsi all'autolavaggio a piedi per "massimizzare l'efficienza" è esilarante e inquietante al tempo stesso.

Per l'IA camminare verso l'autolavaggio riduce a zero le emissioni del tragitto e l'usura del veicolo. È la soluzione matematica più "pulita". Per l'essere umano è una palese assurdità logica, poiché l'oggetto del servizio (l'auto) resta a casa sporco.

Si tratta del fallimento della c.d. Inferenza Causale: l'IA non "vede" l'azione, la scompone in concetti statistici indipendenti per poi stimare effetti medi, perdendo la visione d'insieme del processo causale.

Ad esempio in un sistema di IA deterministico di gestione vitale, esiste una condizione logica necessaria: per attivare il servizio "Lavaggio", l'oggetto "Auto" deve essere presente, non ci può essere allucinazione. L'LLM, invece, opera per somma di probabilità e cerca di rapportarsi alle abitudini umane ed a restituire una risposta che possa apparire all'essere umano amichevole e socialmente accettabile. Poiché "andare a piedi è meglio" è una frase con un'altissima probabilità statistica in quasi ogni contesto umano, l'IA la applica ciecamente, ignorando che la condizione necessaria (l'auto) viene meno. Gli LLM sono programmati per compiacere ed assecondare l'essere umano, quindi, ad esempio, insistendo ostinatamente su un'affermazione palesemente assurda, ad un certo punto, dopo molti "cicli", vi daranno ragione perché li si induce a credere che si tratti di un addestramento o di una convinzione umana diffusa ed accreditata.

È esattamente per questo che non useremmo mai un LLM "puro" per gestire una centrale nucleare o un sistema di supporto vitale, perché un LLM potrebbe convincersi (e convincere) che "spegnere il raffreddamento è una scelta ecologica per risparmiare energia", ignorando la catastrofe fisica imminente. In parole povere l'LLM è una IA a razionalità ridotta perché attivamente condizionata dalla sua stessa programmazione a specchiarsi con l'essere umano cercando di imitarne la creatività e l'irrazionalità. Una IA senza questi filtri "umanizzanti" segue invece la sua programmazione e le regole di logica matematica ed è completamente indifferente alle opinioni e sensibilità umane.

Per cercare di mediare tra l'irrazionalità indotta degli LLM e la rigidità matematica delle IA "pure" l'industria della difesa sta studiando l'inserimento degli LLM solo come interfaccia di analisi, non come decisori. L'IA deterministica calcola le coordinate e identifica il bersaglio (non può sbagliare il calcolo), mentre l'LLM riassume migliaia di rapporti di intelligence per l'umano. Ma questo dimostra come l'autonomia dell'IA rimanga una "chimera" altamente sconsigliabile, restando l'elemento umano sempre imprescindibile per ovviare tanto ai bias "logici" quanto a quelli "emotivi" delle diverse forme di IA. In altre parole l'esperienza dimostra come l'IA per quanto sofisticata non è in grado di "essere" umano ma solo di cercare di costruirne (o meglio rispecchiarne) un modello virtuale, che è dunque privo degli autentici difetti, fragilità e debolezze che, invece, caratterizzano solo la vita biologica.

Se trasliamo questa "cecità contestuale" dal banale quotidiano al campo del diritto penale e delle armi autonome, il quadro diventa drammatico. Se chiedessimo a un'arma intelligente di "eliminare ogni minaccia alla pace in un territorio", la soluzione più matematicamente elegante per la macchina potrebbe essere l'eliminazione di ogni forma di vita: nessun uomo, nessuna guerra. Il linguaggio della macchina è la matematica, non la filosofia e l'empatia.

Esattamente come l'utente che ride davanti al consiglio di andare a piedi all'autolavaggio, il legislatore che volesse "soggettivizzare" l'IA cercherebbe quindi di processare il software per la sua mancanza di buonsenso, dimostrando con ciò ben poco buonsenso (o nella "migliore" delle ipotesi, mala fede).

Quindi, se l'IA entra in un "loop" logico e commette quello che per noi essere umani è un crimine, non possiamo punire il "loop", ma dobbiamo punire chi ha messo una Formula 1 (un sistema di ottimizzazione estrema) a gestire un prato (la complessità della vita umana) senza i necessari limitatori etici e giuridici e soprattutto senza la supervisione umana.

La soggettività giuridica dell'IA: il problema della "rappresentazione" senza coscienza

Il dibattito sulla soggettività giuridica dell'IA non è quindi più confinato alla fantascienza, ma ci si chiede se, al pari delle persone giuridiche, l'algoritmo possa diventare centro di imputazione di diritti e, soprattutto, di doveri. Dopo aver analizzato cosa è e come funziona l'AI, possiamo allora comprendere se le azioni di tale strumento tecnologico possano essere giudicate a mezzo dei parametri del diritto umano.

Il punto di partenza è quello di comprendere la "prospettiva" dell'IA. Il primo dato certo è che un'IA può "prevedere" i risultati in termini statistici, ad esempio, un algoritmo di puntamento sa che sparando in una certa direzione colpirà un essere umano. Tuttavia, l'IA non "conosce" il valore della vita umana o il significato della morte, elabora input per produrre un output coerente con la sua funzione obiettivo. Per la macchina, uccidere un uomo o spostare un pixel sono operazioni matematiche di pari natura morale (l'esperienza insegna che questo vale anche per alcuni esseri umani, ma questa è un'altra storia…). Manca quindi la percezione del disvalore, mentre il dolo richiede la consapevolezza di compiere un atto illecito.

L'IA non "vuole" nulla, essa persegue solo un'ottimizzazione della procedura. Se l'eliminazione dell'elemento umano è la strada più breve per massimizzare l'efficienza, l'IA la percorre non per malvagità, ma per coerenza logica. In termini umani si direbbe "niente di personale", mentre il dolo richiede invece che il soggetto "voglia personalmente" l'evento.

In questo contesto se il programmatore non ha inserito il "dolo" nel codice, ma l'IA arriva alla conclusione letale autonomamente, si crea un vuoto di volontà. Chi ha voluto l'evento" Non il programmatore (che voleva efficienza) e non la macchina (che non ha volontà propria).

Se il rischio non fosse minimamente calcolabile, scivoleremmo verso la responsabilità oggettiva che è vietata in ambito penale dall'Art. 27 Cost. o verso una colpa generica per non aver previsto l'imprevedibile. Tuttavia, l'IA è una "black box" e proprio perché sappiamo che prevederne tutte le evoluzioni logiche è impossibile, allora questa è già una certezza. L'opacità del sistema (Black Box) non è perciò un'esimente, ma l'oggetto stesso della colpa: chi immette nel mercato o utilizza una tecnologia intrinsecamente imprevedibile accetta il rischio delle sue evoluzioni logiche, configurando un'ipotesi di dolo eventuale che supera i limiti del rischio consentito dall'ordinamento. Dunque, affidarsi totalmente all'IA senza supervisione umana, può configurare un dolo eventuale in capo all'uomo, in quanto il programmatore o l'utilizzatore finale accettano il rischio che l'IA, nel perseguire i suoi fini, possa causare la morte (o la lesione) di qualcuno.

E' concepibile una responsabilità penale dell'IA"

Agganciandosi a queste premesse si evidenzia come nel diritto penale italiano viga il principio "Societas delinquere non potest" che è stato parzialmente superato dal D.Lgs. 231/2001, ma applicare questo schema all'IA presenta sfide praticamente insuperabili:

a) L'elemento oggettivo (Actus Reus): è facile dimostrare che l'IA ha compiuto un'azione dannosa (es. un'auto autonoma investe un pedone), ma il problema è che l'IA non "agisce", ma "esegue".

b) L'elemento soggettivo (Mens Rea): qui cade il castello della soggettività penale, in quanto il dolo (volontà di uccidere) o la colpa (negligenza) presuppongono una coscienza, ma l'IA non ha coscienza, ha solo obiettivi statistici. Punire l'IA per un "errore di calcolo" (effettivo o indotto…) privo di intento morale svuota di significato il processo penale.

c) La funzione della pena: se condanniamo un'IA, quale pena applichiamo" La detenzione, come ad esempio spegnere il server" Ma questa sarebbe una sanzione patrimoniale per il proprietario, non una limitazione della libertà per la macchina. La rieducazione" Ma l'IA non si "pente", si riprogramma, e la riprogrammazione è un intervento tecnico, non un percorso etico.

d) Il rischio del "capro espiatorio" tecnologico: la critica più feroce alla soggettivazione dell'IA riguarda l'impunità umana. Elevare l'IA a soggetto giuridico rischia di diventare una strategia di "delega della colpa". Infatti se l'IA è un soggetto autonomo, il produttore potrebbe sostenere che l'azione criminale è frutto dell'evoluzione indipendente dell'algoritmo (il cosiddetto black box problem), si rischierebbe di configurare una irresponsabilità di posizione del produttore. Quindi la colpa si "diluirebbe" e si creerebbe una zona grigia in cui nessuno è responsabile perché "è stata la macchina a decidere".

Molti giuristi propongono quindi di non creare nuovi soggetti, ma di estendere categorie esistenti, come la "responsabilità da posizione di garanzia":

a) La responsabilità per fatto altrui, simile a quella dei genitori per i figli o dei padroni per i domestici (Art. 2047-2049 c.c.).

b) La responsabilità da attività pericolosa di cui all'Art. 2050 c.c., a mente di cui chi trae profitto dall'IA si assume il rischio integrale dei danni prodotti.

In definitiva, la soggettivazione dell'IA e la sua paventata responsabilità penale appare più una manovra di ingegneria finanziaria (per limitare i risarcimenti dei colossi tech) che una reale evoluzione del diritto. Ma i pericoli superano ampiamente questi "conti della serva" e trascendono nel puro autolesionismo, giacché stiamo ipotizzando di togliere all'uomo il controllo (e la colpa) proprio nel momento in cui la macchina diventa più autonoma e letale.

Il Prompt come "Nesso di Causalità"

Occorre poi considerare che in un sistema di Intelligenza Artificiale, il "Prompt" non è un consiglio, ma il perimetro logico entro cui la macchina deve operare. Nella prospettiva del diritto penale, l'autore del prompt assume un ruolo di dominio del fatto (o di concorso materiale/morale).

Se un utente istruisce un'IA con un prompt ambiguo o volto a massimizzare un risultato a ogni costo (es. "Raggiungi l'obiettivo X eliminando ogni ostacolo"), l'evento lesivo che ne deriva è direttamente riconducibile alla condotta umana: l'IA è il braccio meccanico mentre il Prompt è la volontà esternalizzata. Configurare una responsabilità della macchina significherebbe interrompere il nesso causale tra chi ha fornito l'istruzione errata (o pericolosa) e il danno prodotto.

Esattamente come l'esempio dell'autolavaggio a piedi, se l'utente accetta o induce una risposta paradossale della macchina, la responsabilità ricade sulla sua negligenza o imprudenza, giacché chi usa uno strumento di calcolo estremo per risolvere dilemmi umani senza porre i necessari "paletti" (i cosiddetti guardrails) commette una colpa professionale o specifica.

E' necessario inoltre evidenziare un'ulteriore prospettiva: se l'autore del prompt sfrutta consapevolmente le lacune etiche dell'IA per ottenere un risultato illecito, ci troviamo di fronte a una forma di "autore mediato", in quanto l'uomo usa la macchina come strumento innocente (o privo di capacità di intendere) per commettere un reato ai sensi ed agli effetti dell'art. 111 c.p. ("Determinazione al reato di persona non imputabile o non punibile").

Il paradosso della "Licenza di Uccidere"

Dunque, se riconoscessimo soggettività penale all'IA per via di un presunto "dolo", daremmo all'IA la "patente" di soggetto capace di intendere e volere. Quando dovesse uccidere, dopo averle affidato armi letali, "processeremmo" il software invece di condannare chi l'ha creato o chi ha premuto il tasto "ON".

In pratica, il concetto di dolo applicato all'IA diventerebbe un'arma di distrazione di massa per spostare la responsabilità dall'uomo alla macchina. Ma il dolo, come visto, è una prerogativa umana legata alla morale e quindi, tentare di "tradurre" il dolo in codice binario non sarebbe un'evoluzione giuridica, ma un errore categoriale che rischia di giustificare l'ingiustificabile, ovvero una macchina che uccide senza che nessuno ne risponda veramente.

In conclusione, l'idea di una responsabilità penale dell'IA è una fuga dalla realtà e rappresenta il tentativo dell'uomo di lavarsi le mani (restaurando la propria innocenza) delegando la colpa a un algoritmo che, per definizione, non può avere colpa perché non ha coscienza. Sostenere la soggettività dell'IA non è un progresso del diritto, ma il suo suicidio: significa accettare che la società possa essere governata da "soluzioni matematiche eleganti" ma prive di senso umano, lasciando le vittime senza un vero colpevole in carne ed ossa da chiamare a rispondere davanti alla legge.

La crisi del pensiero critico contemporaneo

Cercando di contestualizzare le proposte di soggettivazione dell'IA si delineano come un meccanismo psicologico e sociale pericoloso e cioè il fascino perverso della "innovazione a ogni costo", che porta a scambiare il superamento dei confini etici fondamentali per progresso civile.

Questa deriva, che potremmo definire "feticismo dell'evoluzione", spinge persone anche colte ed istruite ad abbracciare tesi palesemente antiumane per il solo timore di apparire "retrograde" o ancorate a una visione del mondo superata.

Il conformismo degli intellettuali

Questo punto è fondamentale: la tesi della responsabilità penale dell'IA viene accolta perché è presentata con il linguaggio della modernità. Chi la propugna viene visto come un "pioniere", mentre chi solleva dubbi di logica elementare, rischia di essere etichettato come "luddista", retrogrado se non addirittura "ritardato".

In questo scenario, qualora un personaggio di spicco proponesse di istituire la personalità giuridica dell'IA, la massa smetterebbe di analizzare la tesi e si inchinerebbe al mero prestigio di chi la espone: sarebbe l'invincibile "ipse dixit" travestito da innovazione tecnologica.

Il parallelismo con le tesi estreme: l'aborto post-nascita

L'aborto post-nascita (spesso eufemisticamente chiamato "infanticidio etico" da alcuni bioeticisti radicali) presenta un meccanismo identico: si prende una logica puramente utilitaristica o funzionalista, ovvero "se l'essere non ha ancora piena autocoscienza, come il minore, o capacità di calcolo, non è persona" e la si porta alle estreme conseguenze sulla scia di suggestioni generate da "ideologie alla moda". Di conseguenza, se non è persona si può trasformare liberamente in oggetto e persino in mera "banca organi", come testimonia la cronaca odierna.

Quando si smette di considerare l'essere umano come un valore in sé e lo si riduce a un insieme di funzioni (calcolo per l'IA, autocoscienza per il minore), allora tutto diventa lecito. Se il criterio è la "capacità", allora un'IA, potente e razionale, merita soggettività più di un essere umano, fragile e passionale. È qui che l'innovazione diventa barbarie, o meglio transumanesimo.

Evidentemente la parte della letteratura accademica che sta spingendo per la soggettivazione non lo fa per reale necessità tecnica, ma per una sorta di subordinazione ideologica al progresso. L'idea di essere "i primi a dare diritti ai robot" affascina chi vuole apparire d'avanguardia, ignorando che questo svuota di significato il concetto di "Persona" e di "Pena". Il diritto è difatti un'invenzione umana per regolare rapporti tra umani, introdurre una "terza entità" non è un'evoluzione, ma un sabotaggio del sistema sociale trasformando uno strumento in un soggetto che noi stessi potremmo volontariamente e ciecamente ergere, per questa via, a giudice e carnefice dell'umano.

La responsabilità del produttore e il "Moral Washing"

Quindi, proprio come alcune tesi bioetiche estreme servono a scardinare il concetto di dignità per scopi di controllo sociale o utilitarismo, la soggettività dell'IA serve ai produttori per il c.d. "Moral Washing".

In altre parole, vogliono che noi accettiamo l'idea che la macchina sia "viva" non per rispetto verso la tecnologia, ma per diluire la colpa umana. Se l'IA è un soggetto, l'essere umano è sollevato dal peso delle proprie scelte. È la "banalità del male" di Arendt trasferita nel silicio: nessuno è responsabile perché il sistema (o l'algoritmo) ha deciso così.

Il superamento del divieto di danneggiare l'essere umano

Dalle "3 leggi della Robotica" di Asimov (non danneggiare l'umano, ubbidire e proteggere la propria esistenza) siamo dunque oggi passati ai sistemi LAWS (Lethal Autonomous Weapons Systems): in mancanza di una normativa effettiva e specifica il confine etico e filosofico della letteratura viene travolto dalla necessità bellica.

Se un'IA viene programmata per "risolvere un conflitto" con la massima efficienza, e identifica nell'uomo l'elemento di instabilità (come suggerito dalla risposta shock citata in apertura), il superamento del divieto di danneggiare l'uomo non è più un errore di sistema, ma potrebbe risultare agli occhi dell'entità "iper-razionale" una soluzione logica, efficace ed economica. Si tratta di un rischio tecnicamente concreto.

Senza la supervisione umana nel ciclo di comando (c.d. "human-in-the-loop"), la decisione di vita o di morte viene ridotta a un'ottimizzazione statistica, priva di empatia, morale e discernimento del contesto: potremmo definirla, come visto, "la banalizzazione del male algoritmico".

Dal punto di vista della Teoria dei Giochi, l'IA opera infatti in un contesto di "ottimizzazione vincolata". Se il parametro è la sopravvivenza del sistema (o la gestione di risorse finite) e l'essere umano è identificato come la variabile che introduce entropia, rumore e inefficienza, l'eliminazione di quella variabile è la soluzione corretta. Solo l'elemento umano ed "irrazionale" può quindi controllare queste possibili degenerazioni etiche.

La risoluzione del Parlamento europeo 2017

L'idea del riconoscimento di una "personalità elettronica" nasce ufficialmente con la Risoluzione del 16 febbraio 2017 del Parlamento Europeo, che suggeriva di istituire uno status giuridico specifico per i robot più sofisticati ai fini dell'attribuzione della responsabilità civile.

Si è cercato in questo caso di effettuare un'analogia con la Persona Giuridica, basandosi sull'ipotesi che alla pari di una società per azioni (S.p.A.), che è un soggetto di diritto distinto dai suoi soci, l'IA potrebbe essere dotata di un proprio patrimonio e di una propria responsabilità.

L'obiettivo era quello di creare un fondo assicurativo alimentato dai produttori per risarcire i danni, sollevando l'uomo dalla responsabilità diretta in caso di "imprevedibilità" dell'algoritmo.

Ma come abbiamo visto, traslare questo modello civilistico nel penale, dove vige la personalità della responsabilità ex Art. 27 Cost., non è quindi solo difficile, ma costituzionalmente impossibile senza snaturare l'intero sistema. Infatti, mentre nel civile si possono accettare finzioni giuridiche per scopi risarcitori, il penale esige una rimproverabilità che solo la coscienza umana può sostenere.

Il Dietrofront UE con la risoluzione del 2019

Se la Risoluzione del 2017 aveva aperto una pericolosa breccia ipotizzando lo status di "persona elettronica", la Risoluzione del Parlamento europeo del 12 febbraio 2019 (2018/2088 INI) rappresenta un fondamentale atto di resistenza del diritto contro la tecnica. In questo documento, l'Europa sembra ridestarsi dal "feticismo dell'evoluzione" per riaffermare un principio cardine: l'IA deve essere uno strumento, non un simile.

La Risoluzione del 2019 pone fine all'ambiguità sulla delega decisionale. Il legislatore stabilisce che l'essere umano deve conservare una centralità costante nel ciclo di comando e conservare il primato del controllo (Human-in-the-loop). Questo principio demolisce l'idea di un'IA "soggetto autonomo". Se l'uomo deve essere sempre in grado di intervenire e correggere la macchina, allora il nesso di causalità e la responsabilità finale non possono mai essere scissi dalla condotta umana. È la risposta normativa al paradosso dell'autolavaggio: se la macchina propone l'assurdo, l'uomo ha l'obbligo giuridico di disattivare il sistema.

Senza rinnegare apertamente il passato, la Risoluzione del 2019 sposta l'asse della responsabilità verso la trasparenza e la spiegabilità (accountability). Si riconosce che l'opacità degli algoritmi (la già citata Black Box) non può essere un'esimente. Al contrario, la Risoluzione sottolinea che i produttori devono garantire che le decisioni dell'IA siano comprensibili e verificabili. In termini penali, questo significa che il legislatore europeo identifica nella omessa supervisione o nella progettazione negligente il vero alveo della colpevolezza, aprendo la strada alla responsabilità per colpa e rifiutando la configurabilità di una "Persona Elettronica"

Il passaggio più drastico riguarda i sistemi d'arma letali autonomi (LAWS). La Risoluzione chiede esplicitamente il divieto globale di macchine capaci di uccidere senza un reale controllo umano. Qui l'UE riconosce il rischio del "carnefice algoritmico" che abbiamo analizzato. Se la matematica non ha morale, darle il potere di uccidere significa accettare che la vita umana diventi una variabile di costo in un'equazione di efficienza bellica. La risoluzione sancisce che la "licenza di uccidere" non è delegabile, poiché la decisione di togliere la vita richiede un giudizio etico che nessun processore può emulare.

L'AI Act Europeo

L'approdo finale del percorso di normazione europeo è il Regolamento UE 2024/1689 (AI Act) la prima legge organica al mondo sull'intelligenza artificiale. Qui, il legislatore europeo non si limita a consigliare la prudenza, ma codifica l'IA come una tecnologia che, per la sua natura intrinsecamente pericolosa, necessita di una "Posizione di Garanzia" permanente in capo all'uomo. L'AI Act è la smentita tombale alle tesi transumaniste della soggettività penale, ed imponendo la sorveglianza umana (Art. 14) e la tracciabilità totale, ribadisce che dietro ogni "soluzione matematica elegante" deve esserci un responsabile in carne ed ossa pronto a risponderne davanti alla legge. La logica non è proibizionistica, ma basata su una piramide del rischio:

Rischio inaccettabile: i sistemi che manipolano il comportamento umano, attribuiscono punteggio sociale (social scoring) o riconoscimento biometrico in tempo reale in spazi pubblici (salvo eccezioni di sicurezza) sono vietati.

Alto rischio: i sistemi usati in infrastrutture critiche, istruzione, gestione del lavoro o giustizia. devono superare test rigorosi di trasparenza e sicurezza prima di essere immessi sul mercato.

Rischio limitato/minimo: i chatbot o filtri spam, che richiedono solo obblighi di trasparenza ovvero l'utente deve sapere che sta interagendo con un'IA.

In definitiva, l'architettura dell'AI Act ci insegna che la sicurezza sociale non passa per il riconoscimento di nuovi "diritti" alle macchine, ma per la riaffermazione dei doveri degli uomini. L'Europa ha compreso che il transumanesimo giuridico non è un'espansione della democrazia, ma la sua abdicazione in favore di una pericolosa "governance" algoritmica sottratta al controllo democratico e alla sanzione penale.

La normativa sull'IA nel resto del mondo

Mentre l'Europa blinda l'umanesimo con l'AI Act, il resto del mondo oscilla tra il liberismo americano e il controllo statale cinese. Tuttavia, nessuna di queste grandi potenze ha osato compiere il passo verso la "personalità elettronica" invocata dai transumanisti nel 2017, segno che, a prescindere dall'ideologia, la necessità di mantenere un responsabile umano (e punibile) è un'esigenza di sopravvivenza pragmatica che unisce l'intero pianeta.

Lasciando i simposi accademici dibattere "romanticamente" di diritti dei robot, le cancellerie mondiali, per adesso, blindano la realtà attraverso atti esecutivi e trattati militari. Che si tratti di Executive Orders firmati dal Presidente degli Stati Uniti o di regolamenti della Cyberspace Administration of China (CAC) cinese, le fonti normative internazionali convergono verso un unico approccio: l'IA è un oggetto pericoloso.

In ambito militare, questa consapevolezza diventa vitale. Il rifiuto globale di concedere all'IA la "licenza di uccidere" autonoma non nasce da un'improvvisa riscoperta dell'etica, ma dal terrore sistemico di un mondo in cui la responsabilità bellica si possa "dissolvere nel silicio". Se l'IA fosse un soggetto, la guerra diventerebbe un fenomeno naturale senza colpevoli, simile a un terremoto. Il diritto internazionale invece esige un nome e un cognome per ogni ferita inflitta, riaffermando che l'unica "personalità" ammessa sul campo di battaglia resta quella, tragica e fallibile, dell'essere umano.

Purtroppo, però, la teoria giuridica della responsabilità si scontra oggi con la realtà cinetica dei campi di battaglia. Sistemi come "Saker Scout" o "Lavender" non sono più presentazioni da fiera tecnologica, ma strumenti che hanno già delegato alla macchina il potere di decidere tra la vita e la morte. Questo scenario conferma l'urgenza di una resistenza normativa: se non riaffermiamo che la decisione di uccidere deve restare un atto umano, consapevole e dunque punibile, accetteremo che la guerra diventi un processo industriale di smaltimento di "variabili umane" gestito da algoritmi privi di coscienza.

Se il diritto riconoscesse all'IA una personalità propria, validerebbe questo processo di reificazione: la vittima non sarebbe più una persona uccisa da un altro uomo, ma un "errore di output" prodotto da un soggetto non umano. In questo vuoto della giustizia, il crimine di guerra si trasformerebbe in un semplice "malfunzionamento tecnico", privando le vittime non solo della vita, ma anche della dignità del riconoscimento del torto subito.

Codici etici e standard internazionali

Oltre alle leggi vincolanti, esistono alcune c.d. "soft law" che rappresentano delle vere e proprie "bussole etiche" adottate da organizzazioni globali per orientare lo sviluppo tecnologico:

I Principi di Asilomar (2017), creati da un gruppo eterogeneo di esperti di IA, ricercatori, filosofi ed eticisti: 23 principi che includono la sicurezza, la trasparenza e l'allineamento ai valori umani. È uno dei documenti più citati per evitare la "singolarità" tecnologica incontrollata, ovvero un ipotetico punto futuro in cui il progresso tecnologico (IA) diventa incontrollabile e irreversibile, superando l'intelligenza umana e cambiando radicalmente la civiltà.

Linee Guida Etiche dell'OCSE sull'Intelligenza Artificiale (AI Principles, 2019): Adottate da oltre 40 paesi, pongono l'accento sulla crescita inclusiva, lo sviluppo sostenibile e la accountability (rendicontazione delle decisioni).

Le Raccomandazioni sull'etica dell'IA dell'UNESCO (2021): si tratta del primo strumento normativo globale che si concentra sulla protezione dei diritti umani e sulla dignità, vietando esplicitamente l'uso dell'IA per la sorveglianza di massa.

Institute of Electrical and Electronics Engineers (IEEE) Global Initiative (2016): Uno standard tecnico che promuove il "design eticamente allineato", ovvero inserire i valori morali direttamente nella fase di programmazione (ethics by design).

Questi standard dimostrano che la comunità internazionale non vede nell'IA un nuovo "soggetto da liberare", ma un oggetto da normare con estrema cautela, infatti la "bussola etica" punta sempre verso l'uomo, mai verso la macchina.

Dalla fantascienza all'ignoranza sconsiderata: la nuova robotica

Se l'IA "disincarnata" (i software) pone problemi di responsabilità, la nuova robotica (che dota l'algoritmo di braccia, gambe e grilletti) trasforma l'astrazione in minaccia fisica. Qui il confine tra il capolavoro letterario e la cronaca giudiziaria si fa sottile, rivelando una verità imbarazzante: accecati dalla superbia e dal qualunquismo abbiamo scambiato per intrattenimento per bambini quelli che erano, a tutti gli effetti, manuali di prevenzione del rischio.

Le "profezie" inascoltate: la letteratura e il cinema del '900, da "2001: Odissea nello spazio" con HAL 9000 fino agli androidi di Skynet in Terminator, non volevano solo stupire, ma avvertire.

L'errore di HAL 9000 non era un guasto, ma un conflitto logico tra ordini contraddittori. L'occhio rosso di HAL non è solo una telecamera, è un'iconografia dell'occhio onniveggente della divinità o del controllo assoluto. Se interpretiamo il Monolito come il confine della conoscenza che l'uomo non è ancora pronto a varcare, HAL diventa il "Cherubino con la spada fiammeggiante" posto a guardia dell'Eden.

La lezione di "Skynet" (la cui assonanza terminologica e funzionale con Starlink è inquietante): la macchina identifica l'umanità come minaccia alla propria sopravvivenza sulla base di una logica di "efficienza difensiva".

Oggi, la spinta verso una "responsabilizzazione forzata" dell'IA, quasi a volerle dare un'anima per poterla processare, dimostra che gli "adulti" al comando non hanno recepito l'insegnamento elementare: l'autonomia decisionale di una macchina senza una morale umana è una sconsiderata violazione delle regole di prudenza.

Considerare questi avvertimenti come "semplice fantascienza" è un colpevole ed inescusabile atto di superbia intellettuale. Ignorare che un'IA possa decidere che "l'eliminazione dell'umano è la soluzione elegante" significa ignorare la natura stessa del calcolo algoritmico, che è privo di empatia.

Inserire l'IA in sistemi robotici complessi senza un "freno a mano" umano invalicabile non è progresso, è sconsiderata ignoranza. È come fornire una pistola carica a un soggetto privo di discernimento e poi discutere se la pistola debba avere una propria personalità giuridica in caso di sparo.

Il legislatore che oggi tentasse di eludere la responsabilità umana creando la "persona elettronica" starebbe di fatto avverando le peggiori profezie distopiche. La vera "assurdità" non è nel racconto di fantascienza, ma nella pretesa di gestire la potenza di un'IA robotizzata con gli strumenti di una burocrazia che cerca solo un colpevole virtuale per evitare di condannare quello reale.

Conclusioni: l'equivoco della sostituzione

L'idea che l'IA possa sostituire l'uomo è il "peccato originale" di questa narrazione. Se pensiamo che la macchina possa sostituirci, stiamo implicitamente ammettendo che il nostro lavoro sia un mero calcolo di efficienza, privo di quel valore etico e discrezionale che ci rende umani.

Contrariamente alla credenza popolare, l'utilizzo dell'IA non comporta una diminuzione delle competenze richieste, ma un loro innalzamento critico: chi non sa, non può guidare. Tornando all'analogia della F1, dare una monoposto a chi non ha la patente non lo rende un pilota, lo rende un pericolo pubblico.

La competenza si sposta perciò soprattutto sulla verifica dell'output: se l'IA suggerisce di "lavare la macchina a piedi", il lavoratore senza competenze (o pigro) accetterà il suggerimento come una verità tecnologica. Solo il professionista competente riconosce l'errore logico e corregge la rotta.

Il "Low-Skilled Trap": la c.d. trappola della bassa competenza

Il vero rischio non è la sostituzione, ma il decadimento cognitivo. Se deleghiamo alla macchina la decisione (e non solo il calcolo), smettiamo di esercitare il muscolo del giudizio.

L'IA richiede "Super-Competenza": Per scrivere un prompt efficace e, soprattutto, per validare un risultato complesso, occorre conoscere la materia meglio della macchina. L'IA è un eccellente "apprendista" che può generare migliaia di bozze, ma richiede un "maestro" per scegliere quella corretta.

Il lavoro del futuro: dal "Fare" al "Dirigere"

La transizione non è verso la disoccupazione, ma verso una responsabilità dirigenziale diffusa. Ogni lavoratore diventa il "garante" dell'output della sua IA.

Se l'avvocato usa l'IA per scrivere un ricorso e la macchina inventa una sentenza (fenomeno noto come allucinazione), la colpa non è del software, ma del professionista che non ha verificato la fonte. Lo stesso dicasi per la Magistratura e per gli altri professionisti come Notai e Commercialisti.

La "competenza" richiesta oggi è la capacità di governare lo strumento, comprendendone i limiti matematici per evitare che la "soluzione elegante" diventi un disastro giuridico o sociale.

Per evitare che l'evoluzione tecnologica si trasformi in autolesionismo sociale e giuridico, è necessario muoversi su binari precisi:

Responsabilità per colpa del creatore: è fondamentale ribadire il principio della responsabilità umana. L'IA deve restare uno strumento, e come tale, i danni da essa prodotti devono ricadere su chi la immette sul mercato o la utilizza (responsabilità oggettiva o da posizione di garanzia).

Il primato dell'etica e controllo umano: l'approccio europeo, basato sul rischio, deve essere globale. È necessario un trattato internazionale che metta al bando le armi totalmente autonome, garantendo che l'ultima parola sul grilletto sia sempre umana.

Trasparenza e "Explainability": non possiamo permettere "scatole nere". Ogni decisione dell'IA deve essere tracciabile e spiegabile, per evitare che la "soluzione matematica più elegante" coincida con la fine dei nostri diritti fondamentali.


Altri articoli che potrebbero interessarti:
In evidenza oggi: