Dal 2 agosto 2025 iniziano ad applicarsi davvero alcune parti importanti dell’AI Act, la legge europea sull’intelligenza artificiale. È una delle normative più ambiziose mai scritte su questo tema, ed è anche la prima al mondo. Ma c’è un problema: nessuno, nemmeno chi ci lavora ogni giorno, sa bene come mettersi in regola.
A voler essere onesti, sembra una commedia. Ma di quelle dove non si ride.
Il regolamento parla di “GPAI”, cioè sistemi di intelligenza artificiale ad uso generale, come quelli che generano testi, immagini, consigli, valutazioni e così via. Sono modelli come GPT, Claude, Mistral… ma la definizione è così larga che dentro ci può finire anche il modellino sviluppato da una piccola startup in provincia.
Il risultato? Il rischio che le piccole imprese debbano rispettare le stesse regole pensate per i colossi dell’IA. Con l’aggravante che le regole non sono chiare, e quindi anche volendo rispettarle… non si sa bene da dove iniziare.
A febbraio sono entrate in vigore le prime due norme, ma dal 2 agosto arriva il pezzo grosso: nuove regole per chi sviluppa o usa questi GPAI. Il problema è che non ci sono ancora linee guida operative, mancano strumenti concreti per capire cosa si deve fare, come si misura il rischio, chi controlla e con quali criteri.
E allora succede che più di 40 grandi aziende europee — tipo Carrefour, Lufthansa, Airbus — scrivano alla Commissione Europea chiedendo una cosa semplice: rinviate tutto di almeno due anni, perché così com’è, la legge è inapplicabile. Non per cattiva volontà, ma perché è troppo confusa.
Se non ce la fanno i grandi, figuriamoci le PMI.
Chi sviluppa intelligenza artificiale oggi ha paura di sbagliare senza volerlo, di ritrovarsi fuori legge per aver interpretato male un comma, e di prendersi multe pesantissime o dover bloccare progetti già avviati. E allora c’è chi pensa di smettere.
Non perché non vuole innovare, ma perché è troppo rischioso farlo senza sapere se si è in regola.
Il rischio è che ogni Paese Ue applichi le regole in modo diverso: l’Italia in un modo, la Francia in un altro, la Germania in un altro ancora. Un caos.
E allora, davvero, viene da pensare a una frase pirandelliana:
“Io sono la regola che mi si crede”.
Cioè: non esiste una verità oggettiva su cosa sia giusto fare, ma solo ciò che sembra giusto a chi interpreta la norma in quel momento.
Ora: proteggere i cittadini, la privacy e la trasparenza è giusto. Ma serve una legge che possa essere applicata davvero, non solo scritta bene. Una legge che dica con chiarezza cosa si può fare, cosa no, e come si dimostra di essere in regola.
Altrimenti diventa un ostacolo, non una guida.
E se davvero vogliamo che l’Europa resti protagonista nell’IA e non solo spettatrice, servono regole chiare, semplici e uguali per tutti. Soprattutto serve il coraggio di dire che un rinvio fatto bene non è una sconfitta, ma una scelta di buon senso.
Perché oggi il vero pericolo non è l’intelligenza artificiale che scappa di mano.
È la burocrazia che blocca chi vuole costruirla bene.