La Spagna sarà uno dei primi Paesi dell’Unione Europea ad allinearsi al regolamento europeo sull’Intelligenza Artificiale, noto come AI Act, e già entrato in vigore per alcuni divieti. Tra gli obblighi imposti in Spagna dal governo ci sarà anche quello di etichettare come prodotti dall’IA i contenuti creati con sistemi di generazione basati su modelli di Intelligenza Artificiale. Una scelta che però potrebbe essere criticata dalla Commissione Europea, perché lo ha già fatto nei confronti dell'Italia.
Spagna, etichette IA e sandbox per valutare i sistemi IA prima di metterli in commercio
Il governo spagnolo ha dunque approvato un disegno di legge per regolamentare l’uso dell’IA, allineandosi al regolamento europeo già in vigore. L’obiettivo principale è garantire un utilizzo dell’IA etico, sicuro e benefico per le persone, vietando le pratiche più dannose e imponendo rigorosi obblighi di trasparenza ai sistemi considerati ad alto rischio.
La normativa introduce restrizioni precise per evitare gli abusi della tecnologia. Tra le pratiche vietate - e che ovviamente richiamano la normativa dell’AI Act - vi sono l’uso di tecniche subliminali per manipolare le decisioni delle persone, lo sfruttamento delle vulnerabilità legate all’età o alla condizione socioeconomica e la categorizzazione biometrica basata su razza, religione, opinioni politiche o orientamento sessuale. Inoltre, il disegno di legge vieta la valutazione del rischio di reati basata su dati personali e l’inferenza delle emozioni in ambito lavorativo o scolastico per decidere promozioni o licenziamenti.
Le sanzioni previste per le violazioni della normativa sono significative: possono arrivare fino a 35 milioni di euro o al 7% del fatturato globale annuo dell’azienda responsabile.
Come detto, un altro punto chiave riguarda l’obbligo di etichettare chiaramente i contenuti generati con IA, come i deepfake, per evitare la diffusione di informazioni fuorvianti o manipolate.
Un aspetto innovativo della normativa è la creazione di ambienti di test controllati, detti sandbox, per consentire lo sviluppo e la sperimentazione di nuovi sistemi di IA prima della loro commercializzazione. Questa misura anticipa l’obbligo europeo che entrerà in vigore nel 2026.
L’implementazione della legge sarà supervisionata da diverse autorità in base al settore di applicazione: l’Agenzia Spagnola di Protezione dei Dati controllerà i sistemi biometrici, mentre il Consiglio Generale del Potere Giudiziario si occuperà dell’IA applicata alla giustizia. Nasce anche la nuova Agenzia Spagnola per la Supervisione dell’Intelligenza Artificiale (AESIA), la quale avrà il compito di vigilare sull’applicazione delle regole generali, assicurando che l’IA sia utilizzata in modo responsabile e trasparente.
I tempi dell'AI Act
In generale, e per dare un ordine temporale all’estensione dell’AI Act negli Stati membri dell’Unione, ricordiamo che dal 2 febbraio 2025 sono già entrati in vigore le disposizioni relative all'alfabetizzazione sull'IA e agli usi proibiti dell'IA.
L’AI Act europeo entra nel vivo: sono effettivi i primi divieti nell’utilizzo delle IA
A partire dal 2 agosto 2025, le regole riguardanti l'IA di uso generale diventeranno effettive. Gli Stati membri dell'UE hanno tempo fino a questa data per stabilire i propri regimi nazionali di applicazione, con le prime azioni di enforcement previste nella seconda metà del 2025.
Infine, dopo un anno, dal 2 agosto 2026 l'AI Act sarà pienamente applicabile in tutti gli Stati membri dell'UE.
L'Italia ha già il suo disegno di legge, ma la Commissione le ha criticato anche l'etichettatura IA
L’allineamento italiano all’AI Act è iniziato con il disegno di legge n. 1146 di aprile 2024, con cui sono state proposte l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN) come autorità che avranno il compito di far rispettare la normativa.
In particolare, l’AgID sarà responsabile della promozione, definizione delle procedure e della notifica per la conformità dei sistemi di IA; mentre l’ACN avrà il compito di vigilanza, comprese le attività ispettive e sanzionatorie, in materia di IA.
Tuttavia, già a novembre dello scorso anno, la Commissione Europea ha espresso la necessità di allineare maggiormente il disegno di legge italiano all'AI Act per evitare una frammentazione normativa. Le preoccupazioni riguardano soprattutto la coerenza delle definizioni e dei riferimenti utilizzati, nonché il rischio di creare un doppio regime normativo. In sostanza, l’autorità ha consigliato all’Italia di adottare le definizioni dell’AI Act piuttosto che replicarle a livello nazionale, per evitare divergenze interpretative.
Inoltre, la Commissione ha evidenziato che l’applicazione dell’AI Act italiano impone restrizioni aggiuntive rispetto a quelle previste dalla norma europea, rischiando di introdurre duplicazioni di obblighi e sanzioni.
Ce n’è anche per la creazione di etichette IA che il governo italiano impone nel suo ddl per la generazione di questo tipo di contenuti, alla stregua di quanto fatto ieri dalla Spagna. E la Commissione ha criticato anche questo approccio.
Il caos dell'etichettura sui contenuti IA
Il governo italiano ha scritto nel suo ddl questo: “Qualunque contenuto informativo diffuso da fornitori di servizi audiovisivi e radiofonici tramite qualsiasi piattaforma in qualsiasi modalità, incluso il video on demand e lo streaming, che, previa acquisizione del consenso dei titolari dei diritti, sia stato, attraverso l'utilizzo di sistemi di intelligenza artificiale, completamente generato ovvero, anche parzialmente, modificato o alterato in modo tale da presentare come reali dati, fatti e informazioni che non lo sono, deve essere reso, a cura dell'autore o del titolare dei diritti di sfruttamento economico, se diverso dall'autore, chiaramente visibile e riconoscibile da parte degli utenti mediante inserimento di un elemento o segno identificativo, anche in filigrana o marcatura incorporata purché chiaramente visibile e riconoscibile, con l'acronimo “IA” ovvero, nel caso di contenuti audio, attraverso annunci audio ovvero con tecnologie adatte a consentire il riconoscimento. Tale identificazione deve essere presente sia all'inizio della trasmissione e all'inizio del contenuto, sia alla fine della trasmissione e alla fine del contenuto, nonché ad ogni ripresa del programma a seguito di interruzione pubblicitaria. L'inserimento del segno identificativo è escluso quando il contenuto fa parte di un'opera o di un programma manifestamente creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le libertà dei terzi”
La Commissione ha respinto questa modalità, spiegando che si sovrappone e va oltre gli obblighi dell’art 50, paragrafi 2 e 4, dell’AI Act.
Ma se si va a prendere l’art. 50 dell’AI Act, si capisce chiaramente che tocca ai creatori di contenuti IA rendere noto che gli stessi sono stati generati dall’Intelligenza Artificiale.
In che modo? L’AI Act non lo spiega, è generico.
Sostanzialmente, la legge europea dice che ogni creatore può usare un suo sistema per notificare che un determinato contenuto è stato generato dall’IA. Soluzione che, almeno a nostro parere, creerebbe molto più caos rispetto a etichette uniche e immediatamente riconoscibili dai cittadini italiani.
Nell’AI Act però viene anche detto che “l'Ufficio (europeo, ndr) per l'IA incoraggia e agevola l'elaborazione di codici di buone pratiche a livello dell'Unione per facilitare l'efficace attuazione degli obblighi relativi alla rilevazione e all'etichettatura dei contenuti generati o manipolati artificialmente. La Commissione può adottare atti di esecuzione per approvare tali codici di buone pratiche secondo la procedura di cui all'articolo 56, paragrafo 6”.
Continuando in questa discesa burocratica tra articoli, e raggiungendo il 56, paragrafo 6, si impara che “l'ufficio per l'IA e il comitato monitorano e valutano periodicamente il conseguimento degli obiettivi dei codici di buone pratiche da parte dei partecipanti e il loro contributo alla corretta applicazione del presente regolamento. L'ufficio per l'IA e il comitato valutano se i codici di buone pratiche contemplano gli obblighi di cui agli articoli 53 e 55, 4e monitorano e valutano periodicamente il conseguimento dei loro obiettivi. Essi pubblicano la loro valutazione riguardante l'adeguatezza dei codici di buone pratiche.”
In pratica, dato che gli articoli 53, 55 e 4e non parlano di etichettatura, l’AI Act sta sostanzialmente dicendo che i creatori di contenuti IA devono rendere nota la provenienza artificiale degli stessi, con etichette e sistemi che saranno monitorati e valutati dall’Ufficio IA.
Tradotto: dato che i singoli Stati non possono creare etichette personalizzate per questi scopi, avremo centinaia di etichettature dai diversi fornitori che, anche se saranno valutate, nel frattempo creeranno confusione non dovendo seguire linee guida pratiche e uniformi in tutta l’UE, come invece avviene per esempio con le etichettature energetiche che permettono a chiunque di capire a che classe di risparmio appartiene un frigorifero.
0 Commenti