17.6 C
Firenze
sabato 28 Marzo 2026
Segnala a Zazoom - Blog Directory
spot_img

L’Europarlamento frena sull’intelligenza artificiale (e mette al bando i deepfake sessuali) 

L’Unione europea interviene ancora sull’intelligenza artificiale, ma questa volta lo fa rallentando. Non una retromarcia, piuttosto un riassetto delle scadenze e delle priorità in un quadro normativo che, nella sua versione originaria, aveva imposto tempi stretti e un perimetro applicativo destinato a incidere in modo immediato su settori chiave dell’economia digitale. Il voto dell’Europarlamento delinea una fase di assestamento: rinvio mirato delle regole più complesse, introduzione di nuove date certe e, contestualmente, l’inserimento di divieti più espliciti su usi considerati ad alto impatto sociale.

La scelta politica si muove su un crinale preciso. Da un lato la necessità di evitare che l’AI Act si traduca in un fattore di frizione per imprese e filiere industriali europee; dall’altro la pressione crescente su alcuni ambiti sensibili, in cui l’uso dell’intelligenza artificiale ha già prodotto effetti concreti, in particolare nella manipolazione delle immagini e nella diffusione di contenuti sintetici. Il risultato è un testo che introduce maggiore prevedibilità sul piano temporale e al tempo stesso irrigidisce il perimetro delle pratiche vietate.

L’AI Act tra rinvio e certezza giuridica

La modifica approvata in plenaria si inserisce nel cosiddetto “digital omnibus” proposto dalla Commissione europea nel novembre 2025, con l’obiettivo di semplificare l’impianto normativo digitale dell’Unione. Il cuore dell’intervento riguarda la tempistica di applicazione delle disposizioni più onerose dell’AI Act, in particolare quelle relative ai sistemi classificati come “ad alto rischio”.

Il Parlamento ha introdotto date precise, superando la scansione temporale più generica prevista in precedenza. Per i sistemi ad alto rischio elencati direttamente nel regolamento – che includono tecnologie biometriche, applicazioni per infrastrutture critiche, istruzione, occupazione, servizi essenziali, forze dell’ordine, giustizia e gestione delle frontiere – l’entrata in vigore degli obblighi è fissata al 2 dicembre 2027. Una seconda scadenza, al 2 agosto 2028, riguarda invece i sistemi coperti da legislazioni settoriali europee già esistenti in materia di sicurezza dei prodotti e sorveglianza del mercato, come dispositivi medici, apparecchiature radio o giocattoli.

Il rinvio risponde a una criticità emersa nel confronto con operatori e autorità nazionali: l’assenza, allo stato attuale, di standard tecnici armonizzati e linee guida operative sufficientemente dettagliate per consentire un’applicazione uniforme delle norme. Senza questi strumenti, c’è il rischio, da un lato, di un’applicazione disomogenea tra Stati membri, e, dall’altro, di un carico amministrativo difficilmente sostenibile per le imprese, soprattutto nei settori più regolati.

Accanto allo slittamento delle scadenze, il Parlamento ha introdotto un principio di maggiore coordinamento con le normative settoriali. Nei casi in cui un prodotto sia già disciplinato da regolamenti europei specifici in materia di sicurezza, gli obblighi previsti dall’AI Act potranno essere applicati in forma meno stringente, evitando duplicazioni e sovrapposizioni. Si tratta di un passaggio rilevante per comparti industriali complessi, dove la stratificazione normativa rappresenta da tempo un elemento di criticità.

Il pacchetto interviene anche su un altro punto operativo: l’obbligo di etichettatura dei contenuti generati dall’intelligenza artificiale. I fornitori avranno tempo fino al 2 novembre 2026 per adeguarsi alle regole sul watermarking di audio, immagini, video e testi prodotti o manipolati da sistemi Ai, con l’obiettivo di rendere riconoscibile l’origine artificiale dei contenuti. Il tema della tracciabilità si colloca al centro delle preoccupazioni istituzionali, in un contesto segnato dalla diffusione crescente di contenuti sintetici difficilmente distinguibili da quelli autentici.

Nel complesso, la revisione dell’AI Act evidenzia una tensione tra ambizione regolatoria e sostenibilità applicativa. Il Parlamento ha scelto di intervenire sul fattore tempo, trasformandolo in uno strumento di stabilizzazione del quadro normativo. Le nuove date rappresentano un tentativo di offrire alle imprese una prospettiva più prevedibile, riducendo l’incertezza che aveva accompagnato le prime fasi di attuazione del regolamento.

Divieto dei “nudifier” e stretta sui deepfake

Se sul fronte delle tempistiche prevale un approccio dilazionato, sul terreno dei contenuti il Parlamento introduce un elemento di discontinuità più marcato. Tra gli emendamenti approvati figura il divieto esplicito dei sistemi di intelligenza artificiale definiti “nudifier”, cioè applicazioni in grado di creare o manipolare immagini a contenuto sessuale raffiguranti persone reali senza il loro consenso.

La norma interviene su una tipologia di strumenti che negli ultimi anni ha registrato una diffusione significativa, alimentata dalla disponibilità di modelli generativi sempre più accessibili e dalla circolazione virale dei contenuti sulle piattaforme digitali: partendo da immagini reali, spesso prelevate dai social network, questi sistemi producono versioni alterate che simulano nudità o atti sessuali, attribuendoli a individui identificabili.

Il Parlamento propone di includere tali sistemi tra le pratiche vietate dall’AI Act, collocandoli nello stesso perimetro delle applicazioni considerate incompatibili con i diritti fondamentali. Il divieto non è assoluto in senso tecnico: viene infatti prevista un’eccezione per i sistemi dotati di misure di sicurezza efficaci in grado di impedire la generazione di immagini non consensuali. Tuttavia, l’onere della prova ricade sui fornitori, chiamati a dimostrare l’effettività di tali salvaguardie.

L’intervento si inserisce in un contesto più ampio di attenzione europea verso i deepfake e la manipolazione dei contenuti digitali. Negli ultimi anni, istituzioni come la Commissione europea e organismi internazionali hanno segnalato l’impatto di queste tecnologie su diversi ambiti: dalla disinformazione politica alla tutela della reputazione individuale, fino alla sicurezza informatica. In particolare, i deepfake a contenuto sessuale rappresentano una delle applicazioni più controverse, con implicazioni dirette sulla dignità delle persone e sulla protezione dei dati personali.

Il divieto dei “nudifier” assume quindi una valenza specifica: non si limita a richiedere trasparenza o etichettatura, ma interviene a monte, vietando lo sviluppo e l’uso di determinate funzionalità. Si tratta di un approccio già adottato in altre parti dell’AI Act, dove alcune categorie di sistemi – come quelli di social scoring o di identificazione biometrica in tempo reale in spazi pubblici (con eccezioni limitate) – sono state escluse per principio.

Parallelamente, il Parlamento ha introdotto disposizioni che ampliano la possibilità per i fornitori di trattare dati personali al fine di individuare e correggere bias nei sistemi di intelligenza artificiale. La misura è accompagnata da condizioni stringenti: il trattamento deve essere limitato a quanto strettamente necessario e deve rispettare le garanzie previste dal quadro europeo sulla protezione dei dati, in particolare il Regolamento generale sulla protezione dei dati (GDPR).

Un ulteriore intervento riguarda il perimetro delle imprese chiamate a confrontarsi con gli obblighi del regolamento. Il Parlamento ha sostenuto l’estensione delle misure di supporto previste per le piccole e medie imprese anche alle cosiddette small mid-cap enterprises (SMC), aziende che hanno superato la soglia dimensionale delle PMI ma non dispongono ancora della struttura organizzativa e finanziaria delle grandi piattaforme tecnologiche. La modifica incide direttamente sull’applicazione dell’AI Act, che per i sistemi ad alto rischio introduce requisiti onerosi in termini di conformità, gestione dei dati e controllo dei modelli. L’obiettivo è evitare una discontinuità nel passaggio di scala: senza strumenti di accompagnamento, le imprese in fase di crescita rischiano di trovarsi esposte agli stessi obblighi delle grandi aziende senza disporre delle risorse necessarie per sostenerli. In questo senso, la misura si inserisce nella più ampia strategia europea di tenuta industriale nel settore dell’intelligenza artificiale, dove il rispetto delle regole è destinato a incidere in modo diretto sulla capacità di sviluppo e commercializzazione delle tecnologie.

Il quadro che emerge dalla revisione dell’AI Act combina dunque interventi di natura diversa: da un lato la dilazione delle scadenze per consentire un adeguamento graduale; dall’altro l’introduzione di divieti puntuali su applicazioni ritenute incompatibili con gli standard europei. Il voto in plenaria rappresenta una tappa intermedia: il testo dovrà ora essere negoziato con il Consiglio dell’Unione europea, in un confronto destinato a ridefinire ulteriormente l’equilibrio tra innovazione, mercato e tutela dei diritti.

Casa Europa

content.lab@adnkronos.com (Redazione)

© Riproduzione riservata

spot_img

Notizie correlate

Firenze
poche nuvole
17.6 ° C
18.4 °
15.4 °
34 %
4.1kmh
20 %
Sab
16 °
Dom
16 °
Lun
18 °
Mar
15 °
Mer
14 °

Ultimi articoli

SEGUICI SUI SOCIAL

VIDEO NEWS

Video news