L’attuazione dell’art. 50 AI Act: trasparenza, etichettatura dei contenuti artificiali e ruolo del codice di condotta europeo
Introduzione
Il 4 settembre 2025, la Commissione Europea ha avviato una consultazione pubblica sulla predisposizione di linee guida e di un codice di condotta per l’attuazione dell’articolo 50 dell’AI Act, il Regolamento europeo sull’intelligenza artificiale.
L’obiettivo è garantire la trasparenza dei contenuti generati o manipolati dall’IA, con particolare attenzione ai deepfake, ai sistemi di riconoscimento delle emozioni e alla categorizzazione biometrica.
Per professionisti, imprese e istituzioni, si tratta di un tema di enorme rilevanza pratica e giuridica. In tale contesto, lo Studio Legale Bonanni Saraceno, grazie alla sua esperienza nel diritto dell’innovazione e della responsabilità civile, è in grado di offrire un’analisi e un supporto qualificato nella gestione delle sfide poste dal nuovo quadro regolatorio.
Gli obblighi di trasparenza previsti dall’art. 50 AI Act
L’articolo 50 AI Act introduce obblighi specifici per fornitori e utilizzatori di sistemi di intelligenza artificiale, volti a garantire che le persone possano riconoscere l’origine artificiale di contenuti e interazioni.
In particolare:
- IA interattiva: l’utente deve essere informato che sta dialogando con una macchina, salvo che ciò sia evidente a una persona ragionevolmente attenta.
- Contenuti sintetici: i materiali generati artificialmente devono essere etichettati con marcatori leggibili automaticamente.
- Riconoscimento delle emozioni e categorizzazione biometrica: è necessario informare i soggetti coinvolti del trattamento.
- Deepfake e testi informativi: quando riguardano temi di interesse generale, occorre dichiararne esplicitamente la natura artificiale, con poche eccezioni ammesse.
Tali obblighi diventeranno operativi a partire dal 2 agosto 2026, rendendo fondamentale un’attività di compliance preventiva.
La consultazione pubblica e il percorso europeo
La consultazione lanciata dalla Commissione è aperta dal 4 settembre al 2 ottobre 2025 e mira a raccogliere contributi da fornitori di IA, enti pubblici, organizzazioni della società civile, accademici, governi e cittadini.
Il codice di condotta che ne deriverà sarà redatto entro l’estate 2026 sotto la guida dell’AI Office, con la collaborazione di esperti indipendenti e di due gruppi di lavoro tematici.
Lo scopo è fornire agli operatori strumenti pratici per dimostrare la conformità agli obblighi normativi, riducendo i rischi di impersonificazione, inganno e manipolazione informativa.
Le criticità applicative: un terreno di confronto giuridico
Nonostante la portata innovativa, l’attuazione dell’art. 50 AI Act solleva questioni problematiche:
- Affidabilità delle etichettature: la resistenza a manipolazioni o rimozioni è essenziale per la reale efficacia del sistema.
- Overload informativo: troppi avvisi rischiano di ridurre l’attenzione degli utenti e svuotare di significato gli obblighi di trasparenza.
- Equilibrio tra innovazione e regolazione: la normativa dovrà garantire tutele senza ostacolare l’evoluzione tecnologica.
Conclusioni
La consultazione pubblica sull’art. 50 AI Act rappresenta un passaggio fondamentale per definire regole chiare in materia di trasparenza e etichettatura dei contenuti generati dall’intelligenza artificiale.
Se da un lato il codice di condotta costituirà uno strumento prezioso, dall’altro restano aperte criticità giuridiche e tecniche che richiedono analisi approfondite e soluzioni operative.
In questa prospettiva, lo Studio Legale Bonanni Saraceno si conferma un interlocutore autorevole per chi desideri affrontare le nuove sfide regolatorie poste dall’IA, con un approccio che coniuga rigore scientifico e concretezza applicativa.
*****************
Art. 50 IA Act – EU integrale:
Capo IV
Obblighi di trasparenza per i fornitori e i deployer di determinati sistemi
di IA
Articolo 50
Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA
Testo in vigore dal 1 agosto 2024
1. I fornitori garantiscono che i sistemi di IA destinati a interagire direttamente con le persone fisiche sono progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare o perseguire reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato.
2. I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente. I fornitori garantiscono che le loro soluzioni tecniche siano efficaci, interoperabili,
solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell’arte generalmente riconosciuto, come eventualmente indicato nelle pertinenti norme tecniche. Tale obbligo non si applica se i sistemi di IA svolgono una funzione di assistenza per l’editing standard o non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica, o se autorizzati dalla legge ad accertare, prevenire, indagare o perseguire reati.
3. I deployer di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema e trattano i dati personali in conformità dei regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE) 2016/680, a seconda dei casi. Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica e il riconoscimento delle emozioni autorizzati dalla legge per accertare, prevenire o indagare reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi e conformemente al diritto dell’Unione.
4. I deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un «deep fake» rendono noto che il contenuto è stato generato o manipolato artificialmente. Tale obbligo non si applica se l’uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati. Qualora il contenuto faccia parte di un’analoga opera o di
un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all’obbligo di rivelare l’esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l’esposizione o il godimento dell’opera. I deployer di un sistema di IA che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico rendono noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se l’uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati o se il contenuto generato dall’IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o
giuridica detiene la responsabilità editoriale della pubblicazione del contenuto.
5. Le informazioni di cui ai paragrafi da 1 a 4 sono fornite alle persone fisiche interessate in maniera chiara e distinguibile al più tardi al momento della prima interazione o esposizione. Le informazioni devono essere conformi ai requisiti di accessibilità applicabili.
6. I paragrafi da 1 a 4 lasciano impregiudicati i requisiti e gli obblighi di cui al capo III, così come gli altri obblighi di trasparenza stabiliti dal diritto dell’Unione o nazionale per i deployer dei sistemi di IA.
7. L’ufficio per l’IA incoraggia e agevola l’elaborazione di codici di buone pratiche a livello dell’Unione per facilitare l’efficace attuazione degli obblighi relativi alla rilevazione e all’etichettatura dei contenuti generati o manipolati artificialmente. La Commissione può adottare atti di esecuzione per approvare tali codici di buone pratiche secondo la procedura di cui all’articolo 56, paragrafo 6. Se ritiene che il codice non sia adeguato, la Commissione può adottare un atto di esecuzione che specifichi norme comuni per l’attuazione di tali obblighi secondo la procedura d’esame di cui all’articolo 98, paragrafo 2.
A cura dell’avv. Fabrizio Valerio Bonanni Saraceno