Loader

AI Act: la nuova normativa europea sull’Intelligenza Artificiale

Cos’è l’AI Act?

L’AI Act è la prima normativa europea che regola l’uso dell’Intelligenza Artificiale in Europa. Introdotta con l’obiettivo di assicurare un uso etico e responsabile della tecnologia, la legge mira a garantire la sicurezza, la trasparenza e il rispetto dei diritti umani, evitando abusi che possano influenzare la sfera privata o le libertà personali.

Questa normativa si applica alle aziende e ai privati che utilizzano sistemi di AI per finalità commerciali o professionali, garantendo un controllo più rigido sugli usi più invasivi e rischiosi della tecnologia. L’obiettivo è creare un quadro normativo chiaro che tuteli l’innovazione, ma imponga anche limiti su specifici utilizzi.

Cos’è l’Intelligenza Artificiale secondo l’AI Act?

L’AI Act definisce l’Intelligenza Artificiale come la capacità di una macchina di apprendere, ragionare e pianificare in modo autonomo, replicando competenze umane. La normativa classifica i sistemi di AI in base a una valutazione del rischio, che determina la misura dei controlli da attuare per limitarne un uso non sicuro.

La valutazione del rischio

Uno dei principi cardine dell’AI Act è l’approccio basato sul rischio. I sistemi di AI vengono suddivisi in quattro categorie:

  1. Rischio inaccettabile: comprende sistemi che contraddicono i valori e i principi fondamentali dell’UE, come la manipolazione comportamentale cognitiva e l’identificazione biometrica in tempo reale. Questi sistemi sono vietati in Europa
  2. Rischio alto: include sistemi utilizzati in settori cruciali, come la giustizia e la pubblica sicurezza. Questi sistemi devono rispettare standard di trasparenza, essere sottoposti a valutazioni del rischio e garantire il controllo della qualità
  3. Rischio limitato: questi sistemi sono soggetti a requisiti di trasparenza; devono quindi informare chiaramente gli utenti sull’interazione con un’Intelligenza Artificiale, come nel caso dei chatbot
  4. Rischio minimo: copre le applicazioni di AI per scopi di intrattenimento, come videogiochi e filtri fotografici, che non rappresentano un rischio per i diritti delle persone

AI Act: la valutazione del rischio

Chi deve rispettare l’AI Act?

L’AI Act si rivolge principalmente a tre figure:

  • Provider: chi sviluppa e mette in commercio sistemi di AI. I provider devono documentare tutte le fasi di sviluppo, monitorare continuamente i rischi e informare chiaramente sugli scopi e funzionamenti
  • Deployer: chi utilizza i sistemi di AI per scopi professionali. Anche i deployer hanno l’obbligo di usare i sistemi in modo consapevole, garantendo trasparenza e sicurezza
  • Utenti finali: hanno la responsabilità di utilizzare i sistemi di AI in modo corretto e cosciente, evitando di affidarsi ciecamente a questi strumenti, specialmente nei casi di intelligenza artificiale generativa

Obblighi di trasparenza e documentazione per i produttori e utilizzatori dell’AI

I sistemi di AI devono necessariamente:

  • Rivelare se il contenuto è generato ex novo o se si tratta della rielaborazione di un testo preesistente
  • Progettare il modello in modo da impedire la generazione di contenuti illegali
  • Pubblicare un report dei dati specificando il materiale impiegato per l’addestramento dell’AI, in ossequio alla disciplina sul diritto d’autore

L’obbligo di trasparenza è un altro pilastro dell’AI Act: ogni sistema di AI deve essere corredato di documenti che descrivano in modo chiaro i rischi associati e le funzionalità principali, e che siano facilmente consultabili dagli utenti.
Questo principio è particolarmente rilevante in sistemi come ChatGPT, che deve dichiarare apertamente quando i suoi output sono generati da un’AI, con l’obiettivo di evitare fraintendimenti e fornire una corretta informazione.

Violazioni e sanzioni: cosa rischiano le aziende?

L’AI Act prevede sanzioni molto elevate per chi non rispetta le normative, ad esempio:

  • Avvertimenti o diffide da parte delle autorità nazionali competenti, con la possibilità di adottare misure correttive
  • Fino a 35 milioni di euro o al 7% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente per le violazioni relative alle pratiche vietate o alla non conformità ai requisiti sui dati
  • Fino a 15 milioni di euro o al 3% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente per la mancata osservanza di uno qualsiasi degli altri requisiti o obblighi del regolamento
  • Fino a 7,5 milioni di euro o all’1,5% del fatturato mondiale annuo totale dell’esercizio precedente per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta

Le aziende che utilizzano questi sistemi devono quindi rispettare rigorosamente le regole, a pena di pesanti conseguenze finanziarie e legali.

I rischi dell’AI per la privacy: attenzione ai dati personali!

L’utilizzo di dati personali per addestrare sistemi di Intelligenza Artificiale comporta rischi elevati per la privacy. Spesso, le informazioni raccolte vengono utilizzate senza che gli utenti ne siano consapevoli, violando i principi di trasparenza previsti dal GDPR.
Pratiche come il web scraping, ovvero la raccolta massiva di dati tramite bot, sono vietate se non rispettano le basi giuridiche.
È essenziale che le aziende garantiscano la conformità normativa, adottando tecniche come l’anonimizzazione per proteggere i dati sensibili. Trasparenza e sicurezza non sono solo obblighi, ma strumenti fondamentali per costruire fiducia nell’uso dell’intelligenza artificiale!

L’Intelligenza Artificiale e il futuro della normativa europea

L’AI Act è solo l’inizio di una regolamentazione che, con l’evolversi della tecnologia, richiederà probabilmente continui adattamenti. Il regolamento europeo vuole rappresentare una guida etica e legale che, ponendo il rispetto dei diritti umani e della privacy al centro, possa fare da modello per altre legislazioni nel mondo. Con questo approccio basato sul rischio e la trasparenza, l’Europa si pone come leader nella gestione responsabile dell’Intelligenza Artificiale, garantendo allo stesso tempo innovazione e sicurezza.

Con l’avvento di questa normativa, l’Europa dimostra un’attenzione particolare per la protezione dei cittadini, bilanciando le enormi potenzialità dell’intelligenza artificiale con la salvaguardia della dignità e dei diritti fondamentali delle persone.

Vuoi saperne di più? Guarda il video completo in cui l’Avvocato Manuela Soccol, DPO di Internetimage, ha fornito una panoramica sulle normative europee che regolano l’uso dell’AI in azienda, spiegando come adeguarsi alle nuove leggi sulla base dell’AI Act!

Guarda il video

Vuoi ricevere altri contenuti simili?

Ricordati di iscriverti al canale YouTube o cliccare sul pulsante che trovi qui sotto per ricevere i video #Evolve e le ultime novità in campo #digital e #web direttamente nella tua mail!

HAI BISOGNO DI INFORMAZIONI?

Richiesta informazioni (Popup)

"*" indica i campi obbligatori

Altri eventi

Microsoft 365 Copilot in Excel

Crea grafici e tabelle in modo automatico su Excel Gestire dati in Excel può diventare complesso e richiedere molto tempo,...

Microsoft 365 Copilot in One Note

Scopri come generare automaticamente i tuoi appunti! Ti capita spesso di perdere tempo nella scrittura manuale degli appunti o organizzare...

Indice