Web Mail

Supporto

AI Literacy: perché l’Unione Europea ci chiede di imparare l’Intelligenza Artificiale

AI Literacy: perché l’Unione Europea ci chiede di imparare l’Intelligenza Artificiale

Introdotta in Europa per favorire un utilizzo responsabile ed etico della tecnologia, l’AI Act punta a garantire trasparenza, sicurezza e rispetto dei diritti ed evitare tutte quelle forme di abuso che possono ledere la sfera privata e/o le libertà professionali.

Questo regolamento deve essere visto come una sorta di guida etica (e legale) da rispettare per garantire un uso responsabile dei sistemi di AI.

Consapevoli che la normativa subirà adattamenti in base all’evolversi della tecnologia stessa, in questo articolo cercheremo di rispondere alle domande più frequenti fornendo una panoramica completa sui requisiti e gli obblighi delle aziende e su cosa rischiano in caso di violazioni.

La definizione di intelligenza artificiale secondo l’AI Act

L’AI Act descrive l’intelligenza artificiale come la capacità di una macchina di apprendere, ragionare e pianificare autonomamente, simulando le competenze di un essere umano.
I sistemi di intelligenza artificiale vengono per questo classificati sulla base della valutazione del rischio che definisce, a sua volta, tutte le misure ed i controlli che devono essere eseguiti prima di parlare di un uso non sicuro.

Come viene effettuata la valutazione del rischio

L’approccio di valutazione basata sul rischio introdotto dalla normativa individua quattro differenti livelli:

  1. rischio inaccettabile, quando il sistema non rispetta i valori ed i principi fondamentali dell’UE (ad esempio l’identificazione biometrica) e per questo è vietato in Europa;
  2. rischio alto, solitamente associato ai sistemi di AI utilizzati in settori considerati cruciali come quello della pubblica sicurezza. Tali sistemi devono rispettare alti standard di trasparenza;
  3. rischio limitato, riguarda i sistemi di AI soggetti a requisiti di trasparenza in quanto utilizzati per informare gli utenti circa l’interazione con l’intelligenza artificiale (ad esempio i chatbot);
  4. rischio minimo, riguarda i sistemi di AI impiegati per intrattenere e che non minacciano i diritti degli utenti (ad esempio i videogiochi).

 

Quali sono le aziende che devono rispettare le disposizioni dell’ AI Act?

Come anticipato, sono interessate dalla normativa tutte quelle organizzazioni che usano, sviluppano o implementano sistemi di intelligenza artificiale nel territorio europeo (a prescindere dal luogo dove è situata la sede legale).

NB: anche le aziende extra europee che operano mediante AI in UE devono rispettare la normativa.

Per quanto i profili professionali interessati:

  • deployer: coloro che usano i sistemi di AI per motivi professionali; devono farlo in modo consapevole, garantendo sicurezza e trasparenza;
  • provider: coloro che sviluppano e introducono nel mercato i sistemi AI. A questo gruppo la normativa richiede una documentazione dettagliata delle fasi di sviluppo del sistema, il monitoraggio costante dei rischi e un’informazione adeguata del suo funzionamento e dei suoi obiettivi;
  • utilizzatore finale: sono tenuti ad utilizzare i sistemi di AI in modo responsabile ovvero non dando per scontato che quanto prodotto sia corretto (questo si riferisce nello specifico agli strumenti di intelligenza artificiale generativa).

 

Quali sono i requisiti di alfabetizzazione in materia di AI (AI Literacy)?

I principali requisiti imposti dal regolamento riguardanti il personale aziendale sono i seguenti:

  1. alfabetizzazione del personale aziendale: l’acquisizione di competenze e conoscenze che permettono di implementare i sistemi di AI in modo consapevole, comprendendone le opportunità, i rischi e i possibili danni che tali possono causare;
  2. soggetti obbligati: coloro sui quali ricade l’obbligo di garantire un livello sufficiente di alfabetizzazione, ovvero provider e deployer;
  3. criteri di personalizzazione delle misure di alfabetizzazione del personale: non devono essere uguali per tutti ma tenere conto delle conoscenze tecniche, dell’istruzione e dell’esperienza. Anche il contesto di utilizzo dei sistemi di AI e il loro potenziale impatto sul singolo (o sui gruppi) sono parametri da considerare;
  4. contenuti minimi della formazione: al momento non sono stati definiti degli standard da rispettare. In generale, il programma deve coprire almeno tre ambiti: definizione di AI, funzionamento, capacità e limiti dei sistemi;
  5. requisiti per i sistemi considerati ad alto rischio: i deployer hanno l’obbligo di garantire che le persone incaricate della supervisione umana e dell’esecuzione delle istruzioni d’uso possiedano:
    • un livello adeguato di alfabetizzazione AI;
    • una formazione appropriata;
    • l’autorità necessaria per adempiere ai propri compiti.
  6. implementazione e monitoraggio dei sistemi di AI: ogni azienda deve strutturare un programma che tenga conto:
    • assessment delle esigenze: identificazione dei ruoli (tecnici, legali, operativi, strategici) e dei relativi gap formativi;
    • formazione proporzionata: differenziata in base ai poteri decisionali e al livello di interazione con l’AI;
    • monitoraggio e rivalutazione: verifica periodica delle competenze realmente acquisite tramite test o quiz e aggiornamento del piano in base all’evoluzione tecnologica.
  7. sanzioni: non sono previste relativamente alla mancanza di alfabetizzazione. Tuttavia l’articolo 99 della normativa stabilisce che il livello di alfabetizzazione rappresenta una misura importante per valutare il grado di responsabilità e il pagamento di eventuali sanzioni previste per altre violazioni.

 

Gli obblighi di trasparenza e sicurezza dei sistemi di IA

Per essere in regola, i sistemi di intelligenza artificiale devono rispettare tre requisiti fondamentali:

  • trasparenza dei contenuti: dichiarare esplicitamente se un contenuto è stato creato da zero dall’algoritmo o se è il risultato della modifica di un testo già esistente;
  • sicurezza nativa: essere progettati e costruiti in modo da bloccare automaticamente la creazione di contenuti illegali;
  • rispetto del copyright: pubblicare un elenco dettagliato dei dati e dei materiali usati per “addestrare” il modello, così da tutelare i diritti d’autore.

Il pilastro della trasparenza

L’AI Act pone la chiarezza al centro di tutto: ogni software di IA deve essere accompagnato da una documentazione comprensibile che ne spieghi il funzionamento e i potenziali rischi, rendendo queste informazioni accessibili a chiunque lo utilizzi.

Un esempio concreto è ChatGPT: il sistema ha l’obbligo di segnalare chiaramente quando una risposta è generata dall’intelligenza artificiale. Questo serve a evitare malintesi e a garantire che gli utenti ricevano un’informazione corretta e consapevole.

Sistemi AI e Privacy

L’uso di dati personali per addestrare i sistemi di intelligenza artificiale introduce rischi legati alla privacy, soprattutto perché molte volte le informazioni raccolte sono sfruttate senza un reale consenso da parte degli utenti.

Per non violare i principi di trasparenza previsti dal GDPR è necessario che l’azienda adotti misure mirate, ad esempio quella di rendere anonimi i dati sensibili raccolti.
In assenza di sicurezza e trasparenza non è possibile creare fiducia nei confronti dell’uso dei sistemi AI.

 

Quali sono le sanzioni per le aziende che non rispettano l’AI Act?

Oltre ad avvertimenti e diffide da parte delle autorità competenti a livello nazionale, le sanzioni previste sono le seguenti:

  • fino a 7.5 milioni di euro (o 1.5% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente): fornitura, a seguito di una richiesta specifica da parte degli organismi notificati e delle autorità nazionali competenti, di informazioni errate/incomplete/fuorvianti;
  • fino a 15 milioni di euro (o 3% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente): mancata osservanza di uno qualsiasi dei requisiti o degli obblighi imposti dal regolamento;
  • fino a 35 milioni di euro (o 7% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente): violazione di eventuali pratiche vietate o non conformità ai requisiti definiti a livello di dati.

 

Vuoi scoprire di più sui servizi offerti da Hi-Net per migliorare la tua presenza online? Richiedi un incontro con i nostri consulenti: compila il form!

Rimani aggiornato sulle novità del digitale

iscriviti alla newsletter

    Voglio ricevere aggiornamenti su:

    Soluzioni Informatiche per aziendeNovità di MarketingAdeguamenti e opportunità Siti Web

    Ho letto e compreso l'informativa privacy e do il consenso al trattamento dei dati (*)