This site is also available in English

Che cos’è l’AI Act dell’UE? Guida alle Regole Europee sull’Intelligenza Artificiale

Article

1/4/2025

9 MIN READ

Ita

L’intelligenza artificiale sta cambiando radicalmente il panorama del business moderno e della vita quotidiana, influenzando ogni aspetto, dalle soluzioni mediche personalizzate ai veicoli autonomi e all’analisi avanzata dei dati. Questa rivoluzione tecnologica offre enormi opportunità di crescita e innovazione a livello globale, spingendo le industrie a ripensare il proprio funzionamento e le strategie competitive. Tuttavia, accanto al suo immenso potenziale, l’IA solleva anche importanti sfide etiche, sociali e normative che richiedono una governance attenta.

In risposta a queste opportunità e sfide, l’Unione Europea ha introdotto l’AI Act, la prima normativa completa dedicata specificamente alla regolamentazione dell’intelligenza artificiale.

Pubblicato ufficialmente il 12 luglio 2024 ed entrato in vigore il 1° agosto 2024, l’AI Act stabilisce obiettivi chiari per la regolamentazione dell’IA.

Secondo l’Articolo 1, il suo obiettivo principale è "migliorare il funzionamento del mercato interno e promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione, e promuovendo l'innovazione"

Questa iniziativa evidenzia l’ambizione dell’Europa di assumere un ruolo guida a livello globale nella creazione di un ecosistema di IA affidabile e incentrato sull’essere umano.

5.jpg

Stato dell’arte dell’IA nell’UE

L’importanza di governare l’intelligenza artificiale diventa ancora più evidente se si considera la sua diffusione capillare. Secondo Eurostat (2024), l’IA sta diventando sempre più una componente fondamentale delle imprese europee, con tecnologie diverse, dall’analisi dei testi e generazione del linguaggio naturale al riconoscimento delle immagini, che vengono integrate in vari settori. Tuttavia, i tassi di adozione variano notevolmente in tutta Europa: Danimarca, Svezia e Belgio mostrano alti livelli di adozione, mentre i paesi dell’Europa orientale risultano significativamente indietro.

Il mercato europeo dell’intelligenza artificiale ha registrato una crescita significativa negli ultimi anni, in particolare nel campo dell’IA Generativa, una tecnologia capace di creare testi, immagini, audio e molto altro. Secondo Statista (2025), la dimensione del mercato dell’IA Generativa in Europa è cresciuta rapidamente, riflettendo la sua crescente adozione in diversi settori. Nel 2020, il mercato europeo dell’IA Generativa era valutato circa 1,71 miliardi di dollari e si prevede che entro il 2030 supererà i 110 miliardi di dollari, dimostrando una traiettoria di crescita impressionante. Questa espansione evidenzia non solo la crescente dipendenza da soluzioni basate sull’IA, ma anche l’urgenza di definire quadri normativi chiari per regolamentare l’uso.

7.jpg

Nonostante questi progressi, l’Europa è storicamente rimasta indietro rispetto a Stati Uniti e Cina in termini di investimenti e adozione dell’intelligenza artificiale. Le imprese europee sono state più lente nell’integrare l’IA nei propri processi aziendali, in parte a causa di preoccupazioni legate alla privacy dei dati, all’incertezza normativa e alla frammentazione dei mercati.

Secondo il recente rapporto McKinsey “Time to Place Our Bets: Europe’s AI Opportunity” (2024), l’Europa è attualmente significativamente indietro rispetto ad altre regioni globali, in particolare il Nord America, per quanto riguarda l’adozione dell’IA, gli investimenti e le infrastrutture. Le aziende europee sono in ritardo rispetto a quelle statunitensi di circa il 45–70% nell’adozione di tecnologie IA, con il 30% delle imprese in Europa che utilizzano l’IA in almeno una funzione aziendale, rispetto al 40% in Nord America. Inoltre, l’Europa occidentale è indietro rispetto agli Stati Uniti del 61–71% per quanto riguarda la spesa esterna in infrastrutture per l’IA, evidenziando un divario significativo negli investimenti.

Sebbene l’Europa possieda punti di forza in nicchie specifiche, come la produzione di apparecchiature per semiconduttori per l’IA, settore in cui detiene una quota di mercato dell’80–90% nella litografia ultravioletta estrema, risulta sotto-rappresentata in molti settori critici dell’intelligenza artificiale. Lo svantaggio relativo dell’Europa è visibile anche nella creazione di modelli di IA: solo 25 dei 101 modelli più rilevanti a livello mondiale provengono dall’Europa, contro i 61 degli Stati Uniti. Inoltre, le startup europee nel settore dell’IA sono significativamente sottofinanziate; ad esempio, a ottobre 2024, la startup francese Mistral AI, la più rilevante nel panorama europeo, ha raccolto solo 1 miliardo di dollari, contro gli 11,3 miliardi raccolti dalla statunitense OpenAI.

Nonostante questi ostacoli, l’intelligenza artificiale rappresenta un’enorme opportunità economica per l’Europa, con il potenziale di aggiungere 575,1 miliardi di dollari al PIL del continente entro il 2030 e aumentare la crescita annuale della produttività del lavoro fino al 3%.


AI Act in profondità

L’Unione Europea (UE) ha introdotto l’AI Act, il primo quadro normativo completo al mondo sull’intelligenza artificiale, con l’obiettivo di stabilire regole chiare per lo sviluppo e l’implementazione dei sistemi di IA. Questa legislazione mira a trovare un equilibrio tra l’incentivazione dell’innovazione e la tutela dei diritti fondamentali, garantendo che i sistemi di IA siano trasparenti, responsabili e allineati ai valori europei.

Man mano che l’IA continua a plasmare l’economia globale, l’approccio normativo dell’Europa giocherà un ruolo chiave nel determinare come imprese, governi e società utilizzeranno queste tecnologie. L’AI Act non è solo una questione di conformità, ma rappresenta la costruzione di una base solida per un’IA affidabile, stabilendo un precedente globale per una governance responsabile dell’intelligenza artificiale.

Riconoscendo l’enorme potenziale dell’IA insieme ai suoi considerevoli rischi, l’AI Act adotta un chiaro approccio basato sul rischio, classificando i sistemi di IA in quattro categorie distinte in base al potenziale danno per gli individui e la società:

1) Rischio inaccettabile

2) Rischio elevato

3) Rischio limitato

4) Rischio minimo


I 4 Livelli di Rischio

6.png

1) Rischio Inaccettabile

L’AI Act definisce esplicitamente la categoria dei “sistemi di IA a rischio inaccettabile” come quelle tecnologie considerate intrinsecamente pericolose a causa del loro potenziale significativo di compromettere i diritti individuali, l’autonomia e i valori della società. Il Capitolo 2 dell’AI Act elenca chiaramente i tipi di sistemi di IA che rientrano in questa categoria, i quali sono quindi severamente vietati.

In particolare, l’AI Act vieta:

• Sistemi di IA che impiegano tecniche subliminali, ingannevoli o manipolative progettate per distorcere materialmente la capacità di una persona di prendere decisioni consapevoli.

• Tecnologie di IA che sfruttano le vulnerabilità di gruppi specifici per modificarne il comportamento in modo dannoso.

• Sistemi di social scoring.

• Sistemi di IA utilizzati esclusivamente per prevedere la probabilità di comportamenti criminali attraverso il profiling o la valutazione di tratti della personalità.

• Sistemi di IA che effettuano raccolta indiscriminata di immagini facciali da internet.

• Sistemi di categorizzazione biometrica che deducono attributi personali sensibili.

• Sistemi di riconoscimento delle emozioni impiegati in contesti sensibili.


2) Rischio Elevato

I sistemi di intelligenza artificiale ad alto rischio, come delineato nel Capitolo 3 dell’AI Act, comprendono tecnologie con implicazioni significative per la sicurezza pubblica e i diritti fondamentali. Questi sistemi, per la loro natura sensibile e il potenziale impatto su larga scala, richiedono una rigorosa supervisione normativa. Includono applicazioni in settori critici come la sanità (es. dispositivi medici), la gestione delle infrastrutture, l’istruzione (es. sistemi di valutazione degli studenti), l’occupazione (es. strumenti di selezione del personale), l’applicazione della legge, la migrazione, il controllo delle frontiere, i procedimenti giudiziari, le elezioni democratiche e i servizi finanziari (es. assicurazioni e servizi bancari).

Per garantire un uso sicuro ed etico, l’AI Act impone obblighi dettagliati ai fornitori di sistemi di IA ad alto rischio. I fornitori devono classificare i loro sistemi in due sottocategorie distinte:

• Sistemi di IA incorporati in prodotti già regolamentati dalla normativa UE sulla sicurezza dei prodotti, che richiedono valutazioni di conformità da parte di terzi.

• Sistemi di IA autonomi ad alto rischio utilizzati in settori critici specificati, che devono anch’essi seguire rigorosi processi di conformità.


3) Rischio Limitato

L’AI Act dell’UE definisce chiaramente la categoria dei sistemi di intelligenza artificiale a rischio limitato nel Capitolo 4, descrivendo quei sistemi che, pur non essendo abbastanza pericolosi da rientrare tra quelli ad alto rischio, richiedono comunque obblighi specifici di trasparenza a causa del loro potenziale impatto sociale. Esempi tipici includono le applicazioni di intelligenza artificiale generativa, come ChatGPT, che generano o modificano significativamente contenuti. Tali sistemi devono rispettare obblighi normativi chiari per garantirne un uso etico e trasparente.

I fornitori di sistemi di IA a rischio limitato devono:

• Dichiarare chiaramente quando un contenuto è generato o modificato dall’IA

• Prevenire la generazione di contenuti illegali o dannosi

• Fornire trasparenza in merito ai dataset utilizzati per l’addestramento


4) Rischio Minimo

L’AI Act dell’UE, nel Capitolo 5, definisce i sistemi di IA a rischio minimo come applicazioni con un potenziale trascurabile o molto limitato di causare danni o impatti negativi su individui e società. Si tratta di tecnologie di intelligenza artificiale ampiamente diffuse e comunemente utilizzate nella vita quotidiana, come i filtri antispam, i videogiochi con funzionalità IA, i chatbot per l’assistenza clienti e i sistemi di gestione dell’inventario.

Data la loro natura a basso impatto, i sistemi di IA a rischio minimo sono soggetti a pochissimi obblighi normativi secondo l’AI Act. In particolare:

• Nessun obbligo di conformità obbligatorio

• Codici di condotta volontari

Per imprenditori e dirigenti che utilizzano sistemi di IA a rischio minimo forniti da terze parti, le implicazioni pratiche sono semplici:

• Approvvigionamento e utilizzo responsabile

• Valutazione dei rischi

Un requisito generale importante, valido per tutte le categorie (inclusi i sistemi a rischio minimo), è l’obbligo per i fornitori e gli utilizzatori di IA di garantire un’adeguata alfabetizzazione all’intelligenza artificiale tra il personale. Ciò consente una supervisione consapevole e contribuisce in modo significativo a pratiche di IA responsabili ed etiche all’interno dell’organizzazione.


Soource e la Compliance con l’AI Act

In Soource, utilizziamo l'intelligenza artificiale come strumento operativo progettato per supportare attività interne e incrementare l'efficienza dei nostri utenti. La nostra tecnologia utilizza modelli di General Purpose AI che ci permettono di offrire funzionalità specifiche come ricerca semantica, analisi avanzata dei dati, supporto alla scrittura di email e sintesi rapida di informazioni.

Un aspetto fondamentale del nostro approccio è che nessuna attività decisionale o comunicazione viene automatizzata senza supervisione diretta e attiva degli utenti. Ogni output generato dall'AI passa sempre attraverso una revisione e validazione umana finale prima di essere eventualmente utilizzato o condiviso esternamente. In ogni momento, i nostri utenti conservano il controllo totale delle decisioni operative e dell'interazione finale con clienti o stakeholder esterni.

Il nostro impegno per la supervisione umana costante rappresenta un elemento centrale per mitigare potenziali rischi e garantire un utilizzo responsabile delle tecnologie di intelligenza artificiale.

Per approfondire la nostra strategia di compliance con l'AI Act, non esitate a contattarci. Saremo felici di illustrarvi nel dettaglio il nostro approccio per un utilizzo etico e responsabile dell'intelligenza artificiale.