La tecnologia evolve rapidamente, spesso più velocemente della capacità dei legislatori di regolamentarla. Questo rende difficile, se non impossibile, creare e applicare normative specifiche nel momento in cui una nuova tecnologia entra nel mercato. I processi giuridici, infatti, richiedono analisi, valutazioni e approvazioni a livello nazionale e internazionale, rallentandone l’attuazione.
L’intelligenza artificiale (IA o AI) non ha fatto eccezione. Fino a poco tempo fa, l’Unione Europea non disponeva di un quadro normativo unificato in materia. Questo vuoto è stato colmato con l’entrata in vigore dell’AI Act, approvato il 2 febbraio 2025. Si tratta del primo regolamento europeo che disciplina l’utilizzo, la commercializzazione e l’applicazione dei sistemi di IA, fornendo regole comuni per tutti gli Stati membri e rivolgendosi sia ai fornitori di servizi di intelligenza artificiale che agli utenti finali.
L’AI Act stabilisce un insieme di norme armonizzate per l’introduzione, l’utilizzo e la vendita di sistemi di intelligenza artificiale nell’UE. In particolare, vieta alcune pratiche di IA ritenute pericolose o dannose, introduce requisiti specifici per i sistemi considerati ad alto rischio e impone obblighi agli operatori che li gestiscono. Inoltre, prevede regole comuni per garantire la trasparenza di determinati sistemi di IA e per la commercializzazione di modelli di intelligenza artificiale di carattere generale. Il regolamento disciplina anche il monitoraggio e la vigilanza del mercato, la governance e l’applicazione delle norme. Infine, include misure di supporto all’innovazione, con particolare attenzione alle piccole e medie imprese, comprese le startup.
L’AI Act mira a ridurre la frammentazione normativa tra i vari Stati membri, garantendo regole uniformi per l’intero mercato dell’UE. L’obiettivo principale è promuovere un’intelligenza artificiale affidabile e centrata sull’uomo (human-centered), assicurando al contempo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali. Il regolamento punta anche a migliorare il funzionamento del mercato interno e a sostenere l’innovazione, creando un ambiente favorevole allo sviluppo e all’adozione di sistemi AI in Europa.
Inoltre, l’AI Act vieta l’uso di pratiche considerate a rischio inaccettabile, come i sistemi IA che manipolano le decisioni delle persone o sfruttano le loro vulnerabilità, nonché quelli che valutano o classificano gli individui in base al loro comportamento sociale o a caratteristiche personali. Dal 2 febbraio 2025, queste pratiche sono ufficialmente proibite nell’Unione Europea.
L’AI Act si applica a chiunque
sistemi di intelligenza artificiale nell’UE, indipendentemente dal luogo in cui abbia sede. Si estende anche ai sistemi di IA utilizzati nell’UE, anche se sviluppati altrove. Tuttavia, alcune categorie sono escluse dal regolamento.
Non rientrano nei suoi obblighi i sistemi IA destinati a scopi militari e di sicurezza nazionale, così come quelli utilizzati per ricerca scientifica, a condizione che non violino i diritti fondamentali. Il regolamento non si applica nemmeno ai sistemi di intelligenza artificiale impiegati per attività personali e non professionali, né a quelli rilasciati con licenze open-source, salvo che rientrino tra quelli classificati ad alto rischio.
L’AI Act adotta un approccio basato sul livello di rischio dei sistemi di AI, strutturando una piramide di classificazione in base alla loro pericolosità.
L’AI Act introduce obblighi specifici per aziende e pubbliche amministrazioni che utilizzano sistemi di IA, imponendo la necessità di garantire una formazione adeguata del personale.
L’articolo 4 del regolamento prevede che chiunque operi con sistemi di intelligenza artificiale debba possedere conoscenze tecniche adeguate, esperienza e formazione in materia. Questo requisito non si applica solo alle aziende del settore tecnologico, ma anche a tutte quelle che utilizzano sistemi di IA nei loro processi, indipendentemente dal settore di appartenenza.
Le imprese devono quindi assicurarsi che i propri dipendenti e collaboratori siano adeguatamente istruiti sull’utilizzo dell’IA, valutandone l’impatto e il contesto di applicazione.
L’attuazione dell’AI Act avverrà gradualmente, con diverse scadenze per l’adozione delle disposizioni previste.
Ad agosto 2025 entreranno in vigore le norme sulla governance dell’IA e gli obblighi per i modelli di IA di uso generale. In questa fase, i destinatari della normativa dovranno mantenere documentazione dettagliata sui test e lo sviluppo dei loro sistemi, seguire procedure standardizzate per garantirne la sicurezza ed effettuare valutazioni periodiche per verificarne la conformità alle normative vigenti. Il mancato rispetto di questi obblighi potrebbe comportare sanzioni significative.
Ad agosto 2026 si completerà l’applicazione dell’AI Act, con l’entrata in vigore definitiva delle norme per tutti i sistemi di IA, inclusi quelli classificati ad alto rischio.
Nell’ambito dell’intelligenza artificiale applicata al business, i sistemi attualmente in uso rientrano nelle categorie a rischio minimo o limitato. Tuttavia, è fondamentale che le aziende formino adeguatamente i propri lavoratori per garantire un utilizzo responsabile ed efficace dell’IA, fornendo loro gli strumenti e le conoscenze adeguate per sfruttare al meglio le potenzialità di questa tecnologia in modo sicuro e proficuo.
Per maggiori dettagli, è possibile consultare la normativa completa al seguente link.
Vuoi scoprire di più sull’intelligenza artificiale nel mondo aziendale? Partecipa all’evento “AI per il Business: il futuro dell’intelligenza artificiale nelle imprese”, che si terrà il 19 marzo 2025 a Brescia!
Vieni a scoprire come ShowK.AI rispetta la privacy della tua azienda!