AI Act: Divieti e Scadenze Febbraio 2025
PROFESSIONISTI NELLA TUTELA DELLA PRIVACY PER LE IMPRESE Il nostro team di esperti inter funzionale affianca professionisti, aziende artigiane, imprese pubbliche e private, nella protezione dei dati personali e nella tutela della privacy durante tutte le fasi di sviluppo aziendale. Per essere tutelato e GDPR Compliant scopri tutti i nostri servizi.
tuitela privacy, gdpr, dpo, torino
928
post-template-default,single,single-post,postid-928,single-format-standard,bridge-core-3.3.3,qode-page-transition-enabled,ajax_fade,page_not_loaded,,qode_grid_1300,footer_responsive_adv,qode-child-theme-ver-1.0.0,qode-theme-ver-30.8.6,qode-theme-bridge,disabled_footer_bottom,wpb-js-composer js-comp-ver-8.3.1,vc_responsive

AI Act: Le scadenze cruciali da rispettare a partire da febbraio 2025 e le implicazioni per le aziende

Regolamento intelligenza Artificiale - prima scadenza del 2 febbraio 2025 per le aziende

AI Act: Le scadenze cruciali da rispettare a partire da febbraio 2025 e le implicazioni per le aziende

AI Act: scadenze cruciali già a partire da febbraio 2025

Il futuro dell’intelligenza artificiale in Europa prende una svolta importante: il Regolamento (UE) 2024/1689, noto come AI Act, entrerà in vigore il 2 agosto 2026. Tuttavia, di fronte ai rischi concreti per i diritti fondamentali e la libertà delle persone, il Parlamento europeo e il Consiglio dell’UE hanno deciso di anticipare l’applicazione delle misure più urgenti. Già dal 2 febbraio 2025 infatti, entreranno in vigore le disposizioni generali e i divieti previsti nel Capo II del Regolamento, bloccando pratiche di IA particolarmente invasive che intaccano aspetti profondamente personali e sensibili della vita quotidiana delle persone.

Nello specifico verrà vietata l’immissione sul mercato, la messa in servizio o l’uso dei seguenti sistemi di IA:

  • Sistemi di IA per il riconoscimento delle emozioni: È vietato l’uso di sistemi di IA per dedurre le emozioni di una persona fisica in ambito lavorativo e scolastico (eccetto per motivi medici o di sicurezza);
  • Sistemi di IA che manipolano il comportamento umano: È vietato l’uso di sistemi di IA che possano manipolare in modo subliminale le persone per influenzare in modo dannoso le loro decisioni o comportamenti, senza che se ne rendano conto;
  • Sistemi di IA che sfruttano le vulnerabilità: È vietato l’uso di sistemi di IA che sfruttano le vulnerabilità di una persona fisica o di uno specifico gruppo di persone per influenzare il loro comportamento in modo dannoso;
  • Sistemi di IA per la valutazione sociale (cd. “social scoring”): È vietato l’uso di sistemi di IA che valutano o classificano le persone o gruppi di persone assegnando loro un punteggio sociale in base al loro comportamento sociale o caratteristiche personali determinando un trattamento pregiudizievole ingiustificato o che risulta sproporzionato rispetto alla gravità del comportamento osservato;
  • Sistemi di IA per la predizione di comportamenti criminali: È vietato l’uso di sistemi di IA per valutare o prevedere il rischio che una persona commetta un reato, basandosi esclusivamente sulla profilazione o sulla valutazione dei tratti e delle caratteristiche della personalità;
  • Sistemi di IA per la creazione di banche dati di riconoscimento facciale: È vietato l’uso di sistemi di IA che creano o ampliano banche dati di riconoscimento facciale tramite lo scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
  • Sistemi di IA per la categorizzazione biometrica: È vietato l’uso di sistemi di categorizzazione biometrica che classificano le persone sulla base dei loro dati biometrici per dedurre informazioni su caratteristiche quali razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale;
  • Sistemi di IA per l’identificazione biometrica in tempo reale: È vietato l’uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico a fini di attività di contrasto (eccetto per i seguenti motivi: ricerca di vittime di sottrazione, tratta di essere umani, persone scomparse; prevenzione di una minaccia imminente per la vita delle persone come un attacco terroristico; localizzazione di una persona sospettata di aver compiuto un reato punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno 4 anni).

Le conseguenze per chi a partire dal mese prossimo non rispetterà questi divieti e farà uso delle succitate pratiche, saranno pesanti sanzioni amministrative pecuniarie. Sono infatti previste sanzioni fino a 35 mln di euro o, per le imprese, fino al 7% del fatturato mondiale totale annuo dell’esercizio precedente se superiore.

Con l’approssimarsi della scadenza del 2 febbraio 2025 e l’entrata in vigore dei divieti stabiliti nell’articolo 5 dell’AI Act, l’adozione di misure tempestive contro le pratiche più invasive rappresenta un passo decisivo per tutelare i diritti fondamentali e la privacy dei cittadini. Le sanzioni severe in caso di violazione dei divieti rafforzano l’impegno dell’UE verso un uso responsabile ed etico dell’IA che pone al centro la protezione della libertà e dell’autonomia individuale.

Per le imprese, è fondamentale adeguarsi rapidamente a queste normative, non solo per evitare gravi sanzioni economiche, ma anche per assicurarsi che le soluzioni tecnologiche adottate siano pienamente conformi a dette disposizioni.

Per informazioni potete scriverci a info@tutelaprivacy.com o chiamarci al numero (+39) 011 5534737