Regolamento sull’IA
Il regolamento europeo (2024/1689) sull’intelligenza artificiale (IA), ha individuato quattro livelli di rischio che possono comportare lesioni dei diritti umani o compromissione dei principi fondamentali dell’Unione europea. Dal 2 febbraio 2025 è in vigore il primo livello, quello relativo alle pratiche vietate.
Gli altri livelli, ivi compreso l’obbligo di valutazione di impatto per i sistemi ad alto rischio, saranno pienamente applicabili solo a partire dal 2 agosto 2026.
Le pratiche vietate
L’articolo 5 del regolamento illustra le pratiche di intelligenza artificiale vietate. Tra queste:
- Sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche manipolative o ingannevoli aventi lo scopo o l’effetto di distorcere il comportamento di una persona o di un gruppo di persone; -Osistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone, dovute all’età, alla disabilità o a una specifica situazione sociale o economica;
- sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
- sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro edegli istituti di istruzione, tranne laddove l’uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza;
- sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale;
- l’uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di
attività di contrasto, a meno che tale uso sia necessario per obiettivi come la ricerca di specifiche vittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani o come la prevenzione di
una minaccia di un attacco terroristico.
Le aziende dovranno, pertanto, porre attenzione affinchè i propri sistemi di IA rientrino nelle categorie di rischio previste e adeguarsi, al caso, alla nuova normativa.