Martedì, 19 Marzo 2024 06:21

Luci e ombre: cosa dice il nuovo Atto Ue sull’Intelligenza Artificiale? In evidenza

Scritto da

Di Dario Lucisano Roma, 17 marzo 2024 - Mercoledì 13 marzo, i parlamentari dell’Unione Europea si sono riuniti in sessione plenaria, e hanno approvato con 523 voti favorevoli, 46 contrari e 49 astenuti il nuovo regolamento sull’Intelligenza Artificiale (IA), anche noto come AI Intelligence Act.

Era questo l’ultimo vero scoglio prima della promulgazione delle nuove norme, e dopo che verrà compiuto il solito ultimo atto di ufficio presso il Consiglio dell’Unione Europea, esse entreranno in vigore nel giro dei (circa) prossimi due anni, venendo introdotte in maniera graduale in scaglioni chespaziano dai 6 ai 36 mesi.

Con la nuova legge verranno promosse restrizioni all’applicazione delle tecnologie che si fondano sulle Intelligenze Artificiali, erigendo una sorta di diga per tutte quelle forme di IA che mettono a repentaglio sicurezza e la privacy dei cittadini. Nello specifico, con le nuove norme, vengono classificate le applicazioni delle intelligenze artificiali all’interno di una scala dei rischi divisa su quattro diversi livelli, arrivando a proibire o limitare quelle che rientrano nelle fasce più alte.

Da quanto si legge sul sito della Commissione, le IA che verranno inquadrate all’interno della categoria di “rischio inaccettabile”, la più alta di tutte, verrebbero direttamente proibite e tolte dal mercato.

Le IA considerate ad “alto rischio”, come ad esempio quelle utilizzate in infrastrutture critiche che potrebbero mettere a rischio la salute e la sicurezza dei cittadini, o quelle legate a servizi pubblici e privati essenziali quali i prestiti bancari, subirebbero limitazioni stringenti, venendo tracciate e documentate.

Per ciò che concerne le IA definite “a rischio limitato”, come quelle che usano sistemi di chat, queste dovrebbero venire limitate parzialmente, e verrebbero obbligate a rendere palesi le situazioni in cui vengono utilizzate, seguendo dati criteri di trasparenza.

Infine le IA a “rischio minimo” non subiranno alcuna limitazione.

La regolamentazione delle tecnologie che utilizzano strutture di Intelligenza Artificiale è certamente un passo avanti importantissimo e necessario per far fronte alla sempre più incombente presenza dei sistemi tecnologici nelle nostre vite. L’Unione Europea, in questo, si sta facendo promotrice di una iniziativa rilevante, promulgando da capofila il primo autentico pacchetto di gestione e regolamentazione di questo genere di tecnologie.

Una giusta ed equilibrata gestione dei sistemi di Intelligenza Artificiale, però, deve essere ben inquadrata e riuscire a combinare l’arginamento dei sistemi più potenzialmente rischiosi con la libertà per gli sviluppatori di esplorare le potenzialità di questo tipo di strumento, che, se ben utilizzato, può senza ombra di dubbio apportare benefici alla società civile. Dovrebbe insomma riuscire a porre tutela della sicurezza, della privacy e del mercato del lavoro da una parte e tutela del progresso dall’altra.

Il testo dell’UE è in tal senso molto dicotomico: se per certe cose è riuscito a limitare o proibire talune tecnologie che, se applicate senza restrizioni, avrebbero potuto portare a derive alquanto illiberali, come nel caso dell’uso “di sistemi di identificazione biometrica remota ‘in tempo reale’ in spazi accessibili al pubblico”, in altri i limiti imposti sono parecchio vaghi, tanto da farne risultare difficile il tracciamento di un confine. Nel caso delle IA ad “alto rischio”, per esempio, per quanto la loro definizione sia abbastanza precisa, i criteri con cui esse vengono inserite in tale categoria sono molto generici e rischiano di farsi scivolare IA che costituirebbero un reale rischio, o, al contrario, di includervi IA che non dovrebbero venire figurare in lista.

Anche i sistemi di gestione del rischio sono molto confusi, e al di là delle scontate “identificazione e analisi” dei rischi, o delle ancor più immaginabili “stima e valutazione” di essi, non è ben chiaro cosa si intenda quando si parla di “adozione di adeguate misure di gestione dei rischi”.

Non è ancora dato sapere se l’Artificial Intelligence Act riuscirà davvero a limitare i rischi derivanti dall’applicazione dei sistemi di Intelligenza Artificiale. Certamente anche solo l’intenzione di normare la gestione delle IA può venire presa come un buon segnale, ma non tutti gli elementi contenuti nella legge dipingono un futuro a rose e fiori, e anzi tengono aperta la possibilità di passare da un mercato troppo liberale a uno troppo controllato, o, al contrario, a uno normato solo per modo di dire.

Dario Lucisano

Dopo anni di trattative è arrivato il via libera all’AI Intelligence Act, misura sfaccettata, che preannuncia un destino incerto.

#IA #Eurocamera #tecnologia