Ultime notizie

27 Aprile 2024

L’Intelligenza Artificiale conquista terreno, tra rischi e regolamentazione

di Avvocato Luigi Donato

Condividi:
Facebook
Linkedin
Twitter
Whatsapp
16x9
Angle Left
Angle Right
ADV 970x90

La straordinaria crescita dell’utilizzo dell’Intelligenza Artificiale (IA) ha destato, come avviene sempre per gli sviluppi tecnologici rapidi, forti entusiasmi ma anche vive preoccupazioni per il rischio di distruggere posti di lavoro e di perdere il controllo di settori dell’economia, delle attività sociali e perfino della giustizia.

In effetti, i pericoli sono grandi quanto grandi sono le potenzialità dell’Intelligenza Artificiale. Le categorie dei rischi sono state individuate in quattro direzioni:

-Bias: dati e algoritmi possono riflettere pregiudizi; se i set di dati utilizzati dagli algoritmi di intelligenza artificiale sono distorti o incompleti, possono portare a decisioni non corrette o caratterizzate da forme di discriminazione; 
-Darkness: iI processo decisionale degli algoritmi di IA può risultare opaco. L'IA deve essere, invece, sempre spiegabile e devono essere fornite informazioni per rendere trasparente come funziona; 
-Governance: è necessario stabilire la responsabilità per la decisione presa (o suggerita) dall'algoritmo di IA; 
-Fake news: nuove minacce possono emergere dai progressi nelle tecnologie di intelligenza artificiale; l'apprendimento automatico può essere utilizzato per generare dati, audio e video sintetici allo scopo di diffondere notizie false.

In attesa della regolamentazione i problemi di fondo dell’IA sono emersi con chiarezza sul piano giuridico. Mentre nell’algoritmo di stampo tradizionale le istruzioni sono stabilite con una sequenza ben definita e non ambigua tanto da produrre un risultato determinato, nel caso dell’intelligenza artificiale con meccanismo di machine learning è l’algoritmo stesso che elabora ulteriori criteri di inferenza e, quindi, sviluppa un apprendimento automatico che porta alle decisioni. 

Ne deriva l’esigenza di affermare tre principi:
-il principio di conoscibilità da parte dei terzi dell’esistenza di processi decisionali automatizzati;
-il principio di non esclusività della decisione algoritmica, secondo cui nel processo decisionale deve esservi un intervento umano al quale va riferita la decisione e la responsabilità;
-il principio di non discriminazione algoritmica, con la garanzia che le inesattezze dei dati siano rettificate e il rischio di errori tecnici sia minimizzato; inoltre va assicurata la sicurezza dei dati personali per garantire i diritti dell’interessato e impedire effetti discriminatori.

Finora i principali Paesi impegnati nello sviluppo dell’IA, quali Cina e USA, non sono apparsi favorevoli ad una regolamentazione; gli USA però nell’ultimo periodo mostrano una inversione di rotta, prima con un executive order con linee guida per le piattaforme firmato il 30 ottobre 2023 dal Presidente Biden e, più di recente, con un disegno di legge Bipartisan presentato al Senato il 18 aprile 2024.

L’Unione Europea sta predisponendo una propria normativa con la quale, in assenza di una supremazia tecnologica, gioca la carta della supremazia regolamentare. In data 13 marzo 2024 il Parlamento ha approvato una Risoluzione legislativa sulla proposta di regolamento che stabilisce regole armonizzate sull’Intelligenza Artificiale; si punta a non ostacolarne la libera circolazione, ma nel rispetto dei valori dell’Unione, coerentemente anche con la Risoluzione ONU del 21 marzo 2024 che promuove l’IA in aderenza al principio “same rights, online and offline”. Le pratiche di AI manipolative o ingannevoli sono vietate e per i sistemi ad alto rischio sono previsti requisiti specifici, a partire dalla sorveglianza umana.

In Italia sono in corso i lavori per una legge in materia di Intelligenza Artificiale; lo schema di disegno di legge (con 26 articoli) è stato appena approvato dal Consiglio dei ministri. 
La finalità di fondo è promuovere un utilizzo corretto, trasparente e responsabile dell’intelligenza artificiale, volto a coglierne le opportunità. Con due precisazioni l’utilizzo deve avvenire “in una dimensione antropocentrica” e va garantita la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali. La strategia nazionale dovrebbe puntare, in primo luogo, sullo sviluppo economico e sulla produttività in tutte le catene del valore e delle funzioni organizzative.

Disposizioni specifiche escludono l’applicazione della legge alla cybersicurezza e alla sicurezza e difesa nazionale. Considerando, che l’utilizzo di sistemi di intelligenza artificiale contribuisce al miglioramento del sistema sanitario e alla prevenzione e cura delle malattie sono dichiarati di rilevante interesse pubblico la ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario.

L’uso dell’IA per le pubbliche amministrazioni è incentivato allo scopo di incrementare l’efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi ai cittadini e alle imprese. Ovviamente si tratta di un utilizzo strumentale e di supporto all’attività provvedimentale, mentre il funzionario pubblico resterà l’unico responsabile dei provvedimenti e dei procedimenti.
L’impatto sul mondo del lavoro viene condizionato a migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative, è previsto un Osservatorio presso il Ministero del Lavoro.

Poi ci sono altri limiti:
-nelle professioni intellettuali l’IA dovrebbe essere utilizzata solo per attività strumentali e di supporto all’attività professionale;
-nell’attività giudiziaria l’IA è consentita solo per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale.

La strategia nazionale è curata dalla struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale, d’intesa ’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) che costituiscono le Autorità nazionali per l’intelligenza artificiale. Il Governo avrebbe poi il compito di attuare numerose deleghe legislative per attuare la futura normativa europea, prevedendo anche un regime penale per l’utilizzo illecito di sistemi di IA.

Lo stesso schema precisa che l’interpretazione e l’applicazione della legge proposta dovranno avvenire conformemente al diritto UE e, quindi, a parità degli altri Stati membri. In realtà, la partita dell’IA tra i Paesi si giocherà non solo attraverso le norme, ma soprattutto con la ricerca, con lo sviluppo e con l’adozione dei sistemi e modelli di IA. 

E quindi con diffusi investimenti privati ma anche pubblici.

7x10

È online il nuovo numero di REview. Questa settimana:   Student Housing: accordo per 800 nuovi