Autore: Davide Casella, Digital Business and Technology Consultant at DXC Technology
Contesto: Business Analysis & Intelligenza Artificiale
Nell’aprile 2021, la Commissione europea ha presentato una proposta per una nuova legge sull’intelligenza artificiale (Ai) [https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206]. Questa proposta mira a fornire una definizione tecnologicamente neutra dei sistemi di Ai. Mira, inoltre, a stabilire un diverso insieme di norme adattate a un approccio basato sul rischio con quattro livelli. Essi sono: Unacceptable risk, High-risk, Limited risk e Minimal risk.
Con la futura adozione della Legge sull’Intelligenza Artificiale in Europa, le aziende che utilizzeranno l’Ai dovranno sempre di più rispettare regole rigorose per garantire l’etica e la trasparenza nell’uso di questa tecnologia. Ciò significa che le aziende devono essere in grado di spiegare come l’Ai prende le decisioni e quali sono le implicazioni di queste decisioni.
Il Business Analyst, come ribadito nello standard, è un professionista che aiuta le aziende a migliorare i loro processi e a raggiungere i loro obiettivi attraverso l’analisi dei dati e delle informazioni. Per questo, sempre di più lavorerà in contesti dove l’uso dell’Ai sarà predominante.
I livelli di rischio
Il Business Analyst sarà cruciale per identificare le fonti di dati utilizzate dall’Ai e a garantire che questi dati siano accurati, completi e privi di pregiudizi. Inoltre, il Business Analyst può aiutare a sviluppare modelli di Ai che siano trasparenti, comprensibili per gli utenti e anche “legali”.
Per questa ragione è fondamentale fornire qualche dettaglio in più riguardo i quattro livelli di rischio sopra citati.
Rischio inaccettabile
Il primo livello di rischio è quello inaccettabile (Unacceptable risk). In questo caso, gli usi dannosi dell’Ai che violano i valori dell’UE saranno vietati a causa del rischio inaccettabile che creano. Ad esempio, sarà vietato il punteggio sociale da parte dei governi.
Rischio alto
Il secondo livello di rischio è quello alto (High-risk). In questo caso una serie di sistemi di Ai stanno creando un impatto negativo sulla sicurezza delle persone o sui loro diritti fondamentali. Al fine di garantire la fiducia e un livello elevato e costante di protezione della sicurezza e dei diritti fondamentali, a tutti i sistemi ad alto rischio si applicherebbe una serie di requisiti obbligatori, compresa una valutazione della conformità.
Rischio limitato
Il terzo livello di rischio è quello limitato (Limited risk). In questo caso, alcuni sistemi di Ai saranno soggetti a una serie limitata di obblighi, ad esempio trasparenza.
Rischio minimo
Infine, il quarto livello di rischio è quello minimo (Minimal risk). In questo caso, tutti gli altri sistemi di Ai possono essere sviluppati e utilizzati nell’UE senza ulteriori obblighi giuridici rispetto alla legislazione esistente.
Nuove opportunità di Business Analysis
Concludendo, la nuova legge sull’Ai dell’UE rappresenta un importante passo avanti nella regolamentazione dell’uso di questa tecnologia. È inoltre una grande opportunità per le aziende che utilizzano l’Ai per dimostrare la loro etica e trasparenza. Il Business Analyst può svolgere un ruolo chiave nell’aiutare le aziende a raggiungere questi obiettivi attraverso l’analisi dei dati e delle informazioni. L’approccio basato sul rischio a quattro livelli mira a garantire la protezione dei diritti fondamentali e della sicurezza delle persone, senza limitare l’innovazione e lo sviluppo dell’Ai. In questo modo, il Business Analyst può aiutare le aziende a mantenere la fiducia dei loro clienti e ad evitare potenziali rischi legali e reputazionali associati all’uso dell’Ai. Tuttavia, è importante sottolineare che la legge proposta è ancora in fase di discussione e potrebbe subire modifiche prima di essere adottata.
Grazie Davide. Molto interessante