E’ possibile un controllo dell’Intelligenza Artificiale?

E’ ormai assodato che l’intelligenza Artificiale deve essere vista come un sistema, e come tale possiede: input, output, attività ed un osservatore.

Ma a differenza di altri sistemi, l’osservatore è anche parte del sistema, non è esterno e relegato all’ambiente ma interagisce con il sistema.

Possiamo definire un sistema come:

Sistema è ciò che può essere distinto, sulla base di qualche criterio specifico agli scopi dell’osservatore, da ciò che è considerato esterno al sistema stesso, il suo ambiente.

Riportiamo alcune caratteristiche generali dei sistemi:

  • Si assume che la realtà esista “là fuori” e che abbia caratteristiche che non dipendono dal fatto che qualcuno la osserva, benché in particolari casi già l’osservazione possa modificare la realtà osservata.
  • In quanto osservatori costruiamo interpretazioni per “parti della realtà”: chiamiamo modelli tali interpretazioni, e sistemi tali “parti della realtà” oggetto di interpretazione. I modelli possono essere espressi in modo informale (per esempio mediante una descrizione in italiano o dei disegni); per renderli comunicabili (a esseri umani o sistemi automatici) in modo completo e non ambiguo, li si formalizza, mediante strumenti quantitativi o non.
  • Poiché noi stessi siamo parte della realtà, i sistemi possono includerci o meno.
  • Ogni sistema è immerso in un ambiente: la scelta di cosa includere nel sistema e cosa nell’ambiente, e quindi di dove stabilire il confine del sistema, dipende dal modello adottato. In generale, il confine è posto sia in ampiezza, a separare ciò che viene escluso dal sistema perché sufficientemente “lontano” da esso, sia in profondità, a separare ciò che viene escluso dal sistema perché eccessivamente specifico.
  • Ogni sistema può essere interpretato come un tutt’uno, oppure può essere riconosciuto come costituito da più sottosistemi, che con modalità varie interagiscono reciprocamente
  • Quanto più un sistema è specializzato, tanto meno è in grado di adattarsi ai cambiamenti;
  • Quanto più grande è un sistema, tanto maggiore è la quantità delle risorse che devono essere dedicate per assicurare il suo funzionamento;
  • E’ sempre possibile considerare un sistema come parte di sistemi che lo includono (supersistemi) e come insieme di sistemi inclusi in esso (sottosistemi);
  • I sistemi tendono a crescere.

La descrizione di un sistema e delle sue interazioni con l’ambiente circostante può essere:

  • statica: il modello fornisce una “fotografia” del sistema, che, però non può essere impiegata esplicitamente per realizzare una previsione sull’evoluzione del sistema stesso;
  • dinamica, con l’ipotesi che l’osservatore non intervenga (per esempio perché non è in grado di farlo…) sull’evoluzione del sistema (“sistema autonomo”);
  • dinamica, inclusiva degli effetti dell’intervento dell’osservatore sul sistema, generalmente finalizzati a modificarne l’evoluzione.

L’AI quindi può configurarsi come sistema chiuso o aperto.

Si ipotizza quindi, che il sistema riceva nel corso del tempo degli input dall’ambiente e/o dall’osservatore (che in questo caso è dunque più che un semplice osservatore) e produca degli output sull’ambiente, ma l’osservatore è parte del sistema.

Inoltre, siccome l’AI sfrutta dati (che sono intangibili) e algoritmi che risiedono su componenti elettronici è dipendente, un po’ come noi, dalla Meccanica Quantistica che governa la fisica subatomica (e non solo): incertezza, probabilità, effetto tunnel oppure logica Fuzzy.

Infatti, il principio di indeterminazione di Heisenberg o l’equazione di Schroedinger ci aiutano a comprendere come l’incertezza e gli stati del sistema (infatti il sistema vive in uno stato che viene modificato dall’input) non sono più riconducibili a situazioni classiche o determinate (0 o 1) ma che esistono situazioni probabilistiche di accadimento.

Illustriamo le equazioni che in qualche modo governano i sistemi:

Equazione di Schroedinger:

Principio di Heisenberg:

Teorema di Bayes:

Fuzzy Theory (non sono solo più valori 0 e 1 ma sono rappresentati da una sigmoide (scala di grigi):

I Qbit e la sfera di Bloch con a fianco gli autostati e i valori che possono assumere:

Il quadrato della funzione ψ risulta la probabilità dell’evento. Per meglio comprendere il concetto di autostato riportiamo un classico esempio studiato alle superiori cioè il binomio di un quadrato:

(a+b)2= a2+b2+2ab

Questo fatto è stato dimostrato nell’esperimento (e nella teoria) della doppia fenditura, dove i termini al quadrato sono le probabilità e il doppio prodotto l’interferenza.

A questo punto, data la situazione di incertezza, è opportuno introdurre i controlli al sistema AI all’ingresso dell’input, all’output e se è possibile anche alle attività interne della scatola AI (controllo della Black Box).

Per far questo possiamo analizzare i dati in ingresso verificandone la qualità, l’accuratezza e con un sistema verificare l’applicazione dei principi e l’analisi dei rischi relativi all’AI.

Riportiamo per completezza:

I principi:

  • Dignità e supervisione umana;
  • Robustezza e sicurezza;
  • Privacy e governance dei dati;
  • Trasparenza;
  • Diversità, non discriminazione ed equità;
  • Benessere sociale e ambientale;
  • Accountability.

I rischi:

  • Generalità
  • Correttezza
  • Sicurezza
  • Safety
  • Tutela della privacy
  • Robustezza
  • Trasparenza e spiegabilità

Si è accennato anche ad un sistema di gestione, in questo caso il riferimento è la norma ISO 42001: Information technology — Artificial intelligence — Management system.

Come tutte le norme ISO che riportano i requisiti, riporta la struttura HLS (High Level System) illustrata sotto:

Sempre per completezza riportiamo i capitoli della ISO 42001:

  • 4 Contesto dell’organizzazione
  • 4.1 Comprendere l’organizzazione e il suo contesto
  • 4.2 Comprendere le esigenze e le aspettative delle parti interessate
  • 4.3 Determinazione dell’ambito di applicazione del sistema di gestione dell’IA
  • 4.4 Sistema di gestione AI
  • 5 Leadership
  • 5.1 Leadership e impegno
  • 5.2 Politica
  • 5.3 Ruoli, responsabilità e autorità
  • 6 Pianificazione
  • 6.1 Azioni per affrontare rischi e opportunità
  • 6.1.1 Generalità
  • 6.1.2 Valutazione del rischio dell’IA
  • 6.1.3 Trattamento del rischio di IA
  • 6.1.4 Valutazione d’impatto del sistema di IA
  • 6.2 Obiettivi dell’IA e pianificazione per raggiungerli
  • 6.3 Pianificazione delle modifiche
  • 7 Supporto
  • 7.1 Risorse
  • 7.2 Competenza
  • 7.3 Consapevolezza
  • 7.4 Comunicazione
  • 7.5 Informazioni documentate
  • 7.5.1 Generalità
  • 7.5.2 Creazione e aggiornamento di informazioni documentate
  • 7.5.3 Controllo delle informazioni documentate
  • 8 Funzionamento
  • 8.1 Pianificazione e controllo operativo
  • 9 Valutazione delle prestazioni
  • 9.1 Monitoraggio, misurazione, analisi e valutazione
  • 9.2 Audit interno
  • 9.2.1 Generalità
  • 9.2.2 Programma di audit interno
  • 9.3 Riesame della direzione
  • 9.3.1 Generalità
  • 9.3.2 Input di revisione della direzione
  • 9.3.3 Risultati del riesame della direzione
  • 10 Miglioramento
  • 10.1 Miglioramento continuo
  • 10.2 Non conformità e azioni correttive

Il sistema può essere allora così descritto:

Utilizzando un framework (modello) che impone la verifica dei principi, rischi e un Sistema di Gestione, sviluppati con domande (cioè attraverso un processo di audit), alle quali l’organizzazione deve rispondere come livello di implementazione e di maturità, è possibile confrontare questi risultati (all’inizio) con i risultati dopo che gli algoritmi hanno svolto il loro compito (alla fine).

Per capire e analizzare lo stato dell’organizzazione rispetto a questi tre assi (principi, rischi e governance) si è introdotto il concetto di vettore.

Un vettore è uno strumento matematico, largamente utilizzato in fisica, che possiede una direzione, un verso ed un’intensità e appartiene ad uno spazio vettoriale. Si descrive attraverso un formalismo

v=(vx, vy, vz)

ovvero come combinazione lineare dei versori canonici

v=(vxi+vyj+vzk)

La posizione del punto sopra descritto è funzione quindi di tre coordinate: x, y, z.

Se andiamo a sostituire le coordinate canoniche con quelle relative allo spazio di Principi, Rischi e Governance, otteniamo un vettore funzione di queste.

Il vettore I sarà quindi:

I = px+sy+rz

Altro parametro importante è il modulo del vettore dato dalla radice quadrata della somma dei quadrati delle singole proiezioni sugli assi.

I = (px2+ sy2+rz2)1/2

Il modello ha prodotto i seguenti grafici con evidenziate le fasi iniziali e quelle finali:

Utilizzando il grafico a vettori possiamo quindi riportare:

Dove si può notare il miglioramento sui tre assi, con la diminuzione dei rischi.

E’ stato illustrato un modello che, attraverso un audit o autovalutazione, verifica lo stato, la bontà dell’input confrontandolo con la correttezza dell’output di un sistema di Intelligenza Artificiale considerando i Principi, i Rischi e l’implementazione di un Sistema di Gestione secondo la ISO 42001 dell’AI.

 

Articolo a cura di Stefano Gorla

Profilo Autore

Consulente e formatore in ambito governance AI, sicurezza e tutela dei dati e delle informazioni;
Membro commissione 533 UNINFO su AI; Comitato di Presidenza E.N.I.A.
Membro del Gruppo di Lavoro interassociativo sull’Intelligenza Artificiale di Assintel
Auditor certificato Aicq/Sicev ISO 42001, 27001, 9001, 22301, 20000-1, certificato ITILv4 e COBIT 5 ISACA, DPO Certificato Aicq/Sicev e FAC certifica, Certificato NIST Specialist FAC certifica,
Referente di schema Auditor ISO 42001 AicqSICEV.
Master EQFM. È autore di varie pubblicazioni sui temi di cui si occupa.
Relatore in numerosi convegni.

Condividi sui Social Network:

Ultimi Articoli

ISCRIVITI ALLA NEWSLETTER DI ICT SECURITY MAGAZINE

Una volta al mese riceverai gratuitamente la rassegna dei migliori articoli di ICT Security Magazine

Rispettiamo totalmente la tua privacy, non cederemo i tuoi dati a nessuno e, soprattutto, non ti invieremo spam o continue offerte, ma solo email di aggiornamento.
Privacy Policy