Un aiuto per l’audit AI

Come accennato nei precedenti articoli:

il controllo sui sistemi AI è di fondamentale importanza per verificare la correttezza e il soddisfacimento dei principi e la riduzione dei rischi derivanti dall’AI.

Questo può essere fatto con diversi sistemi o metodologie, che attraverso delle check list, permettono la verifica del sistema e la conduzione delle verifiche ispettive (sia di parte prima, seconda che terza).

In questo articolo si vogliono indicare alcuni strumenti utili sia all’auditor che all’organizzazione.

Un utile strumento potrebbe essere una check list suddivisa in alcune domande, come quelle sottoelencate, alle quali l’organizzazione deve rispondere magari considerando anche un grado di maturità:

  1. I requisiti e la legislazione applicabile sono stati identificati?
  2. I requisiti contrattuali sono stati identificati e applicati?
  3. Esiste un processo di verifica della compliance e del suo ciclo di vita?
  4. Viene verificata periodicamente la conformità ai requisiti legali in particolare alla protezione dei dati personali?
  5. Viene implementato il principio di minimizzazione dei dati?
  6. Viene elaborata una DPIA per ogni progetto?
  7. Viene rivista l’analisi dei rischi in caso di cambiamenti o nuovi progetti?
  8. Quale è il livello di conoscenza sulla sicurezza e sulla mitigazione dei rischi all’interno dell’organizzazione in ambito ML?
  9. Esiste un controllo sulle vulnerabilità dei sistemi ML?
  10. E’ possibile che la vulnerabilità del ML si possa applicare agli stakeholder esterni?
  11. Sono comunicati gli incidenti alle autorità?
  12. Sono correttamente raccolti e assemblati i campioni di dati in set di addestramento e validazione?
  13. Sono verificati i rischi di parzialità e discriminazione della popolazione in determinati gruppi sociali?
  14. Esiste un processo di prevenzione dei pregiudizi e delle discriminazioni?
  15. Esiste un processo che verifichi le scelte di modellizzazione con i bias prodotti?
  16. I dati di test sono in ambienti separati?
  17. Se si utilizzano più set di dati per i modelli viene preservata la protezione dei dati personali?
  18. I test sui dati sono validati?
  19. Esistono delle metriche di prestazione prima dell’addestramento del modello?
  20. Esiste un sistema di monitoraggio dei modelli sviluppati?
  21. Il processo decisionale di validazione e monitoraggio è documentato?
  22. Vengono effettuati audit di terza parte?
  23. L’organizzazione riceve audit di seconda parte?
  24. Esiste una documentazione del ciclo di vita dei modelli ML?
  25. Sono definite nei progetti le condizioni e i limiti di validità?
  26. Vengono analizzati e comunicati gli incidenti?
  27. E’ definita e condivisa la catena del valore del modello ML?
  28. Sono previste attività in subappalto?
  29. I modelli di AI sono utilizzati solo all’interno dell’organizzazione?
  30. L’azienda sviluppa modelli di AI per conto terzi?
  31. I modelli di AI sviluppati prevedono la supervisione umana?
  32. I modelli sono spiegabili e interpretabili?
  33. I modelli sono trasparenti?
  34. E’ stato calcolato l’impatto di CO2 dell’attività?
  35. E’ stato valutato l’impatto sociale?
  36. E’ stata affrontata la dimensione etica del modello?

Un altro strumento è quello realizzato dal CNIL “Introduction to the self-assessment guide for AI systems”, una guida all’autovalutazione dei principali problemi di protezione dei dati negli scenari più comuni.

Lo strumento è suddiviso in sette schede dove per ogni argomento, brevemente introdotto, vengono poste alcune domande e richiesti dei commenti esplicativi.

1) Fare le domande giuste prima di utilizzare un sistema di intelligenza artificiale

  • Obiettivo e proporzionalità
  • Fornitori, utenti di sistemi di intelligenza artificiale e individui

2) Raccolta e qualificazione dei dati di formazione

  • Elaborazione lecita dei dati nel rispetto della normativa
  • Dai dati grezzi a un set di dati di formazione di qualità
  • Identificare i rischi di parzialità e correggerli in modo efficace

3) Sviluppo e addestramento di un algoritmo

  • Progettazione e sviluppo di un algoritmo affidabile
  • Applicando un meticoloso protocollo di allenamento
  • Verifica della qualità del sistema in ambiente controllato

4) Utilizzo di un sistema di intelligenza artificiale in produzione

  • Consentire agli esseri umani di mantenere il controllo
  • Implementare la trasparenza per garantire la fiducia
  • Garantire la qualità della lavorazione
  • Rischi specifici

5) Messa in sicurezza del trattamento

  • Identificare e proteggere dai modelli di attacco
  • Registrazione per migliorare la supervisione
  • Registrazione per migliorare la supervisione
  • Garantire tutte le fasi della lavorazione
  • Esaminare la natura dei modelli

6) Garantire che le persone possano esercitare pienamente i propri diritti

  • Misurare l’impatto del trattamento sui diritti fondamentali delle persone
  • Informare le persone in modo che possano riprendere il controllo
  • Fornire un quadro favorevole all’esercizio dei diritti di protezione dei dati

7) Supervisionare le decisioni automatizzate

  • Raggiungere la conformità
  • Rispettare standard, certificazioni e codici di condotta come prova di conformità
  • Conduzione e valutazione di una DPIA
  • Documentare per affidabilità

IL CNIL riporta anche altri strumenti utili quali:

Un ulteriore strumento di analisi e valutazione è quello fornito da CapAI: Una procedura per condurre la valutazione della conformità dei sistemi di IA in linea con la legge dell’UE sull’intelligenza artificiale.

La procedura proposta da CapAI è composta da tre componenti:

  • un protocollo di revisione interna (IRP), che fornisce alle organizzazioni uno strumento per la garanzia della qualità e la gestione del rischio;
  • una scheda tecnica sintetica (SDS) da presentare alla futura banca dati pubblica dell’UE sui sistemi di IA ad alto rischio in funzione;
  • una scorecard esterna (ESC), che può (facoltativamente) essere messa a disposizione dei clienti e delle altre parti interessate del sistema di IA.

Seguendo l’IRP, le organizzazioni possono condurre una valutazione della conformità e creare la documentazione tecnica richiesta dall’AIA. Segue le fasi di sviluppo del ciclo di vita del sistema di intelligenza artificiale e valuta la consapevolezza, le prestazioni e le risorse dell’organizzazione per prevenire, rispondere e correggere potenziali guasti. L’IRP è delegato a fungere da documento ad accesso limitato.

La SDS è una sintesi di alto livello dello scopo, della funzionalità e delle prestazioni del sistema di IA che soddisfa i requisiti di registrazione pubblica, come indicato nell’AIA.

L’ESC è generato attraverso l’IRP e riassume le informazioni rilevanti sul sistema di IA lungo quattro dimensioni chiave: (1) scopo, (2) valori, (3) dati e (4) governance. Si tratta di un documento di riferimento pubblico che dovrebbe essere messo a disposizione di tutte le controparti interessate.

Riportiamo per completezza l’indice della versione 1.0 di marzo 2022:

1 Valutazione della conformità per un’AI affidabile

1.1 Mantenere la promessa dell’IAI

1.2 Quando si applica il mandato di valutazione della conformità AI?

1.3 I componenti chiave di sistemi di intelligenza artificiale affidabili4

1.4 Utilizzo dell’audit basato sull’etica per rendere operativa la valutazione della conformità

1.5 Come utilizzare questo documento

PARTE I – IL PROTOCOLLO

2 I requisiti previsti dall’AI in breve

2.1 Qual è l’obiettivo dell’AI?

2.2 Quali sistemi sono coperti?

2.3 Chi deve agire?

2.4 Quali azioni sono necessarie per conformarsi?

2.5 Quali sono le sanzioni per la non conformità?

3 La procedura di valutazione della conformità

3.1 Quando utilizzare questa procedura

3.2 Come usare CapAI

3.3 Gli output del processo CapAI

3.4 Attori chiave

3.5 Navigazione di alto livello

4 Protocollo di revisione interna

4.1 Fase 1: Progettazione

4.2 Fase 2: Sviluppo

4.3 Fase 3: Valutazione

4.4 Fase 4: Operazione

4.5 Fase 5: Pensionamento

5 Scheda tecnica riassuntiva

6 Scorecard esterna

6.1 Contenuto della scorecard esterna

6.2 Rappresentazione grafica della scorecard esterna

PARTE II – IL REFERENCE

7 Definizione del flusso di processo di AI

7.1 Definire lo sviluppo e il funzionamento dell’AI come processo

7.2 Le cinque fasi chiave del ciclo di vita dell’AI

7.3 La fase di progettazione

7.4 La fase di sviluppo

7.5 La fase di valutazione

7.6 La fase operativa

7.7 La fase di fine vita

8 La logica per l’audit basato sull’etica dei sistemi di AI

8.1 Prevalenza e modalità di fallimento dell’etica dell’AI

8.2 Valutazione della conformità e monitoraggio post-commercializzazione come previsto dall’AI

8.3 Ruoli e responsabilità in un ecosistema europeo emergente di revisione contabile

8.4 Il gap rimanente

9 L’attuazione dell’audit basato sull’etica

9.1 Introduzione

9.2 Definizione dei termini chiave

9.3 Sfondo

9.4 In che modo CapAI sfrutta la promessa di un audit basato sull’etica

9.5 Best practice per un’implementazione efficace

9.6 Gestione delle limitazioni e delle insidie e note

10 Osservazioni conclusive

Possiamo anche citare il lavoro di Kitty Kay Chan Professor of Professional Practice School of Professional Studies, Columbia University dal titolo: AUDITING ARTIFICIAL INTELLIGENCE, oppure A Guide to ICO Audit Artificial Intelligence (AI) Audits pubblicato da ICO, sempre pubblicato da ICO abbiamo: Guidance on AI audit framework, od anche Auditing Artificial Intelligence pubblicato da ISACA o anche Towards Auditable AI Systems pubblicato da Federal Office for Information Security.

Questi sono strumenti che possono aiutare sia l’auditor che chi implementa un sistema AI, ricordando che le check list e i tool sono solo un supporto ma è la persona che guida la verifica e che valuta i risultati.

L’Intelligenza Artificiale è una realtà che promette di trasformare non solo il modo in cui le imprese fanno affari che sicuramente toccherà ogni angolo della nostra società. L’intelligenza artificiale avrà un impatto di vasta portata anche sulla professione dell’auditor, data la necessità degli auditor di fornire garanzie sull’IA. Gli auditor dovrebbero chiedersi se le organizzazioni e i team di audit sono pronti per le difficili domande che circondano l’IA e l’approccio con cui deve essere verificata. Pertanto, in attesa di nuovi regolamenti o normative con specifici requisiti, utilizzando le linee guida attualmente disponibili per l’audit dell’IA, gli auditor. devono concentrarsi sui controlli e sulle strutture di governance in atto per determinare se stanno operando in modo efficace.

Articolo a cura di Stefano Gorla ed Attilio Rampazzo

Profilo Autore

Consulente e formatore in ambito governance AI, sicurezza e tutela dei dati e delle informazioni;
Membro commissione 533 UNINFO su AI;
Membro del Gruppo di Lavoro interassociativo sull’Intelligenza Artificiale di Assintel
Auditor certificato Aicq/Sicev ISO 42001, 27001, 9001, 22301, 20000-1, certificato ITILv4 e COBIT 5 ISACA, DPO Certificato Aicq/Sicev e FAC certifica, Certificato NIST Specialist FAC certifica,
Referente di schema Auditor ISO 42001.
Master EQFM. È autore di varie pubblicazioni sui temi di cui si occupa.
Relatore in numerosi convegni,

Profilo Autore

CISA CDPSE ITIL COBIT - Information Systems Consultant, Trainer & Auditor. Consulente di Direzione di Sistemi Informativi e di Sistemi di Gestione. Ha maturato un’esperienza pluriennale nello sviluppo e nella conduzione di progetti informatici in ambito bancario e finanziario, nei quali la qualità e la sicurezza hanno ricoperto un ruolo determinante e nello sviluppo e assistenza al mantenimento di Sistemi di Gestione per la Qualità, per la Sicurezza delle Informazioni, per l’IT Service Management e Continuità Operativa anche in modalità integrata.
Certificato AICQ SICEV Resp. Gr. Verifica ISO 9001-ISO/IEC 27001- ISO/IEC 20000-ISO 22301-ISO/IEC 42001.
Certificato AICQ SICEV RPT/DPO e Auditor Privacy (UNI 11697)
Referente schema Auditor ISO/IEC 27001 e ISO/IEC 20000
Referente schema Professionisti ICT (UNI 11621) e Professionisti Privacy (UNI 11697)
Socio ISACA Venice Chapter,

Condividi sui Social Network:

Articoli simili