“Adversarial Attacks” a modelli di Intelligenza Artificiale e Machine Learning: cosa sono e come difendersi – Andrea Pasquinucci

Oltre a poter essere oggetto di attacchi comuni a qualunque applicazione IT, i modelli di Intelligenza Artificiale e Machine Learning possono essere oggetto anche di attacchi specifici, denominati “Adversarial Attacks”, che mirano a sfruttare debolezze degli algoritmi o del loro utilizzo per fini personali, nocivi o comunque non autorizzati o previsti. Per difendersi da questi attacchi è innanzitutto necessario conoscerli, così da individuare possibili scenari di attacco applicabili ai modelli AI/ML utilizzati e implementare le opportune misure di sicurezza a mitigazione dei rischi.

ANDREA PASQUINUCCI, Cyber/IT Security Advisor and Senior Professional

Condividi sui Social Network:

Ultimi Articoli

ISCRIVITI ALLA NEWSLETTER DI ICT SECURITY MAGAZINE

Una volta al mese riceverai gratuitamente la rassegna dei migliori articoli di ICT Security Magazine

Rispettiamo totalmente la tua privacy, non cederemo i tuoi dati a nessuno e, soprattutto, non ti invieremo spam o continue offerte, ma solo email di aggiornamento.
Privacy Policy