“Adversarial Attacks” a modelli di Intelligenza Artificiale e Machine Learning: cosa sono e come difendersi – Andrea Pasquinucci

Oltre a poter essere oggetto di attacchi comuni a qualunque applicazione IT, i modelli di Intelligenza Artificiale e Machine Learning possono essere oggetto anche di attacchi specifici, denominati “Adversarial Attacks”, che mirano a sfruttare debolezze degli algoritmi o del loro utilizzo per fini personali, nocivi o comunque non autorizzati o previsti. Per difendersi da questi attacchi è innanzitutto necessario conoscerli, così da individuare possibili scenari di attacco applicabili ai modelli AI/ML utilizzati e implementare le opportune misure di sicurezza a mitigazione dei rischi.

ANDREA PASQUINUCCI, Cyber/IT Security Advisor and Senior Professional

Condividi sui Social Network:

Articoli simili