Intelligenza Artificiale Generativa nel Ciclo di Intelligence OSINT - SANS

Intelligenza Artificiale Generativa nel Ciclo di Intelligence OSINT

L’intelligenza artificiale generativa ha assunto un ruolo cruciale nel ciclo dell’Open Source Intelligence (OSINT), rendendo fondamentali le scelte relative ai modelli da impiegare e alle loro modalità di utilizzo. In quest’ottica Dario Beniamini – SANS Institute OSINT Instructor, Senior Solutions Consultant presso NUIX, nonché CEO e Co-Fondatore di Intellexia Srls – ha presentato al 22°…

Manuel Roveri “Machine Learning e Homomorphic Encryption: Il Futuro dell'Intelligenza Artificiale Privacy-Preserving”, Forum ICT Security 2024

Intelligenza Artificiale Privacy Preserving: un Futuro per la Protezione dei Dati Sensibili

Durante il 22° Forum ICT Security, Manuel Roveri – Professore Ordinario presso il Politecnico di Milano e Co-founder di Dhiria s.r.l. – ha esplorato le prospettive future dell’Intelligenza Artificiale Privacy Preserving, con particolare enfasi sulle tecnologie emergenti per la tutela delle informazioni personali e aziendali. Nella relazione “Machine Learning e Homomorphic Encryption: Il Futuro dell’Intelligenza…

Jim Reavis – Cofondatore e Chief Executive Officer della Cloud Security Alliance (CSA) - AI Generativa, il suo impatto dirompente sulla Cybersecurity -

AI Generativa, il suo impatto dirompente sulla Cybersecurity

Durante il Forum ICT Security 2024, la presentazione “Generative AI’s Emerging Disruption of Cybersecurity” di Jim Reavis – Cofondatore e Chief Executive Officer della Cloud Security Alliance (CSA) – ha esplorato il ruolo cruciale dei professionisti della sicurezza informatica nel campo dell’AI generativa. La discussione ha incluso l’iniziativa in tema di AI security della CSA…

rischi Cyber al tempo dell’Intelligenza Artificiale

Valutare i rischi Cyber al tempo dell’Intelligenza Artificiale

I modelli di Intelligenza Artificiale (IA) e in particolare quelli di Machine Learning (ML), Predittivi, Generativi e “General Purpose” quali ad esempio i “Large Language Models” (LLM) come GPT, Bard/Gemini, LLaMA ecc., compaiono sempre più spesso all’interno delle applicazioni aziendali come componenti di applicazioni o per uso diretto. E’ necessario quindi valutare i rischi di…

Utilizzo dell’intelligenza artificiale nella cybersecurity dei sistemi industriali

Utilizzo dell’intelligenza artificiale nella cybersecurity dei sistemi industriali

L’articolo esplora come l’intelligenza artificiale stia influenzando la crescente sofisticazione degli attacchi cibernetici ai sistemi industriali nell’era dell’Industria 4.0, con un focus sui rischi che minacciano i sistemi di controllo industriale (ICS). Verranno analizzate le principali minacce informatiche che questi sistemi devono affrontare, mettendo in evidenza come l’adozione di tecnologie come l’intelligenza artificiale e l’Internet…

Aspetti tecnici degli Adversarial Examples

Aspetti tecnici degli Adversarial Examples

I recenti progressi nel campo dell’Intelligenza Artificiale (IA) e del Machine Learning (ML) hanno portato a significativi avanzamenti in numerosi settori applicativi. Tuttavia, la ricerca ha evidenziato una classe di vulnerabilità intrinseca a questi sistemi: gli Adversarial Attacks. Questi attacchi sfruttano le peculiarità dei modelli ML per generare input appositamente modificati, denominati Adversarial Examples, che…

Email Security e Intelligenza Artificiale

Email Security e Intelligenza Artificiale

Nei precedenti articoli, abbiamo esplorato in dettaglio vari aspetti della sicurezza delle email, trattando la “Struttura di una mail, Email secure gateway e relativo mail flow” e approfondendo “Email Security: I Protocolli di Sicurezza che garantiscono l’Autenticità, l’Integrità e la Riservatezza delle Comunicazioni“. Questi protocolli e strutture costituiscono il fondamento tecnico e operativo su cui…

Adversarial Machine Learning – Aspetti Scientifici

Adversarial Machine Learning – Aspetti Scientifici

L’Adversarial Machine Learning rappresenta uno degli ambiti più complessi e stimolanti nel contesto della sicurezza dei sistemi di machine learning. Questo campo si caratterizza per la necessità di comprendere e mitigare le diverse tipologie di attacchi che possono compromettere l’integrità, la sicurezza e l’affidabilità dei modelli di apprendimento automatico. Tali attacchi rappresentano una sfida significativa…

AIIA, lo strumento per una governance responsabile dell’Intelligenza Artificiale

AIIA, lo strumento per una governance responsabile dell’Intelligenza Artificiale

L’AI Impact Assessment (AIIA) rappresenta uno strumento fondamentale per garantire un’adozione responsabile dell’Intelligenza Artificiale. In un contesto sempre più influenzato dalla pervasività delle tecnologie AI, l’AIIA permette di identificare, analizzare e mitigare i rischi associati ai sistemi automatizzati, assicurando il rispetto di principi etici e normativi. Dalla progettazione fino all’implementazione, questo processo iterativo promuove trasparenza,…

ISO/IEC 42001: un sistema di gestione dell’intelligenza artificiale

ISO/IEC 42001: un sistema di gestione dell’intelligenza artificiale

Lo standard ISO/IEC 42001:2023 offre un quadro normativo per l’integrazione responsabile dell’IA nelle organizzazioni. Fornisce linee guida per la valutazione dei rischi, l’implementazione di controlli efficaci e la gestione etica dei sistemi IA. Armonizzato con altri standard internazionali, promuove l’innovazione responsabile, la conformità normativa e la fiducia degli stakeholder, posizionando le organizzazioni come leader nell’IA…