Prompt Injection: la vulnerabilità numero uno che minaccia l’AI mondiale
Nell’aprile 2025, i ricercatori di HiddenLayer hanno annunciato una scoperta che ha fatto tremare Silicon Valley: il primo attacco universale di prompt injection capace di violare tutti i principali modelli AI – da ChatGPT a Claude, da Gemini a Llama – con un singolo comando malevolo. Questa tecnica, denominata “Policy Puppetry”, rappresenta l’evoluzione più pericolosa…
