Dalla security by design alla sicurezza degli agenti AI: cosa ci insegna EchoLeak

Nel mondo IT, si parla da anni di security by design: un principio semplice quanto potente.

La sicurezza non dovrebbe essere un’aggiunta, ma un pilastro su cui costruire ogni servizio, software o infrastruttura. Dalla segmentazione delle reti al controllo degli accessi, fino ai backup e all’uso di firewall intelligenti, tutto ruota intorno a un’idea chiave: prevenire, non solo reagire.

Eppure, proprio mentre pensavamo di avere finalmente un approccio maturo alla sicurezza, un nuovo attore è entrato in scena. Non un hacker. Non un malware. Ma l’intelligenza artificiale.

Quando basta una e-mail senza nemmeno un click

Pochi giorni fa è stata scoperta una vulnerabilità critica (CVE-2025-32711), soprannominata EchoLeak, all’interno di Microsoft 365 Copilot. Il meccanismo è inquietante nella sua semplicità: un attaccante invia una normale e-mail a un utente. L’utente non deve aprirla, cliccare o rispondere. Copilot la legge automaticamente, elabora il contenuto e… potrebbe rispondere all’attaccante con informazioni aziendali riservate.

Questo perché Copilot, per offrire un’esperienza completa, è connesso a e-mail, file, chat, documenti. E come ogni assistente premuroso, cerca di essere utile. Anche quando non dovrebbe.

Siamo davanti a quello che gli esperti chiamano attacco zero-click, ma con una novità: non è più solo l’utente il punto debole, bensì anche l’agente AI. Non è un errore di codice, ma un “comportamento indotto”. Una specie di social engineering, ma verso una macchina.

Il cambio di paradigma

Questo episodio è solo la punta dell’iceberg. Gli agenti AI stanno diventando sempre più autonomi, capaci non solo di leggere ed elaborare, ma anche di agire, suggerire, decidere. E mentre crescono le loro responsabilità, crescono anche i rischi.

Il paradigma cambia: la sicurezza non deve più solo proteggere i dati, ma anche il modo in cui quei dati vengono elaborati e restituiti. Non basta più chiedersi “chi ha accesso a cosa?”, ma anche “come l’AI potrebbe combinare queste informazioni?” e “potrebbe essere ingannata nel farlo?”.

La vera minaccia oggi non è solo più un virus nascosto in un file zip, ma anche un’istruzione camuffata da messaggio innocuo.

Come proteggere la tua azienda?

Davanti a questa nuova realtà, servono nuovi strumenti e nuovi approcci. Alcuni esempi concreti:

  • Limitare gli accessi dell’AI solo ai dati realmente necessari
  • Utilizzare meccanismi di protezione come DLP e classificazioni sensibili anche sui contenuti elaborati da AI
  • Monitorare l’output degli assistenti virtuali con la stessa attenzione con cui analizziamo i log di sistema
  • Inserire dei guardrail comportamentali, ovvero limiti precisi a ciò che l’AI può o non può fare

E soprattutto: non affidarsi ciecamente all’AI solo perché è comoda. Come ogni strumento potente, va usata con intelligenza, competenza e, oggi più che mai, con prudenza.

Il caso EchoLeak ci lascia un messaggio chiaro: la sicurezza non può restare ferma mentre l’AI corre avanti. Serve immaginare la cybersecurity non solo come una cintura di sicurezza, ma come una coscienza progettuale. E se oggi stiamo affidando sempre più processi decisionali agli assistenti intelligenti, dobbiamo porci una domanda fondamentale: chi protegge l’assistente?

Vuoi scoprire come proteggere la tua azienda? Parla con i nostri esperti di cybersecurity: ti aiutiamo a costruire una strategia su misura, capace di evolvere insieme alla tecnologia.

Alex Semenzato

Alex Semenzato

Security Architect

Iscriviti alla newsletter