
Guardando al 2026, è evidente che il panorama della cybersecurity diventerà ancora più imprevedibile. L’anno che si sta chiudendo ora ha ridefinito il nostro modo di pensare sia alle minacce che alla difesa, guidato da rapidi progressi nell’AI generativa e nella Agentic AI, un ecosistema cloud sempre più complesso e la continua fusione di tattiche statali e criminali.
Dai rischi crescenti legati ai punti ciechi dell’AI, allo sfruttamento delle identità, all’evoluzione del phishing e alla geopolitica del conflitto cibernetico, la verità è semplice: chi sarà in grado di difendersi con maggior successo nel corso 2026 avrà compreso meglio gli esseri umani — e l’AI — che si nascondono dietro ogni minaccia.
Il 2026 sarà l’anno in cui visibilità, adattabilità e giudizio umano conteranno di più. L’AI amplificherà minacce e difesa, ma la sola tecnologia non sarà sufficiente. Il vero vantaggio verrà dalle persone — e dalla capacità di comprenderle, proteggerle e metterle in condizione di prendere decisioni più intelligenti in un mondo in cui attaccanti e AI si evolvono fianco a fianco.
Avvelenamento dei modelli e prompt injection diventeranno mainstream
Stiamo entrando in una fase in cui la vera prima linea di attacco non saranno più i firewall o gli endpoint — bensì le pipeline di addestramento. Gli avversari useranno dataset corrotti come nuova backdoor, dati sottilmente avvelenati che alimentano i modelli AI per comprometterne il comportamento a valle. Di conseguenza, la classificazione si sposterà dal semplice tagging dei file alla classificazione delle supply-chain di ML per integrità e affidabilità. I responsabili della sicurezza devono iniziare a considerare la pipeline di addestramento come un punto di controllo critico e applicare standard di supply-chain protection ai dati che alimentano ogni modello, prompt e agente.
Gli agenti AI diventeranno la nuova minaccia interna
Nel 2026, i copilot autonomi potrebbero superare gli esseri umani come principale causa di perdita di dati. Le aziende si stanno affrettando a implementare gli assistenti AI senza rendersi conto che ereditano gli stessi problemi di igiene dei dati già presenti nei loro ambienti. A causa di permessi eccessivi, documenti non classificati e regole di accesso obsolete, le cartelle SharePoint permetteranno a questi copilot di mostrare dati sensibili a utenti che non avrebbero mai dovuto avere l’autorizzazione a vederli.
Questi agenti AI non sono più semplici strumenti, ma diventeranno identità a pieno titolo, ognuno con una sua valutazione di fiducia, comportandosi come attori alla pari nell’ecosistema. Il vecchio modello di phishing sarà sostituito dai “prompt paths”, ovvero percorsi attraverso i quali un agente viene ingannato o indotto in errore a estrarre ed esporre dati. I team di sicurezza non si potranno più concentrarsi solo sugli attori umani, ma saranno costretti a trattare i loro agenti AI come identità di prima classe, gestendo i loro privilegi, monitorandone i comportamenti e valutandone i rischi.
Shadow Model Context Protocol si diffonderanno in ogni azienda
A breve, assisteremo all’emergere di server Model Context Protocol (MCP) locali non gestiti che agiranno come futura versione dello Shadow IT. Agent o endpoint di modelli non autorizzati si attiveranno, si connetteranno a LLM pubblici e inizieranno a ingerire dati aziendali in tempo reale al di fuori di qualsiasi governance o visibilità. A quel punto, la sola rilevazione diventerà insufficiente e le aziende dovranno auto-registrare ogni agente AI tramite un secure agent gateway prima che ottenga l’accesso. Il concetto di “bring your own model” si trasformerà in “bring your ungoverned model”, a meno che i meccanismi di governance non si evolvano per imporre auto-iscrizione e valutazione della fiducia in tempo reale di ogni MCP che tratta dati aziendali.
di Ravi Ithal, Chief Product e Technology Officer, AI Security di Proofpoint



















































