
F5 (NASDAQ: FFIV), leader globale nella distribuzione e nella protezione di ogni applicazione e API, ha pubblicato il report annuale State of Application Strategy (SOAS), che rivela come l’intelligenza artificiale abbia superato una soglia critica: non è più un’iniziativa sperimentale, ma un carico di lavoro in produzione che richiede lo stesso rigore operativo di qualsiasi sistema mission-critical.
La ricerca, basata sulle risposte di centinaia di responsabili IT e della sicurezza di aziende di tutto il mondo, mostra che il 78% delle organizzazioni gestisce oggi l’inferenza AI internamente: un chiaro segnale che le imprese stanno privilegiando il controllo rispetto alla comodità, man mano che l’intelligenza artificiale diventa centrale nelle operazioni di business.
I risultati emergono in un momento cruciale. Con il 93% delle organizzazioni attive su più cloud e l’86% che distribuisce applicazioni in ambienti hybrid multicloud, la complessità nella distribuzione e nella protezione dei workload AI ha raggiunto un nuovo punto di svolta.
“L’intelligenza artificiale è passata dalla fase sperimentale a quella operativa. La domanda ora non è se le aziende utilizzeranno l’AI, ma se saranno in grado di eseguirla in modo affidabile, sicuro e su larga scala”, ha affermato Kunal Anand, Chief Product Officer di F5. “I dati di quest’anno mostrano un chiaro cambiamento: l’inferenza AI sta diventando centrale per il business, il che significa che la delivery dell’intelligenza artificiale rappresenta ora una sfida di gestione del traffico, mentre la sua sicurezza rappresenta sempre più una sfida di governance e controllo. Le aziende che comprenderanno per prime questo cambiamento saranno quelle che si muoveranno non solo più rapidamente, ma in modo più sicuro”.
Principali risultati del report 2026
L’AI è una realtà operativa, non un esperimento
L’intelligenza artificiale non è più un esperimento “di facciata”, né una preoccupazione futura: è diventata una realtà operativa profondamente integrata nei risultati di business quotidiani. Le organizzazioni coordinano oggi in media sette modelli di AI in produzione, e il 77% segnala che l’inferenza – l’esecuzione di modelli addestrati per generare output – è diventata la principale attività AI, superando sviluppo e training dei modelli.
Questo cambiamento evidenzia una trasformazione nella governance operativa dell’intelligenza artificiale, che viene sempre più trattata come un workload gestito tramite policy, integrato nello stack applicativo e soggetto agli stessi requisiti di architettura, sicurezza e scalabilità degli altri sistemi in produzione.
Le strategie AI-as-a-Service sono già considerate rischiose
Le strategie AI-as-a-Service sono ampiamente riconosciute come rischiose e non perfettamente allineate alle realtà enterprise moderne. Solo l’8% delle organizzazioni si affida esclusivamente a servizi di AI pubblici. La grande maggioranza sta invece costruendo portafogli di modelli diversificati, che richiedono controlli avanzati di routing, fallback e policy per gestire costi, accuratezza e disponibilità.
Il multicloud ibrido è il nuovo standard di delivery
Ciò riflette la più ampia tendenza verso operazioni multicloud e multi-ambiente: il 93% delle aziende utilizza configurazioni multicloud e l’86% esegue applicazioni in ambienti on-premise, cloud pubblico e colocation. Allo stesso modo, i workload AI richiedono controlli avanzati di routing, fallback e policy per ottimizzare costi, accuratezza e disponibilità. Questo significa che una strategia unificata di delivery, sicurezza e governance tra i diversi ambienti è ormai essenziale per gestire la complessità delle moderne implementazioni di AI e applicazioni.
La gestione di infrastrutture così eterogenee deve inoltre essere accompagnata da un controllo preciso dei confini tra gli ambienti, per garantire integrazione fluida, enforcement coerente delle policy e una strategia di sicurezza unificata. Questo equilibrio riduce i silos, minimizza le interruzioni operative e mantiene la governance su larga scala, consentendo alle aziende di ottimizzare costi, accuratezza e disponibilità e di sfruttare appieno il potenziale dei sistemi hybrid multicloud per AI e applicazioni.
La sicurezza e la governance dell’AI sono ormai requisiti sistemici
Con l’ingresso su larga scala dei sistemi di AI in produzione, la sicurezza è diventata una priorità a livello enterprise. Il report evidenzia che l’88% delle organizzazioni ha affrontato sfide di sicurezza legate all’AI, mentre il 98% si sta preparando all’AI agentica – sistemi autonomi che richiedono identità, permessi e guardrail analoghi a quelli degli utenti umani.
Questo sposta il perimetro di sicurezza sui livelli di prompt, token e identità, rendendo i modelli tradizionali insufficienti e richiedendo obbligatoriamente una governance trasversale a ogni livello.
Prompt e token layer: i punti di controllo che guidano la delivery dell’AI
Il report evidenzia un cambiamento significativo nella gestione dei workload AI, con lo spostamento del controllo verso prompt, token e API. Quasi il 29% delle organizzazioni identifica i prompt layer come principale meccanismo di delivery, mentre il 23% privilegia i token layer per delivery e sicurezza.
La governance di questi livelli è fondamentale per ottimizzare costi, prestazioni e sicurezza, offrendo alle aziende un vantaggio competitivo rispetto a quelle focalizzate esclusivamente sull’infrastruttura.





























































