WebAssembly, Agentic AI, classificazione dei dati, AI Gateways e Small Language Models: ecco le tecnologie che s’imporranno nel prossimo anno

Filiera delle Telecomunicazioni

Oggi la complessità di una gestione IT ibrida sempre più dinamica, caratterizzata dall’adozione di cloud pubblici, da infrastrutture on-premises e, in molti casi, anche da Edge Computing, pone sfide di non poco conto che le varie aziende stanno affrontando. Lo scenario, caratterizzato da ambienti fortemente eterogenei, pone sfide significative nella gestione uniforme della sicurezza, della delivery e delle operazioni che comportano le nuove tecnologie.

In questo contesto altamente dinamico, quali saranno le tecnologie più rilevanti nel 2025?

Un team di esperti F5 ha individuato cinque trend chiave da tenere d’occhio

Tecnologia 1: WebAssembly

WebAssembly (Wasm) oggi offre un percorso per garantire la portabilità in ambienti multicloud ibridi, permettendo di distribuire ed eseguire applicazioni ovunque possa operare un runtime Wasm.

Ma Wasm non è solo una promessa di portabilità del codice. Garantisce vantaggi significativi in termini di prestazioni e sicurezza, aprendo anche nuove possibilità per arricchire le funzionalità delle applicazioni basate su browser.

Nel 2025, le principali evoluzioni di WebAssembly non avverranno nei browser bensì con il rilascio di WASI (WebAssembly System Interface) Preview 3, che introdurrà funzionalità async e streams, risolvendo problemi legati alla gestione dei dati in streaming in vari contesti, come ad esempio i proxy. WASI Preview 3 fornisce inoltre metodi di trasferimento dati più efficienti e permette un controllo più fine della gestione dei dati stessi. 

Inoltre, l’introduzione dell’async renderà più semplice la compatibilità tra linguaggi, permettendo interazioni fluide tra codice asincrono e sincrono, un aspetto particolarmente vantaggioso per i linguaggi nativi di Wasm. Con la stabilizzazione degli standard WASI, si prevede un’adozione sempre più ampia di Wasm, che metterà a disposizione degli sviluppatori strumenti avanzati e una piattaforma affidabile per realizzare app nuove e innovative.

Se Wasm riuscirà a superare alcune delle limitazioni delle tecnologie precedenti, potrà spostare le attuali difficoltà legate alla portabilità, che oggi interessano il 95% delle organizzazioni, verso altri livelli cruciali dello stack IT, come le operations.

A raccogliere questa sfida è l’AI generativa, insieme al futuro sempre più concreto dell’AIOps. Questa visione avanzata delle operazioni, dove cambiamenti e policy sono guidati da analisi basate sull’AI e supportate da una piena osservabilità dell’intero stack tecnologico, sta diventando realtà a un ritmo sorprendente grazie alla rapida evoluzione dell’AI generativa.

Oscar Spencer, Principal Engineer, F5

 

Tecnologia 2: Agentic AI

Gli agenti autonomi per la programmazione sono pronti a rivoluzionare lo sviluppo software, automatizzando attività chiave come la generazione di codice, il testing e l’ottimizzazione. Questi strumenti semplificheranno notevolmente il processo di sviluppo, riducendo il lavoro manuale e accelerando i tempi di completamento dei progetti. Inoltre, l’ascesa dei Large Multimodal Agents (LMAs) amplierà le capacità dell’AI oltre la ricerca testuale, permettendo interazioni più complesse e sofisticate.

Con l’impatto degli agenti di AI sull’evoluzione stessa di Internet, vedremo la nascita di infrastrutture di navigazione dedicate, “agent-specific”, progettate per garantire interazioni sicure ed efficienti con i siti web. Questo potrebbe trasformare settori come l’e-commerce, automatizzando attività complesse e offrendo esperienze online più personalizzate e interattive. Tuttavia, con l’integrazione crescente di questi agenti nella vita quotidiana, sarà fondamentale sviluppare nuovi protocolli di sicurezza e normative per gestire questioni come l’autenticazione, la privacy dei dati e l’uso improprio delle tecnologie.

Entro il 2028, si prevede che una parte significativa dei software aziendali integrerà gli agenti di AI, rivoluzionando i processi di lavoro e consentendo decisioni in tempo reale grazie a una generazione di token più rapida nei flussi operativi. Questa trasformazione porterà anche alla creazione di nuovi strumenti e piattaforme per lo sviluppo web basato sugli agenti.

Per sfruttare al massimo i vantaggi dell’AI, tuttavia, sono necessari grandi volumi di dati, il che rappresenta una sfida significativa, considerato che quasi la metà delle organizzazioni (47%) ammette di non avere una strategia definita per i dati destinati all’IA. La quantità di dati che un’organizzazione possiede – tra dati strutturati, non strutturati e metriche in tempo reale – è enorme e anche solo catalogarli richiede un investimento significativo.

Laurent Quérel, F5 Distinguished Engineer

 

Tecnologia 3: Classificazione dei dati

Circa l’80% dei dati aziendali risulta non strutturato: i modelli di IA generativa stanno emergendo come strumenti indispensabili per rilevare e classificare queste informazioni, raggiungendo tassi di accuratezza superiori al 95%.

Con il tempo, questi modelli diventeranno sempre più efficienti, richiedendo meno risorse e consentendo tempi di elaborazione più rapidi. Soluzioni come il Data Security Posture Management (DSPM), la Data Loss Prevention (DLP) e la Data Access Governance si baseranno sempre più sul riconoscimento e la classificazione dei dati sensibili, ponendo queste funzionalità al centro dei servizi di sicurezza. Inoltre, la convergenza tra servizi di rete e data delivery spingerà i vendor a consolidare le piattaforme, offrendo soluzioni complete, accessibili e facili da usare per rispondere alle esigenze in continua evoluzione delle aziende.

La crescente volontà delle organizzazioni di sfruttare l’AI generativa per migliorare produttività, automatizzare flussi di lavoro e creare contenuti sta dando vita a un nuovo modello architetturale per le applicazioni. Questo modello amplia la struttura tradizionale a tre livelli – client, server e dati – introducendone un nuovo dedicato all’IA, dove avviene l’inferenza.

James Hendergart, Sr. Dir. Technology Research, F5

 

Tecnologia 4: AI Gateways

Rappresentando l’evoluzione naturale degli API gateway, gli AI gateway sono oggi progettati per rispondere alle esigenze specifiche delle applicazioni di intelligenza artificiale. Così come i Cloud Access Security Brokers (CASB) garantiscono la sicurezza delle applicazioni SaaS aziendali, gli AI gateway si concentreranno sulle sfide specifiche dell’AI, come allucinazioni, bias e jailbreaking che possono causare divulgazioni indesiderate di dati. Con l’aumento dell’autonomia delle applicazioni AI, questi gateway dovranno offrire maggiore visibilità, governance e sicurezza della supply chain, proteggendo l’integrità dei set di dati di addestramento e dei modelli di terze parti che possono essere sfruttati come vettori di attacco.

La crescita delle applicazioni AI pone anche l’urgenza di affrontare sfide come gli attacchi DDoS (Distributed Denial-of-Service) e la gestione stessa dei costi, considerati gli elevati requisiti operativi rispetto alle applicazioni tradizionali. Inoltre, l’aumento della condivisione dei dati con le applicazioni AI per attività come la sintesi o l’analisi di pattern richiederà sistemi di protezione più avanzati contro i data leak.

In futuro, gli AI gateways dovranno supportare sia i reverse sia i forward proxy, con questi ultimi destinati a giocare un ruolo chiave nel breve termine, poiché il consumo di AI sta effettivamente superando la sua produzione. Saranno cruciali anche i middle proxy, che gestiranno le interazioni tra i vari componenti delle applicazioni AI, come i database vettoriali e i modelli linguistici di grandi dimensioni (LLM).

La natura in evoluzione delle minacce richiederà anche un cambiamento nell’approccio alla sicurezza. Con il crescente utilizzo di agenti automatizzati che agiscono per conto degli utenti, i modelli attuali di protezione dai bot dovranno evolversi per distinguere tra bot legittimi e malevoli. Gli AI gateways integreranno policy avanzate come l’autenticazione delegata, l’analisi comportamentale e il principio del privilegio minimo, seguendo i principi dello zero trust. Questo includerà policy basate sul rischio e una maggiore visibilità, garantendo che eventuali violazioni della sicurezza guidate dall’AI siano contenute in modo efficace, senza compromettere la governance.

Infine, una priorità sempre crescente sarà affrontare non solo i tradizionali problemi di sicurezza dei dati, come l’esfiltrazione o la perdita, ma anche le questioni etiche legate alle allucinazioni e ai bias dell’AI. Non sorprende che questi aspetti siano tra i rischi più rilevanti, evidenziati in quasi tutti i sondaggi sul tema.

Ken Arora, F5 Distinguished Engineer

 

Tecnologia 5: Small Language Models (SLMs)

Considerando le problematiche legate alle allucinazioni e ai bias, è impensabile ignorare l’uso crescente della retrieval-augmented generation (RAG) e dei Small Language Models (SLMs). La RAG si è rapidamente affermata come un pattern architetturale fondamentale per l’AI generativa.

Le organizzazioni che non stanno ancora integrando la RAG nelle loro strategie AI rischiano di perdere significativi miglioramenti in termini di accuratezza e rilevanza dei dati, specialmente per compiti che richiedono il recupero di informazioni real-time e risposte contestuali. Tuttavia, man mano che l’utilizzo dell’AI generativa si espande, si sta scoprendo che la sola RAG non è sufficiente a risolvere alcuni determinati problemi.

I limiti crescenti dei LLM, in particolare la loro mancanza di precisione quando si tratta di fornire informazioni precise e dettagliate su conoscenze specifiche di un settore o di un’organizzazione, stanno accelerando l’adozione degli Small Language Models. Sebbene i LLM siano estremamente potenti per trattare conoscenze generiche, spesso vacillano quando devono fornire informazioni accurate e dettagliate in settori specializzati. Qui entrano in gioco gli SLM, progettati per aree di conoscenza specifiche, consentendo di fornire risultati più affidabili e mirati. Inoltre, gli SLM richiedono molte meno risorse in termini di potenza e cicli di calcolo, rendendoli una soluzione più economica per le aziende che non necessitano delle vaste capacità di un LLM per ogni singolo caso d’uso.

Attualmente, gli SLM tendono ad essere specifici per settore, spesso addestrati su ambiti come la sanità o il diritto. Sebbene siano limitati a domini più ristretti, sono molto più facili da addestrare e implementare rispetto ai LLM, sia in termini di costi che di complessità. Con il crescente bisogno di soluzioni che si allineano meglio alle esigenze di dati specializzati delle aziende, ci si aspetta che gli SLM sostituiscano i LLM in situazioni in cui la RAG non è sufficiente a mitigare completamente le allucinazioni. Col tempo, ci aspettiamo che gli SLM diventeranno sempre più predominanti nei casi d’uso in cui alta precisione ed efficienza sono essenziali, offrendo alle organizzazioni un’alternativa più precisa ed efficiente in termini di risorse rispetto ai LLM.

Lori MacVittie, F5 Distinguished Engineer

Guardando al futuro: oltre i modelli transformer

I modelli transformer, pur essendo potenti, presentano delle limitazioni in termini di scalabilità, utilizzo della memoria e performance, soprattutto con l’aumentare delle dimensioni dei modelli AI.

Per questo motivo, sta emergendo un nuovo paradigma: la convergenza di nuove architetture di reti neurali con tecniche di ottimizzazione rivoluzionarie, che promettono di rendere l’AI accessibile su una varietà di applicazioni e dispositivi.

La comunità dell’AI sta già osservando i primi segnali di innovazioni post transformer nella progettazione delle reti neurali. Queste nuove architetture hanno l’obiettivo di superare le limitazioni dei modelli transformer attuali, mantenendo o migliorando le loro straordinarie capacità di comprensione e generazione dei contenuti.

Tra gli sviluppi più promettenti c’è l’emergere di modelli altamente ottimizzati, in particolare i Large Language Models a 1 bit. Queste innovazioni permettono significativi risparmi in termini di memoria e potenza di calcolo, mantenendo comunque buone performance nonostante una minore precisione.

L’impatto di questi sviluppi si rifletterà sull’intero ecosistema dell’AI. I modelli che in passato richiedevano risorse computazionali e di memoria considerevoli, ora saranno in grado di funzionare in modo molto più efficiente, riducendo i costi. Questa ottimizzazione darà il via a un cambiamento nelle architetture informatiche, con le GPU che potrebbero diventare specializzate nell’addestramento e nell’affinamento dei modelli, mentre le CPU gestiranno i carichi di lavoro di inferenza con nuove capacità.

Questi cambiamenti stimoleranno una seconda ondata di effetti incentrati sulla democratizzazione e sulla sostenibilità. Con la riduzione dei requisiti di risorse, l’AI diventerà accessibile a un numero sempre maggiore di applicazioni e dispositivi. Inoltre, i costi infrastrutturali si ridurranno significativamente, rendendo possibili capacità di edge computing che in precedenza erano impraticabili. Al contempo, la minore intensità computazionale porterà benefici ambientali grazie alla riduzione dei consumi energetici e dell’impronta di carbonio, rendendo l’AI più sostenibile.

Tutti questi sviluppi consentiranno capacità senza precedenti nei dispositivi edge, miglioreranno i processi real-time e renderanno l’integrazione dell’AI più sostenibile a livello economico e diffusa in sempre più settori. Lo scenario del computing evolverà verso soluzioni ibride che combineranno diverse architetture di elaborazione ottimizzate per carichi di lavoro specifici, creando un’infrastruttura AI più efficiente e versatile.

Kunal Anand, Chief Innovation Officer