
Condividiamo un articolo di Marco Del Plato, Senior System Engineer Manager di Nutanix Italia relativo alle sfide legate ai progetti di IA aziendale. Un’analisi chiara su cosa rallenta l’adozione su larga scala e su come sbloccare il vero potenziale dell’Intelligenza Artificiale.
Buona lettura!
L’IA aziendale non è una questione esistenziale ma una sfida operativa
L’Intelligenza Artificiale viene spesso presentata alle aziende come una questione “esistenziale” e di sopravvivenza. Tuttavia, nonostante l’indubbio entusiasmo e i consistenti investimenti nella tecnologia, sembra che molti leader tecnologici non riescano ancora a gestirla e trattarla come una vera e propria applicazione aziendale.
Le evidenze ci sono già: molti progetti di IA aziendale non riescono a superare la fase sperimentale o pilota. Gartner prevede che oltre il 40% dei progetti di IA agentica saranno cancellati entro la fine del 2027, spesso a causa di controlli del rischio inadeguati e di un ritorno sull’investimento incerto.
Questo mancato decollo comporta uno spreco di investimenti e, nel lungo periodo, rischia di minare la fiducia nella tecnologia. Ne deriva un divario crescente tra le aziende che stanno compiendo con successo la transizione verso l’IA a livello aziendale e quelle che, invece, faticano a trarne valore. Un divario destinato ad ampliarsi ulteriormente con il passaggio dall’IA generativa all’IA agentica.
Naturalmente, è fondamentale avere una visione chiara per il successo dei progetti di IA, così come disporre dei dati necessari a definire una strategia distintiva per la propria impresa. Tutto ciò, unitamente a un investimento iniziale, può essere sufficiente per realizzare un progetto pilota di grande impatto.
Ma è davvero abbastanza per garantire il successo su scala enterprise? I dati di Gartner mostrano chiaramente di no.
Cosa manca allora? Cosa devono fare i leader tecnologici per assicurarsi che l’IA aziendale produca risultati concreti? La risposta è garantire la prontezza operativa per l’IA. In altre parole, la capacità di distribuire, gestire e scalare l’intelligenza artificiale, estendendola all’intera azienda.
Ciò significa impegnarsi concretamente affinché quello che nasce come un progetto pilota affascinante ma isolato venga integrato nell’intera azienda. Significa assicurarsi che l’IA operi su una piattaforma unificata, che comprende elaborazione, dati e governance. Una piattaforma replicabile in ogni ambito dell’azienda, che sia on premise, nel cloud o all’edge.
Il concetto di base non è certo nuovo. Implementare con successo qualsiasi carico di lavoro critico per il business — come un sistema ERP o CRM — richiede la stessa attenzione all’infrastruttura operativa sottostante.
Detto ciò, quando si tratta di farlo con l’IA aziendale, emergono sfide specifiche che meritano di essere evidenziate.
È facile pensare che l’infrastruttura per l’IA si riduca alle GPU, ma in realtà entrano in gioco anche memorie a elevata larghezza di banda, storage ad alte prestazioni e reti altrettanto veloci. A questi si aggiungono altri processori e acceleratori a seconda della fase del flusso di lavoro che si intende ottimizzare.
Soprattutto, l’infrastruttura — che sia on premise, nel cloud o ibrida — deve potersi adattare e scalare man mano che i progetti evolvono da piloti locali a implementazioni su scala enterprise. Per sua natura, l’IA tende infatti a essere molto più “pervasiva” rispetto ai tradizionali carichi di lavoro aziendali. Ma non si tratta solo di potenza di calcolo o di capacità di archiviazione. Nei progetti di IA aziendale, sicurezza e governance non sono negoziabili. I dati e i modelli proprietari di un’azienda rappresentano il cuore del suo valore futuro e devono essere protetti con la massima attenzione.
A complicare ulteriormente il quadro intervengono i temi della sovranità dei dati e delle regolamentazioni sull’IA, sempre più stringenti. I leader tecnologici devono poter garantire che i propri dati si trovino esattamente dove dichiarato e sapere con chiarezza chi può — e chi non può — accedervi.
Le potenzialità dell’IA sono illimitate ma lo stesso vale per i costi se l’infrastruttura sottostante non viene gestita in modo adeguato. Limitarsi a pagare per GPU e per l’energia necessaria ad alimentarle, lasciandole poi inutilizzate, non solo compromette il ritorno sull’investimento, ma mette anche in discussione gli impegni ESG dell’azienda.
Scalabilità operativa
I leader tecnologici devono pianificare fin dall’inizio come aumentare o diminuire la capacità. Allo stesso tempo, devono poter gestire e prevedere i costi, avendo la certezza che la piattaforma e gli strumenti a disposizione consentano di farlo in modo semplice ed efficace.
Ciò diventa ancora più cruciale con l’introduzione degli AI agent. È necessario garantire sicurezza, governance e conformità, anche quando gli agent accedono ai dati, li generano e prendono decisioni autonome. L’infrastruttura deve essere in grado di supportarli e di gestire i picchi di domanda che derivano dalle loro azioni. Occorre inoltre considerare la posizione delle risorse per ridurre la latenza nei carichi di lavoro di inferenza in tempo reale, mantenendo al contempo i consumi energetici entro limiti accettabili.
Solo quando tutti questi aspetti vengono presi in considerazione diventa chiaro cosa significhi essere operativamente pronti nell’era dell’intelligenza artificiale: una reale prontezza operativa richiede un approccio chiavi in mano all’IA, basato su una piattaforma full stack in grado di integrare GPU e gli altri acceleratori necessari. Deve comprendere servizi dati integrati, in grado di gestire l’intera gamma di formati richiesti dall’IA, insieme a controlli di sicurezza e governance adeguati.
La piattaforma dovrebbe supportare sia VM sia container, con capacità di orchestrazione. Correre per raggiungere l’operatività dell’IA è già una sfida significativa: nessuno desidera affrontare contemporaneamente una migrazione cloud-native.
I modelli LLM potrebbero non fornire sempre risposte ripetibili, ma l’infrastruttura su cui si basano l’IA generativa e quella agentica deve essere ripetibile e scalabile, affinché le aziende possano gestirla in linea con la domanda. Questo vale per il cloud, ma anche per soluzioni on premise ed edge.
Quando dispongono della piattaforma e degli strumenti giusti, i responsabili IT possono assicurarsi che il personale si concentri sull’ottimizzazione costante del valore degli investimenti in IA aziendale, invece di spendere tempo e risorse per trasformare un progetto pilota di successo in una strategia aziendale su larga scala.
Che l’obiettivo sia puntare tutto sull’IA o integrarla come parte di un più ampio set di strumenti, i responsabili IT devono considerare l’IA come una applicazione enterprise. Queste ultime richiedono infrastrutture di livello enterprise, capaci di supportarle fin dalla fase pilota, accompagnarle in produzione e prepararle al futuro. Solo così si può garantire la sostenibilità a lungo termine dell’azienda.
di Marco Del Plato, Senior System Engineer Manager di Nutanix Italia






























































