L’Intelligenza Artificiale, come tutto ciò che è agli inizi, richiede apprendimento. Quindi, come si fa a insegnare a ChatGPT e ad altri LLM come operare? Investendo su formazione e addestramento

Gli appassionati di fantascienza sanno che di Intelligenza Artificiale (IA) si parla molto, e da tempo. Film, libri e persino i videogiochi la considerano una tecnologia avanzata che alimenta robot, cyborg, astronavi, e chi più ne ha più ne metta. Il punto centrale del mito dell’IA è che è in grado di pensare in modo indistinguibile da quello umano, pur operando con la velocità e l’intelligenza di un computer.

I Large Language Model (LLM), i modelli linguistici di grandi dimensioni che fanno un uso esteso della IA, promettono di rivoluzionare le interazioni personali e professionali. Per questo, stiamo osservando elevato interesse e finanziamenti incredibili per il loro sviluppo, e siamo solo all’inizio. Nello scenario business attuale, l’IA è vista come la chiave per sbloccare progresso tecnologico, vantaggio competitivo e, di conseguenza, redditività.

Quindi, è normale chiedersi: “E se l’IA potesse aiutare la mia azienda a…”.

  • Prendere decisioni migliori?
  • Operare in modo più efficiente?
  • Risparmiare sui costi?
  • Migliorare le relazioni con i clienti?

La buona notizia: può assolutamente fare tutto questo. La cattiva? L’intelligenza artificiale non è una risorsa gratuita. Per niente.

Il costo dell’IA

L’Intelligenza Artificiale, come tutto ciò che è agli inizi, richiede apprendimento. Quindi, come si fa a insegnare a ChatGPT e ad altri LLM come operare? In poche parole, investendo su formazione e addestramento. Come ogni supereroe.

Si riferisce che ChatGPT abbia utilizzato oltre 10.000 GPU per il suo addestramento (ora sappiamo dove sono finite tutte le schede grafiche negli ultimi due anni). E la GPU più potente del pianeta costa 30.000 dollari. Il che significa che ChatGPT ha avuto un’infanzia terribilmente costosa. Ma non è tutto. Si stima che il funzionamento di ChatGPT costi più di 700.000 dollari al giorno. Perché? Beh…

L’Intelligenza Artificiale richiede un’infrastruttura cloud

Se generare IA fosse semplice come sfruttare la potenza di pixel di Nvidia o AMD, la sua proliferazione avverrebbe a un ritmo ancora più elevato di quello attuale. Ma per fornire IA di livello elevato è necessario disporre di hardware e infrastrutture supplementari. Ciò significa server, molti, molti server. E non a caso, le aziende di oggi hanno la stessa necessità per soddisfare le loro esigenze di protezione dei dati. E a chi si rivolgono? Al cloud.

Proprio così: la stessa infrastruttura che protegge e salvaguarda i dati viene ora utilizzata per rendere l’IA disponibile a tutti. È alla base di LLM, machine learning e automazione, solo per citarne alcuni. Questi casi d’uso sono destinati ad aumentare esponenzialmente in quanto l’IA fa un grande utilizzo di potenza di calcolo e scalabilità. Poiché più le cose cambiano, più restano invariate, in questo caso si tratta di ridurre i costi dell’IA per garantire risultati positivi alle aziende.

Un ROI extra dalla piattaforma di protezione dei dati

L’evoluzione naturale di innovazione ed efficienza tecnologica prevede la sperimentazione al fine di trovare un modo per ottimizzare un caso d’uso nell’hardware (processori al silicio) e spostarlo nel software (ChatGPT) in modo che tutti possano trarne vantaggio. Seguendo questa logica, probabilmente si è già nel cloud e, più probabilmente, in più cloud. Per beneficiare di questo paradigma, è necessario implementare soluzioni economicamente vantaggiose che garantiscano l’integrità dei set di dati.

Un modo per farlo è utilizzare la Data Protection as a Service (DPaaS) per ridurre la spesa operativa per l’infrastruttura cloud e contribuire a sostenere i costi crescenti legati all’intelligenza artificiale. Si stanno già ottimizzando le attività in molti modi e questa metodologia si adatta naturalmente. Si tratta di un ciclo virtuoso: far crescere l’azienda utilizzando risorse esistenti per ridurre i costi, che vengono poi investiti nuovamente al suo interno.

Ridurre il TCO è solo l’inizio

Quando si parla di DPaaS, le aziende si concentrano giustamente sulla sicurezza, occupandosi del TCO (Total Cost of Ownership) in un secondo momento. Il TCO è di natura quantitativa, quindi può essere complesso sapere come valutare le dichiarazioni dei vendor. In fin dei conti, questi sono gli attuali punti di riferimento:

  • Deduplica e tiering dei dati: massimizzare l’efficienza dello storage e controllare i costi del cloud.
  • Storage cloud-nativo: i costi di storage dovrebbero sempre diminuire quando si utilizza un fornitore DPaaS insieme al provider cloud.
  • Monitoraggio e avvisi proattivi di ransomware: questo include anche la crittografia dei dati end-to-end e la loro immutabilità.
  • Protezione dei dati multi-cloud: le aziende devono utilizzare la tecnologia cloud più adatta alle proprie esigenze e i vendor devono offrire soluzioni DPaaS che le supportino.
  • Ampio gamma di workload: le aziende utilizzano un mix di risorse SaaS, IaaS e on-premise: la soluzione DPaaS deve supportarle tutte.
  • Solida reportistica: include analytics di conformità per restare aggiornati e affrontare in modo proattivo le richieste future.

Se si è in grado di offrire tutto questo, si è già sulla buona strada per ridurre il costo di investimento nella protezione dei dati ed è il momento di iniziare a pensare a come procedere e dove reinvestire questi risparmi.

La protezione dei dati potenziata dall’intelligenza artificiale offrirà innovazione continua, basata su machine learning e altri progressi guidati dalle esigenze delle aziende moderne. Poiché ci troviamo all’intersezione della sicurezza dei dati non solo nel cloud, ma anche on-premise, è necessaria una prospettiva unica su come potrebbe evolversi e la protezione dei dati rappresenta una rampa di lancio per le capacità di sfruttare l’IA, a costi contenuti.

di Mauro Palmigiani, Area Vice President South Western Europe di Commvault