Massimiliano Galvagna, Country Manager per l’Italia di Vectra AI riflette sulle potenzialità dell’Intelligenza Artificiale nella cybersecurity; le aziende non conoscono ancora le capacità che essa racchiude.
Conoscete davvero l’influenza dell’AI? Ecco perché le aziende dovrebbero mettere in discussione le proprie soluzioni “alimentate dall’intelligenza artificiale”
L’Intelligenza Artificiale (AI) ha origini piuttosto recenti, con una storia ancora tutta da scrivere e definire. Si parte dagli anni Cinquanta nel Regno Unito, con il lavoro di decodifica portato avanti da Alan Turing durante la Seconda Guerra mondiale. Si prosegue poi con le prime teorie delle reti neutrali e con le prime applicazioni industriali negli anni Ottanta fino ai giorni d’oggi nei quali l’Intelligenza Artificiale è ormai al centro delle scelte tecnologiche di imprese e governi, nonché voce importante della vita quotidiana di tutti.
Tuttavia, quando si tratta di cybersicurezza, le organizzazioni non si pongono ancora le giuste domande sulle capacità dell’AI. Quando le aziende ingaggiano gli analisti di sicurezza, sono diversi i quesiti che andrebbero rivolti a questi professionisti: le capacità e i successi passati ma anche su come si vedono aggiungere valore nella loro nuova posizione. Ma allora perché quando le aziende decidono di affidarsi agli strumenti di AI per difendersi da gravi violazioni alla sicurezza non applicano la stessa due diligence?
Fraintendere l’Intelligenza Artificiale
Troppo spesso il termine “AI” viene associato a tecnologie “black-box” non meglio identificate che pretendono di essere una panacea per qualsiasi problema aziendale. Molte di esse sono costituite da algoritmi euristici (basati su regole e settori) che, pur mostrando una certa intelligenza superficiale, non rappresentano la vera AI. Questo uso improprio del termine ha portato a frequenti fraintendimenti e sensazionalismi mediatici, tra cui il recente licenziamento di un membro del team Responsible AI di Google per aver affermato che il framework di chatbot LaMDA (Language Model for Dialogue Applications) dell’azienda era senziente.
Facile, quindi, associare queste storie a quelle dei più coloriti incubi fantascientifici. Tuttavia, nel mondo reale, l’AI, come quella utilizzata per il rilevamento delle minacce, è soggetta alla due diligence come qualsiasi altra tecnologia. Per questo motivo, è fondamentale determinare se i sistemi “alimentati dall’AI” stiano effettivamente facendo ciò che sono chiamati a fare. Ad esempio, le soluzioni euristiche sono congeniali per segnalare anomalie ma mancano del contesto applicabile in cui le irregolarità vengono analizzate e classificate in modo appropriato. Affinché l’AI occupi il posto che le compete nel campo della cybersecurity, le soluzioni devono andare oltre alla semplice identificazione di una minaccia: devono essere in grado di dedurre gli obiettivi di un attaccante e di anticipare le metodologie di violazione. Quindi, per capire se una soluzione di cybersecurity “alimentata dall’AI” sta facendo esattamente ciò che ha promesso di realizzare, quattro sono le domande chiave che le aziende devono porre al loro fornitore.
1. Tipologia di soluzione di intelligenza artificiale
Una scansione delle anomalie offre solo una visione parziale se non è supportata da ulteriori informazioni. La vera intelligenza artificiale si avvarrà di informazioni esterne all’organizzazione di riferimento. I prodotti che si limitano a individuare le irregolarità non sono di grande utilità perché non tutte si riveleranno essere una minaccia e, al contempo, molte delle violazioni reali impiegano tempo nel contraffare il proprio comportamento come autorevole o innocuo. Le piattaforme di intelligenza artificiale tengono conto di queste problematiche mentre le soluzioni non basate sull’AI introducono ulteriori problematiche, aumentando il flusso di segnalazioni e facendo gravare l’onere investigativo sui team di sicurezza, che perdono di vista le minacce concrete. Le soluzioni di intelligenza artificiale analizzano i comportamenti e la cronologia per ridurre al minimo le false segnalazioni e fornire avvisi più contestuali e perseguibili.
2. Dove risiede
Se l’Intelligenza Artificiale viene considerata solo un’aggiunta a una soluzione e viene utilizzata solo per risolvere problemi accessori, le sue potenzialità potrebbero essere sprecate. Qualsiasi AI deve controllare i perimetri ma rispondere anche alle principali sfide di execution. Deve essere centrale per la funzionalità e la gestione di un sistema. In breve, conta molto dove viene implementata l’AI e dove opera.
3. Chi sono i progettisti
Anche uno sguardo ai team che hanno progettato la soluzione di intelligenza artificiale offre molte indicazioni. A che punto sono con la data science? Nella ricerca sulla sicurezza? Le abilità psicologiche? Molte discipline e competenze contribuiscono, infatti, alla progettazione di un’AI di valore. E vale la pena ricordare che anche le soluzioni di maggior valore devono essere “libere di esprimersi”. Per questo motivo, è necessario verificare i termini di assistenza del fornitore o del SI: sono in grado di supportare l’azienda a ottenere il meglio dal proprio investimento?
4. Scopo
Diffidate da una soluzione basata sull’AI proposta come cura per tutti i mali. L’intelligenza artificiale non è onniveggente e non è nemmeno in grado di fare tutto. L’Europa è stata protagonista della più grande migrazione tecnologica collettiva della storia. Sono sorte nuove complessità: cloud ibrido, multi-cloud, una proliferazione di reti poco noti di terze parti e di endpoint non autorizzati, nonché la crescente adozione di SaaS e PaaS. Come sempre, l’eccesso di promesse soprattutto in un periodo particolarmente critico e pressante per la security fa sì che sempre più organizzazioni cedano alla tentazione di queste panacee. La strada migliore da percorrere è quella dell’esperienza, dell’agilità e della disponibilità all’iterazione. Con il tempo, la vera AI darà prova delle sue potenzialità, mettendo a nudo la debolezza di chi ha fatto false promesse.
I tratti distintivi di un’autentica intelligenza artificiale
Ottimizzare la vera intelligenza artificiale per la protezione dalle minacce informatiche è un’arte sottile. Un’AI corretta, ben gestita e ben compresa è, attualmente, lo strumento più efficace per identificare i metodi di attacco più recenti ed evoluti, escludendo le anomalie benigne e facendo risparmiare tempo prezioso ai team di sicurezza. La vera AI può consentire alle aziende di essere un passo avanti rispetto agli attaccanti.
di Massimiliano Galvagna, Country Manager per l’Italia di Vectra AI