Alessio Mercuri di Vectra AI condivide i tre problemi principali derivanti dall’uso di ChatGPT e spiega come l’azienda ne monitora l’utilizzo.

ChatGPT

Alessio Mercuri, Security Engineer di Vectra AI, evidenzia i rischi per il business legati all’uso di LLM (Large Language Model) come ChatGPT e spiega in che modo la Network Detection and Response (NDR) si rivela utile anche per monitorare il ricorso a questi sistemi da parte dei propri dipendenti.

ChatGPT, i rischi per il business e come prevenirli

Da quando è tornata online anche in Italia, dopo il blocco iniziale disposto dal Garante della privacy, ChatGPT è diventata rapidamente uno strumento utilizzato anche sul lavoro, non solo come passatempo, ma come vera e propria risorsa cui attingere per svolgere alcune mansioni in modo più rapido ed efficace. L’avvento del chatbot di OpenAI ha infatti rivoluzionato la comune percezione dell’AI, che oggi viene sempre più spesso considerata uno strumento accessibile, facile da usare e utile per avere risposte in tempi rapidi.

I 3 problemi principali

Tuttavia, come hanno rilevato gli esperti di Vectra AI, a livello aziendale il ricorso a strumenti come ChatGPT pone almeno tre problemi. Il primo ha a che fare con la protezione delle informazioni: tutti i dati inviati a ChatGPT vengono memorizzati da OpenAI per scopi di qualità e tracciamento. OpenAI tiene traccia cioè delle informazioni fornite dagli utenti per poter migliorare le risposte e per monitorare eventuali abusi del sistema. Ciò appare ragionevole dal punto di vista dell’applicazione, ma non sappiamo come vengano trattate queste informazioni, che potrebbero contenere dati sensibili o riservati.

Il secondo problema è che ChatGPT risponde alle domande senza citare le fonti delle sue risposte. Il chatbot rilascia dichiarazioni basate sui risultati delle sue ricerche e che potrebbero perciò contenere informazioni protette da copyright, senza che ciò sia segnalato in alcun modo dall’applicazione. Gli LLM (Large Language Model) come ChatGPT non sono infatti tenuti a effettuare controlli sulla proprietà intellettuale delle proprie risposte, con l’effetto di rendere potenzialmente perseguibili gli utenti che le utilizzano.

Tuttavia, il problema più grande di ChatGPT è rappresentato da quelle che in gergo vengono chiamate “allucinazioni”, ovvero gli errori grossolani contenuti nelle risposte che dipendono dai limiti stessi della tecnologia e dal bagaglio limitato di conoscenze su cui si fonda. Poiché non c’è alcuna trasparenza su come ChatGPT formuli le sue risposte, sono gli utenti a doverle analizzare criticamente per valutarne l’attendibilità. Gli LLM rispondono sempre con assoluta sicurezza, anche quando le risposte sono in parte o del tutto sbagliate.

Per evitare di incorrere in questi problemi, molte organizzazioni stanno adottando policy interne che vietano l’uso di OpenAI senza approvazione dell’azienda. Tuttavia, è difficile garantire il rispetto di queste regole, dal momento che per accedere a ChatGPT basta un browser crittografato. Come fa, dunque, un’azienda a sapere se i suoi dipendenti stanno usando il chatbot?

Vectra NDR monitora l’uso di ChatGPT

Vectra AI è in grado di rilevare questa attività. La piattaforma Vectra NDR è progettata infatti per monitorare tutto il traffico di rete dell’organizzazione, con sensori accuratamente posizionati che monitorano il traffico in entrata e in uscita, ma anche all’interno della rete stessa. Questa profondità di analisi alimenta il framework di rilevamento basato sull’intelligenza artificiale di Vectra e consente anche di ottenere importanti informazioni in materia di compliance, che abbiamo raccolto nella ChatGPT Usage Dashboard.

Questa dashboard, disponibile gratuitamente per tutti i clienti della piattaforma Vectra, mostra gli host dell’ambiente aziendale che stanno interagendo attivamente con OpenAI, monitorando le richieste DNS ai server OpenAI effettuate da qualsiasi host. Ciò consente ai responsabili aziendali di avere a disposizione rapidamente non solo un elenco di persone che hanno un account con OpenAI, ma di monitorare attivamente chi sta utilizzando il sistema e quanto lo sta utilizzando.

Questa dashboard è resa ancora più potente dalla tecnologia di attribuzione dell’ID host brevettata da Vectra, che consente di tracciare gli utenti in modo approfondito. Anche quando gli indirizzi IP delle macchine cambiano o un laptop si unisce a una nuova rete, Vectra lo traccia come se si trattasse della stessa macchina, in modo che la dashboard mostri esattamente la frequenza di accesso a ChatGPT da parte di un dispositivo. Ciò consente anche di individuare il probabile utente. Grazie alla ChatGPT Usage Dashboard di Vectra, è possibile vedere quali host stanno utilizzando ChatGPT e sapere anche chi contattare in pochi minuti.

di Alessio Mercuri, Security Engineer di Vectra AI