In molte realtà italiane, inoltre, sono ancora gli strumenti di Business Intelligence tradizionale ad essere diffusi in maggioranza, ma la materia prima, il dato, è invece sempre più presente. Tuttavia, nelle realtà Top e Medio grandi dove si sono concluse le prime sperimentazioni, i risultati si sono dimostrati incoraggianti, anche se a forte impatto di budget.

Intelligenza Artificiale

In attesa di sapere se una tassa sui robot possa in futuro diventare realtà, una proposta avanzata da Bill Gates e per ora saldamente negata dall’Unione Europea, il clamore intorno alle potenzialità dell’intelligenza artificiale rimangono alte. Nel portfolio di investimenti in Innovation Accelerator con priorità medio-alta a supporto del Business, i progetti legati a Cognitive Computing ed AI si collocano al primo posto relativo (27%).

Come acceleratore d’innovazione, l’AI si sta caratterizzando sempre più come la tecnologia fondante in ambiti così diversi come le auto a guida autonoma e gli algoritmi di trading in ambito finanziario, fino ai sempre più diffusi chatbot per l’assistenza alla clientela.

Altri ambiti comprendono l’utilizzo della robotica per l’automazione di processi umani ripetitivi in ottica Impresa 4.0 nel settore manifatturiero, la traduzione dal linguaggio naturale e l’interpretazione e conversione di testo (dato destrutturato) in segnali (dato strutturato), utile in particolar modo in tutto il settore dei servizi, oppure l’offerta e la selezione di contenuti, offerte e notizie personalizzate per una migliore customer experience sui canali digitali.

Molti degli avanzamenti in ambito Artificial Intelligence sono dovuti all’aumento della potenza di calcolo, ma anche allo streaming di dati ottenuto da dispositivi e sensori interconnessi. La crescente convergenza delle tecnologie lega strettamente diversi paradigmi tecnologici, così, i Big Data costituiscono la materia prima per lo sviluppo di algoritmi di successo in ottica intelligenza artificiale, dal momento che quest’ultima si “nutre” di dati.

Nell’era dei Big Data, la maggior parte delle organizzazioni raccoglie dati strutturati e destrutturati in una quantità e varietà fino ad ora inedita per la società umana, e i cui avanzamenti stessi della tecnologia spesso faticano a tenere il passo. Le promesse dell’intelligenza artificiale sono di muoversi oltre i limiti per analizzare e correlare dati su vasta scala, ”simulando” le capacità del cervello umano. Proprio il termine “intelligenza” in “intelligenza artificiale” indica l’abilità di “pensare” e apprendere autonomamente in maniera direttamente proporzionale al numero d’informazioni verso cui si è esposti, adattandosi al cambiamento (Machine Learning).

Ma quali sono le condizioni affinché un pilot o un prototipo in ambito intelligenza artificiale possa fornire risultati positivi? Ovviamente, la quantità di dati su cui sviluppare il proprio percorso di autoapprendimento: più i Big data saranno “big”, migliore sarà l’intervento. Non solo, anche la qualità e l’accessibilità del dato sono considerazioni fondamentali da tenere in considerazione. Disponibilità e facilità di accesso ai dati costituiscono quindi considerazioni preliminari quando si valuta la possibilità d’introdurre un paradigma d’intelligenza artificiale all’interno dei propri sistemi. D’altra parte, il progetto di AI può diventare un abilitatore per la definizione di una strategia di gestione dei dati a livello organizzativo, anche se diverse sono le criticità a livello organizzativo che devono essere superate.

Difficilmente un progetto di AI e Machine Learning mostrerà tutte le sue reali potenzialità in mancanza di processi, strutture e risorse adeguate, anche in ambito Big data management. In imprese non native digitali, anche a livello internazionale, raramente la struttura organizzativa e decisionale ha seguito il modificarsi della tecnologia di analisi dei dati. Iniziative in cui si introducono strumenti per la ridefinizione del pricing di un prodotto tramite l’analisi di dati in tempo reale possono non fornire il loro pieno contributo all’organizzazione, se i processi decisionali in azienda non sono altrettanti veloci ed allineati con le informazioni ottenute.Senza contare il coinvolgimento del Top Management, che da un’analisi del dato di tipo prescrittiva spesso o desidera risultati “immediati” e chiaramente interpretabili, pensando di demandare quindi il processo di decision making strategico alla “macchina”, o in parte per diffidenza e timore di vedere ridefinito il proprio ruolo professionale, preferisce continuare a basare le proprie decisioni in base alla propria esperienza manageriale.

In molte realtà italiane, inoltre, sono ancora gli strumenti di Business Intelligence tradizionale ad essere diffusi in maggioranza, ma la materia prima, il dato, è invece sempre più presente. Tuttavia, nelle realtà Top e Medio grandi dove si sono concluse le prime sperimentazioni, i risultati si sono dimostrati incoraggianti, anche se a forte impatto di budget.

Ci aspettiamo tuttavia che la crescente curva di consumerizzazione della tecnologia porterà nel medio periodo alla sempre maggiore diffusione del paradigma Intelligenza Artificiale, potenzialmente causando un reskilling delle risorse umane. Nel frattempo, attenzione alla gestione dei standardizzazione dei grandi dati aziendali in un ecosistema aziendale condiviso.

Fonte Assintel