Lo studio di ESG evidenzia la necessità di migliorare la governance, la trasparenza e la collaborazione in materia di IA

AI responsabile

Un’importante studio dell’Enterprise Strategy Group (ESG) di TechTarget ci vuole oggi aiutare a far luce sullo stato dell’IA responsabile in tutti i settori in cui viene adottata. La ricerca mette in evidenza l’urgenza di punti fermi etici solidi, operazioni di IA trasparenti e una collaborazione intersettoriale per affrontare le complessità dell’integrazione dell’intelligenza artificiale nei diversi processi aziendali.

Sfide nell’acquisire un’AI responsabile

Il report di ESG evidenzia importanti dati sull’adozione, sulle sfide e sulle iniziative strategiche relative all’IA responsabile:

Diffusione dell’adozione di intelligenza artificiale: uno schiacciante 97% delle aziende intervistate si sta impegnando attivamente nell’adozione dell’intelligenza artificiale, con una parte significativa (74%) che sta già incorporando tecnologie di IA generativa nella produzione. Ciò segna un notevole spostamento verso operazioni guidate dall’IA in tutti i settori.

Divario tra investimenti e strategie: nonostante tutti gli intervistati dichiarino di aver investito nell’IA, un 61% ha dedicato un budget significativo a questa tecnologia. Tuttavia, rimane una notevole discrepanza nella pianificazione strategica, con il 74% delle organizzazioni che ammette di non avere ancora un approccio completo a livello di organizzazione per una IA responsabile.

Sfide nelle pratiche etiche di intelligenza artificiale: il rapporto evidenzia diverse sfide chiave affrontate dalle aziende, tra cui:

  • L’86% dei rispondenti dichiara di affrontare sfide per garantire trasparenza e spiegabilità nei sistemi di IA, evidenziando la necessità critica di soluzioni che demistifichino i processi di IA.
  • Quasi tutte le organizzazioni (99%) affrontano ostacoli per essere conformi alle normative e agli standard dell’IA, sottolineando così il complesso panorama normativo che circonda le tecnologie di IA.

Impatto operativo e prioritizzazione dell’IA responsabile: nonostante le sfide, ben il 74% delle organizzazioni considera l’IA responsabile sempre più importante, una priorità assoluta. Tuttavia, oltre un quarto delle organizzazioni ha riscontrato un aumento dei costi operativi, controlli normativi e ritardi del mercato a causa di misure di IA responsabile inadeguate.

Coinvolgimento degli stakeholder nel processo decisionale dell’IA: la ricerca pone l’accento su un ampio panorama di stakeholder nell’ambito dell’IA responsabile, in particolar modo sul ruolo proattivo dei dipartimenti IT. Ciò evidenzia la necessità di approcci inclusivi e collaborativi nell’implementazione e nella governance etiche dell’IA.

Gli artefici di un’innovazione responsabile

 Michael Leone, Principal Analyst di ESG, ha commentato: “La nostra ricerca conferma la crescente adozione dell’IA in tutti i settori, ma evidenzia anche una lacuna nell’implementazione efficace di pratiche di IA responsabili. Man mano che all’interno delle organizzazioni aumentano le iniziative di intelligenza artificiale, la necessità di una solida base che supporti le linee guida etiche e una solida governance dei dati diventa cruciale. Questa ricerca mira a guidare le imprese nella promozione di un’innovazione responsabile che sia in linea con gli obiettivi di business e con gli standard etici”.

Brendan Grady, General Manager, Analytics Business Unit di Qlik, ha dichiarato: “La ricerca di ESG conferma la nostra idea che l’adozione dell’IA vada oltre la tecnologia: si tratta di garantire una solida base di dati per il processo decisionale e l’innovazione. In Qlik, consentiamo alle aziende non solo di implementare l’intelligenza artificiale, ma anche di integrarla in modo significativo, allineandosi con i loro obiettivi strategici. Questo studio sottolinea l’importanza di un’integrazione responsabile dell’IA come catalizzatore per una crescita organizzativa sostenibile e di impatto”.