Intelligenza Artificiale Responsabile, cosa possono fare le imprese

Cefriel ai responsabile
  1. Home
  2. News
  3. Intelligenza Artificiale Responsabile, cosa possono fare le imprese

Cefriel, centro di innovazione digitale fondato dal Politecnico di Milano, ha pubblicato l’11 settembre il white paperIntelligenza Artificiale Responsabile – Cos’è, perché se ne parla, cosa devono fare le imprese?”. Il testo, scritto da Diego Ragazzi, esperto senior di Data Strategy Cefriel, scaricabile gratuitamente, vuole approfondire il tema dell’intelligenza artificiale responsabile, anche alla luce della discussione intorno ai rischi che questa può comportare per le persone.

Indice degli argomenti:

Perché si deve parlare di AI responsabile?

L’intelligenza artificiale è diventata in poco tempo un potente motore di trasformazione per il mondo delle imprese e per la società in generale. Il rilascio dell’interfaccia conversazionale ChatGPT è stato un evento che ha avuto un impatto dirompente, ben oltre la ristretta cerchia di specialisti del settore che per anni hanno sviluppato i modelli e le tecnologie alla base del suo straordinario successo. Governi e comuni cittadini hanno scoperto di navigare in un mare ignoto, dove non è chiaro quale rotta convenga seguire. Comprensibilmente, tutto ciò ha rinfocolato timori che sembravano sopiti e ha riproposto con prepotenza i grandi temi etici legati allo sviluppo dell’intelligenza artificiale.  Veicoli autonomi e assistenti virtuali personalizzati, solo per fare un paio di esempi, hanno dimostrato uno straordinario potenziale per migliorare la produttività, semplificare i processi e aprire possibilità senza precedenti. Tuttavia, con il proliferare della tecnologia, aumenta anche la necessità di garantire uno sviluppo responsabile, che non è solo un obbligo morale ma anche un imperativo strategico per le aziende. Affrontando attivamente questioni come la trasparenza, l’equità, l’affidabilità e la responsabilità, le aziende possono creare fiducia tra i collaboratori, i clienti e i partner commerciali, favorendo una percezione positiva della tecnologia.

WHITEPAPER

Cosa si può chiedere a ChatGPT? Scarica la guida 2023: consigli per l’uso, esempi ed opinioni
.a{fill:#0097b5;} Realtà virtuale
.a{fill:#0097b5;} Robotica

Cosa possono fare le imprese per arginare il rischio?

Secondo quanto riportato da Cefriel nel white paper, le imprese devono aumentare la consapevolezza interna: è necessario comprendere almeno le principali sfide etiche poste dai sistemi di AI, quali imparzialità, equità, autonomia decisionale, responsabilità, trasparenza, sicurezza, benessere sociale. Lavorare sulla cultura di fondo è importante anche per un altro motivo, legato a una tematica affine e parzialmente sovrapposta alla questione etica: l’accettazione dell’AI da parte dei dipendenti e collaboratori dell’impresa e, più in generale, dei cittadini.

Alfonso Fuggetta

“C’è un urgente bisogno di percorsi di awareness – sottolinea Alfonso Fuggetta, Amministratore Delegato di Cefriel – e per questo Cefriel ha presentato di recente un nuovo servizio che vuole accompagnare le imprese e le pubbliche amministrazioni nel fare una valutazione del rischio circa l’impatto delle soluzioni basate su AI, per pianificare processi e azioni mirati a fare della tecnologia un uso responsabile e a rendere i servizi e i prodotti offerti in linea con quanto già definito dall’AI Act. Non avviare fin da ora le azioni volte a sviluppare awareness e valutare i rischi connessi allo sviluppo e all’utilizzo dell’AI nelle imprese potrebbe vanificare gli investimenti pianificati”.

Un passo successivo consiste nel cominciare a mappare i casi d’uso, attuali e prevedibili, supportati da sistemi di AI, e fare una prima valutazione del “rischio etico”. Per le imprese che operano in Europa questo è un passo fondamentale, perché l’AI Act, il regolamento in lavorazione in seno all’Unione Europea per regolamentare l’utilizzo dell’intelligenza artificiale, adotta precisamente una prospettiva basata sul rischio.

Un approccio etico allo sviluppo e all’utilizzo dei sistemi di AI in azienda non è più da rimandare. Il rischio normativo, legale e di immagine legato allo sviluppo di iniziative di AI è già oggi elevato e non potrà che crescere in futuro. L’adozione di buone pratiche di sviluppo responsabile dell’intelligenza artificiale non solo consente di ridurre l’esposizione al rischio, ma permette di realizzare applicazioni e servizi di qualità, migliorandone accuratezza e prestazioni.

Il mercato dell’AI

Il valore complessivo del mercato dell’intelligenza artificiale – AI – crescerà del 19% nei prossimi tre anni secondo IDC. In Italia, secondo quanto riportato dall’Osservatorio Artificial Intelligence 2023 della School of Management del Politecnico di Milano, il mercato dell’AI nel 2022 ha raggiunto i 500 milioni di euro, con una crescita del 32% in un solo anno, di cui il 73% commissionato da imprese italiane (365 milioni di euro) e il 27% rappresentato da export di progetti (135 milioni di euro). Numeri che dimostrano come la diffusione dell’AI sia inarrestabile e porti un numero crescente di imprese a guardare con interesse a questa opportunità visto che, come afferma Gartner nel Gartner Hype Cycle for AI 2023, “l’adozione anticipata di queste innovazioni porterà a un significativo vantaggio competitivo”. Secondo lo stesso Osservatorio AI del PoliMI, il 61% delle grandi imprese italiane ha già avviato almeno un progetto di intelligenza artificiale e tra queste, il 42% ne ha più di uno operativo.