AI ACT, cosa si muove attorno all’iter legislativo

L’ultima notizia EU AI Act #35 pubblicata dal Future of Life Institute (FLI) l’Istituto composto da istituzioni di governance, industria e mondo accademico e da una pletora di professionisti/esperti in varie discipline tra cui scienze comportamentali, medicina, apprendimento automatico, ingegneria, diritto e design, offre degli spunti interessanti in ordine al decorso legislativo dell’AI ACT. Ora, senza ripeterci rispetto a quanto già pubblicato sul final draft, e rimandando più in generale ai già molteplici commenti/argomenti trattati al riguardo, ci limitiamo qui a snocciolare punto per punto della notizia soffermandoci sulle questioni più interessanti.

Indice degli argomenti:

Il documento sinottico

La newsletter esordisce con la notizia che il Parlamento europeo ha predisposto e messo a disposizione un documento sinottico, al 20 giugno 2023, che affianca le tre posizioni istituzionali di Commissione, Parlamento e Consiglio europeo sulla proposta di regolamento sull’intelligenza artificiale, con le norme già armonizzate, e in modifica di alcuni atti legislativi della UE.

In pratica, nella tavola in sinossi compare il testo originale della Commissione europea, la versione del Parlamento europeo e la posizione del Consiglio dell’UE con proposte di modifica ed emendamenti ad alcune parti, qua e là. Sarà interessante capire eventuali sviluppi futuri.

Il parere degli esperti

Esperti e studiosi dell’Imperial del College di Londra e dell’Università di Aarhus hanno redatto un contributo nel quale sostengono sostanzialmente che “la bozza della legge europea sull’intelligenza artificiale intende affrontare le preoccupazioni relative alle “tecniche subliminali” dannose utilizzate dai sistemi di intelligenza artificiale, ma manca una definizione chiara di questo termine”. Questi accademici, riunitisi a un tavolo, propongono una definizione più ampia volta a includere “…le manipolazioni problematiche senza sovraccaricare le autorità di regolamentazione o le aziende”. Prospettiva decisamente interessante, per ambo le parti e con le lenti di entrambi; e continuano affermando che “la legge riguarda le tecniche subliminali che influenzano le scelte delle persone […] in modi non consapevoli”. Da qui il divieto ai sistemi che impiegano tali tecniche a maggior ragione se è altamente probabile e verosimile che le stesse siano fonti di significativi danni.

Tuttavia, questo gruppo di studiosi ed esperti, dando anche il loro parere, ritengono che un tale divieto “…pur mirando a proteggere gli utenti, rischia di essere inefficace” vista l’indeterminatezza del perimetro definitorio circa le cd “tecniche subliminali”. Ecco che, secondo questi illustri accademici, dare “una definizione ristretta di queste tecniche come presentazione di stimoli subliminali può far trascurare molti casi di manipolazione” e quindi tanto di utile quanto di necessario dal momento che dette tecniche, in quanto tali, “mirano a influenzare il comportamento di una persona” e lo si ribadisca in modo inconsapevole e quindi rischioso. L’influenza o tentativo di essa che ne deriva sono tanto più nocivi rispetto agli effetti che questo meccanismo “…subliminale influenzante” determina sull’iter decisionale o sui processi di formazione di valori e convinzioni.

Il position paper

Da riportare anche il position paper che l’Ada Lovelace Institute ha pubblicato a inizio settembre nella parte relativa al “Briefing sulle politiche -Una legge dell’UE sull’IA al servizio delle persone e della società” evidenziando le cinque aree di interesse per i triloghi dell’AI Act.

Più nel dettaglio, il documento contiene alcune raccomandazioni tra cui:

  • istituire un ufficio per l’AI che si occupi di monitoraggio, previsione e indagini transfrontaliere oltre a fornire orientamenti e analisi sulle questioni emergenti grazie anche ai dialoghi con gli sviluppatori di modelli di base;
  • regolamentare i modelli di base a prescindere dal canale di distribuzione, imponendo revisioni da parte di terzi, divulgazione di cicli di formazione, valutazione di calcoli e capacità per il tramite di un meccanismo di reclamo;
  • imporre la mitigazione dei rischi e di un eventuale uso improprio in tutto il ciclo di vita del sistema di AI attraverso un ecosistema di ispezione, prevedendo l’accesso a ricercatori qualificati, oltre alla istituzione di un “istituto di benchmarking”;
  • mantenere e quindi consolidare un approccio normativo risk based con processi chiari di aggiornamento della legislazione, e garantire una regolamentazione a prova di futuro;
  • tutelare la cd. “rappresentanza delle persone colpite” rafforzando la protezione attraverso valutazioni d’impatto precedenti all’impiego di sistemi di AI.

In pratica, con questo recente briefing sono state aggiornate le raccomandazioni dell’Ada Lovelace Institute sull’AI Act. Il tutto, al fine di rispecchiare il rapido sviluppo delle tecnologie emergenti in materia (di AI).

AESIA, l’agenzia spagnola per la supervisione dell’AI

Proseguendo nell’analisi, altra notizia decisamente (più) interessante riguarda la posizione della Spagna che ha di recente annunciato l’approvazione dello statuto dell’Agenzia spagnola di Supervisione dell’Intelligenza Artificiale (AESIA), quale organismo di regolamentazione dell’AI, il primo d’Europa.

Sarà guidata da un team multidisciplinare di esperti di tecnologia, avvocati e studiosi di discipline umanistiche, con ampio mandato di monitorare e valutare gli impatti dell’AI sulla società. L’Agenzia avrà il compito, tra gli altri, di “creare protocolli di valutazione del rischio, algoritmi di audit e pratiche sui dati e stabilirà regole vincolanti che le aziende dovranno seguire per lo sviluppo e l’implementazione dei sistemi di intelligenza artificiale”. Insomma, una responsabilità non da poco, con il chiaro intento – talvolta magari anche scomodo – di creare e implementare i sistemi di AI.

Il documento politico

Altra notizia pertinente in questo iter legislativo dell’AI Act riguarda il policy paper pubblicato da alcune organizzazioni che sono dedite alla “cultura aperta” e all’AI, in cui emerge, in pratica, come l’AI Act abbia il potenziale per diventare il modello globale di regolamentazione dal momento che bilancia la gestione del rischio e la promozione dell’innovazione, ma ha ancora margini di miglioramento onde evitare di ostacolare l’intero ecosistema dell’AI.

Per tale fine, questo gruppo formula alcune “raccomandazioni” volte al raggiungimento dell’atteso miglioramento, e cioè citandoli testualmente:

  1. definire chiaramente i componenti dell’AI;
  2. chiarire che lo sviluppo collaborativo di componenti dell’IA open source e la loro disponibilità in archivi pubblici non sottopone gli sviluppatori ai requisiti dell’AI Act;
  3. sostenere il coordinamento e la governance inclusiva dell’AI Office con l’ecosistema dell’open source;
  4. garantire che l’eccezione per la R&S sia pratica ed efficace, consentendo test limitati in condizioni reali;
  5. stabilire requisiti proporzionali per i modelli di fondazione, riconoscendo e trattando in modo distinto i diversi usi e le modalità di sviluppo, compresi gli approcci open source”.

I due report di Meta

In penultima battuta, non può passare inosservato l’appello di Meta. In particolare, alcune prime linee (Director of AI Policy, AI Policy Manager, AI Policy Program Manager) si sono occupate di pubblicare gli ultimi due rapporti dei cinque complessivi, sull’AI Act, facendo “un esperimento di prototipazione delle politiche, verso interazioni informate con l’intelligenza artificiale: valutazione dell’impatto della notifica; stili sulla consapevolezza e fiducia dell’utente” nel più ampio progetto di “…Open Loop”. Nel primo rapporto è stato testato l’articolo 52a) circa gli “obblighi di trasparenza per i sistemi di AI interagenti con gli individui”, analizzando un campione di quasi 500 (469) partecipanti i quali avrebbero risposto a un sondaggio sui sistemi alimentati dall’AI, grazie a un chatbot e un’app di notizie dai diversi stili di notifica (nessuna notifica, notifica integrata nel contenuto e banner di notifica), è emerso come la comprensione di una notifica da parte dei partecipanti non abbia influenzato in modo significativo il loro senso di controllo e fiducia nelle applicazioni di AI testate.

In pratica, osservando gli atteggiamenti comportamentali l’influenza dell’AI non sarebbe preoccupante. Mentre nel secondo rapporto, sempre del giugno 2023 e nella materia che ci occupa, ma con riguardo alla “Supervisione umana, trasparenza e rischio; Requisiti di gestione nella legge sull’AI”, è stato riassunto “un esercizio di prototipazione di politiche che valuta la gestione del rischio e la trasparenza nella legge”. Il tutto al fine di “valutare la chiarezza e la fattibilità di requisiti specifici” per le aziende nel settore dell’AI. Ciò che è emerso principalmente è stato che le aziende necessitano di ulteriori linee guida tecniche e di standardizzazione per essere conformi all’AI Act. Le predisporranno?

L’overview e l’approccio dei tedeschi

Altra notizia interessante arriva dal fronte tedesco. A tal proposito, degna di nota è una overview di come i partiti politici tedeschi siano divisi sul punto e come, alla luce di ciò, riuscire a regolamentare l’AI. Nella fattispecie, pare che Die Linke, il partito di sinistra, proponga “un controllo rigoroso da parte di un’Autorità di vigilanza per i sistemi di AI ad alto rischio prima del lancio sul mercato”, mentre il partito di centro-destra (Unione), intende dare priorità alla promozione di un ambiente favorevole all’innovazione opponendosi all’istituzione di un’unica grande Autorità di vigilanza, a Bruxelles.

Insomma, due visioni opposte l’una favorevole a un solo centro di controllo, sì rafforzando il divieto di identificazione biometrica negli spazi pubblici, l’interferenza elettorale guidata dall’IA e la polizia predittiva; l’altra contraria a un solo “centro di comando” con una visione più blanda in favore di un digital ambient tutto proteso all’Innovation più pura. Quasi come se fossero due coalizioni l’una di “burocrati” con rispetto parlando, e l’altra di “tecnici” forti.

Ecco che a fronte di ciò, è bene ricordare come il governo tedesco, pur sostenendo l’AI Act, intenda sì trovare un giusto equilibrio tra “regolamentazione e innovazione, cercando di apportare miglioramenti e sostenendo la creazione di ambiziosi banchi di prova per l’AI durante i negoziati del trilogo”. Insomma, l’unione fa la forza.

L’AI Act guardando al futuro

Giunti al termine di questo breve excursus di notizie dell’FLI, offriamo in linea conclusiva alcuni nostri spunti di riflessione guardando al futuro. Pur rendendoci conto che le questioni sia qui toccate che quelle più in generale che corrono nel web, rimangano ad oggi sospese anche in considerazione di una normativa non ancora definitiva, è indubbio però che la legge sull’AI della UE, pur essendo ambiziosa e completa, è chiamata ancora ad affrontare una serie di sfide.

Così come dimostrato dalla lettera aperta delle aziende europee, persiste una reale preoccupazione che le norme proposte possano imporre costi di conformità eccessivi e rischi di responsabilità ancora troppo elevati.

Il potenziale divario di produttività con gli Stati Uniti, laddove la normativa sull’AI è meno rigida, è un’altra preoccupazione non da poco per le aziende del nostro continente.

Sam Altman, Ceo di OpenAI, ha proposto la formazione di un’agenzia statunitense – se non anche di vocazione mondiale – per concedere licenze ai sistemi di AI e garantire standard di sicurezza. La sua proposta evidenzia quindi la necessità di un coordinamento e di una cooperazione globale nella regolamentazione dell’Intelligenza Artificiale, onde evitare un potenziale e cd “arbitraggio normativo”.

Nei prossimi mesi (si spera non anni) con il proseguimento dei lavori preparatori, sarà fondamentale che legislatori, sviluppatori di AI e pubblico in generale si impegnino ad avere un dialogo aperto e inclusivo, mirando a trovare un equilibrio tra: la promozione dell’innovazione, la protezione dei diritti dei singoli individui e le considerazioni etiche.

Con l’evolversi del dibattito sull’AI Act, è chiaro ed evidente che sia solo l’inizio di un lungo viaggio verso una regolamentazione globale in materia di AI; in un’epoca in cui questa sta diventando una forza sempre più pervasiva nelle nostre vite, ecco che un approccio ponderato, equilibrato e informato alla regolamentazione dell’AI è quanto mai necessario.