Il punto di Alessandra Santacroce, direttrice degli affari istituzionali di Ibm

«LE AZIENDE RESPONSABILI NON ASPETTANO LA REGOLAZIONE DELL’AI, SERVE UN APPROCCIO ETHIC BY DESIGN»

L’AI e in particolare l’AI generativa corrono, molto di più della regolazione che talvolta stenta a seguire le innovazioni. In questo contesto, le aziende responsabili, afferma Alessandra Santacroce, direttrice degli affari istituzionali di Ibm, «non aspettano le regole per comportarsi eticamente». Quello che serve, spiega a DigitEconomy.24, report del Sole 24 Ore Radiocor e di Digit’Ed (leader nella formazione e nel supporto alla crescita del capitale umano) è un «approccio ethic by design», oltre a puntare sulla formazione e «operare in un ambito regolatorio chiaro e condiviso».

I benefici dell’AI generativa sono sotto gli occhi di tutti, ma allo stesso modo ci sono molti rischi soprattutto dal punto di vista etico e di tutela dei diritti umani, come contemperare queste esigenze?

In effetti l’AI generativa è una tecnologia che offre enormi potenzialità: pensiamo all’ottimizzazione dei processi, al miglioramento dei servizi a cittadini e utenti, alla ricerca di nuove molecole, fino alla gestione di grandi sfide, come la crisi climatica. Al contempo, questa tecnologia ci pone di fronte a rischi che riguardano i nostri valori e la nostra vita. E’ evidente che le traiettorie dello sviluppo tecnologico si intersecano con domande di natura etica. Per questo oggi si parla molto di ”AI Ethic”, che si occupa di identificare i problemi di natura etica nell’uso pervasivo dell’AI nella nostra società e di fornire possibili soluzioni. E’ un campo di lavoro multidisciplinare e multistakehoder dove esperti di varie discipline e vari attori della società lavorano insieme per generare soluzioni che includono principi, linee guida, strumenti tecnologici, sistemi di governance, standard internazionali, sistemi di analisi del rischio e leggi, in un mix di azioni complementari che affrontano i problemi da vari punti di vista in modo da generare soluzioni globali e condivise.

Sì, una prima risposta è proprio quella della responsabilità di chi opera in questo campo. Le aziende responsabili non aspettano le regole per comportarsi eticamente e per porre le persone al centro. Io posso condividere l’esperienza di Ibm che ha da sempre compreso le sfide poste dalla AI e deciso di attenersi ad uno stringente codice etico nella gestione di questa tecnologia, definendo principi (lo scopo dell’AI è di potenziare l’intelligenza umana, la tecnologia deve essere trasparente e spiegabile, i dati e gli insight che da essi derivano appartengono ai loro creatori), linee di indirizzo per la ricerca (equità, robustezza, spiegabilità) e una governance – il cui controllo è affidato ad un board al più alto livello aziendale – che garantisca che tutte le attività inerenti all‘AI, dalla ricerca, allo sviluppo di software e soluzioni, alla loro realizzazione siano assolutamente coerenti con i principi enunciati secondo un approccio che definiamo “ethics by design”.Coerentemente, Ibm ha recentemente reso disponibile una piattaforma per scalare e accelerare l’utilizzo dell’AI (anche generativa) nel mondo delle imprese. Tale piattaforma, chiamata watsonx, comprende “modelli fondativi”, corpi di conoscenza circoscritti e ambiti di applicazione a settori di industria, sviluppati con dati accurati, strumenti per personalizzare questi ambienti con i dati proprietari delle aziende e, cosa per noi più importante, un modello e strumenti governance end to end per gestire l’intero ciclo di disegno, sviluppo, rilascio e gestione di soluzioni AI in coerenza con il proposto modello di Ethics by design. Tutto ciò per mitigare i rischi e rispettare i requisiti regolatori

A che punto è la formazione dei lavoratori per comprendere i rischi e gestire le soluzioni di AI?

Nell’ambito della responsabilità dei diversi operatori, un’area fondamentale è proprio la formazione per dare agli individui i mezzi per comprendere e valutare i rischi e per saper gestire al meglio l’impatto dell’innovazione. Molte sono le aziende e le organizzazioni che si stanno impegnando per creare consapevolezza e nuove competenze in questo campo. Ibm si è impegnata con un piano globale per fornire entro il 2030 le nuove competenze necessarie per il lavoro del futuro a 30 milioni di persone di tutte le età. Un obiettivo che richiede gioco di squadra. Ibm collabora con più di 170 realtà accademiche e industriali in tutto il mondo.

A che punto è invece la regolamentazione e cosa chiedete al regolatore come azienda innovativa?

Per gestire correttamente questa sfida è necessario operare nell’ambito di un modello regolatorio chiaro e condiviso. L’AI Act rappresenta un importante passo avanti nella regolamentazione dell’AI e potrà rappresentare una blueprint di riferimento a livello globale, se preserverà l’approccio basato sul rischio e se questi rischi saranno chiaramente definiti. La cosiddetta precision regulation, infatti, è l’approccio migliore per assicurare una regolamentazione bilanciata che possa tutelare i diritti dei cittadini senza frenare il grande potenziale trasformativo di questa tecnologia. Come Ibm abbiamo in tal senso formulato alcune raccomandazioni: mantenere una visione tecnologicamente neutrale, regolando i casi d’uso in funzione del rischio e non la tecnologia in sé, questo oggi ancora più importante con l’avvento dell’AI generativa, differenziando tra domini chiusi e domini aperti; bilanciare le responsabilità tra chi sviluppa e chi implementa soluzioni di AI; allineare la definizione di sistemi di AI a quella dell’Ocse; definire chiaramente i casi di alto rischio che sono oggetto della regolamentazione; garantire che i segreti commerciali e il codice sorgente siano adeguatamente protetti, quindi sarebbe preferibile che le autorità di vigilanza possano chiedere l’accesso a modelli addestrati e parametri del modello, in ottica di trasparenza e spiegabilità, piuttosto che al codice sorgente.

Come far sì che si realizzi l’allineamento tra norme e innovazione?

E’ necessario un costante e strutturato raccordo tra aziende e policy maker. In questa era di accelerazione dello sviluppo tecnologico è importante che ci sia armonizzazione nella regolamentazione, che si mantenga e si sviluppi una collaborazione con il mondo dell’industria, dell’accademia, per definire standard, definizioni e quadri di riferimento atti a garantire un costante allineamento con lo sviluppo della tecnologia.

Riproduzione ll Sole 24 Ore Radiocor

Lascia un commento