La proposta di regolamentazione dell’IA avanzata dalla Commissione europea potrebbe avere implicazioni significative per le aziende. Non mancano i rischi legati all’adozione dell’IA e le sfide future legate all’applicazione delle leggi sul copyright ai risultati prodotti dall’IA
L’adozione dell’intelligenza artificiale nelle operazioni aziendali non è un processo semplice e richiede attenzione particolare alla protezione dei dati, all’infrastruttura di storage e al rispetto delle leggi sul copyright. In questo scenario in continua evoluzione, il contributo delle norme e dei consulenti legali diventa fondamentale. Ma quali sono i veri rischi nell’adozione dell’IA? E come affrontare le sfide future legate all’applicazione delle leggi sul copyright ai risultati prodotti dall’IA? Proviamo a dare una risposta ad alcune di queste importanti questioni.
Il contesto europeo e l’importanza dell’intelligenza artificiale
L’intelligenza artificiale è una tecnologia di rottura, in grado di offrire molte opportunità per accelerare il progresso della nostra società, ma può anche sollevare diverse questioni etiche. Al centro dell’attenzione degli organi di governo dell’Unione Europea, l’intelligenza artificiale, insieme alla gestione dei dati, è oggi una delle principali priorità nell’ottica di realizzare collettivamente la transizione verso un’economia più digitale e resiliente. La sua importanza è quindi strategica e le sue numerose applicazioni richiedono un adeguato quadro normativo.
Con l’AI Act, approvato a dicembre 2023, la Commissione Europea ha fatto un ulteriore passo avanti in questa direzione, presentando la propria proposta per una nuova regolamentazione dell’IA negli Stati membri dell’UE: si tratta di un risultato storico e di un passo importante verso il futuro.
Le implicazioni per le aziende nell’applicazione della nuova legge
In questo contesto, è essenziale sottolineare che le aziende che applicheranno questa legge, costruendo infrastrutture di dati intelligenti, non saranno solo più competitive, ma anche più virtuose nel prossimo futuro. Rispettando i requisiti di questa regolamentazione, si potranno garantire la sicurezza, la stabilità, la trasparenza, l’efficienza e la non discriminazione dei sistemi di intelligenza artificiale, promuovendo al contempo l’innovazione e gli investimenti in questo settore. La regolamentazione, che dovrebbe entrare in vigore due anni dopo la sua adozione, prevede ovviamente delle sanzioni in caso di violazioni della legge sull’IA, stabilite o come una percentuale del fatturato annuo globale dell’azienda contravventrice nell’anno finanziario precedente, oppure come importo prestabilito.
Le aziende o organizzazioni con sede in Europa, o che lavorano con essa, dovranno testare e valutare tutti i sistemi di intelligenza artificiale prima di metterli sul mercato e ottenere una certificazione associata in base al loro livello di rischio stabilito.
L’importanza delle infrastrutture di storage intelligente nello sviluppo dell’IA
Parallelamente a questa regolamentazione, l’adozione di solide infrastrutture di storage intelligente è sicuramente un elemento chiave per lo sviluppo delle soluzioni di intelligenza artificiale. Sia che si basino sul machine learning per definire tendenze su larga scala, sia che si basino sul deep learning per modelli di azione attraverso una percezione automatica delle cose, i sistemi di intelligenza artificiale hanno un elemento in comune: devono gestire e consumare un’elevata quantità di dati. L’archiviazione dei dati su infrastrutture intelligenti e la possibilità di movimentazione semplificata e sicura degli stessi è quindi un elemento fondamentale per il futuro dell’intelligenza artificiale e le aziende che sapranno integrarla in modo efficace saranno quelle che si distingueranno nel mercato competitivo di domani.
Le opportunità dell’AI per le PMI
L’opportunità rappresentata dell’Intelligenza Artificiale consiste anche nel creare un ecosistema competitivo per gli operatori innovativi, che spesso sono PMI. È quindi importante assicurarsi che i costi e la complessità che si possono incontrare nell’adeguarsi a un’architettura normativa completamente nuova per la trasformazione digitale non chiudano le porte a questi talenti tecnologici emergenti. Le aziende hanno ormai capito che i dati sono un prodotto e un bene e vogliono applicare il corretto livello di sicurezza e protezione per ottenere il meglio dall’utilizzo dell’Intelligenza Artificiale. Questi clienti sono in grado già oggi di trarre il massimo vantaggio da questa nuova opportunità, utilizzando infrastrutture di dati intelligenti in grado di garantire non solo la conformità a tutte le normative in continuo sviluppo in questo settore, ma anche per trasformare l’uso dell’IA in un vantaggio competitivo sul mercato.
Il ruolo dei consulenti legali nel processo di adozione dell’IA nelle imprese
Un altro punto importante riguarda il ruolo che i consulenti legali possono avere in questo processo. L’adozione dell’intelligenza artificiale da parte delle imprese, infatti, è un’area in cui i consulenti legali interni possono e devono svolgere un ruolo chiave non solo nella mitigazione dei rischi, ma anche nell’abilitazione del business. In primo luogo, è necessario promuovere la collaborazione tra i dirigenti, per stabilire una governance appropriata della supervisione, della gestione e dell’utilizzo dell’intelligenza artificiale in tutta l’azienda. Questo per far sì che le aziende capiscano che i differenti approcci all’IA dipendono dai diversi casi d’uso, ed è quindi necessario prendere le decisioni corrette su dove e come investire.
I profili di rischio nell’adozione dell’IA
I modelli di intelligenza artificiale sono addestrati da un’enorme quantità di dati. ChatGPT 3 è stato addestrato con circa 570 gigabyte di testo e 175 miliardi di parametri. Abbiamo visto tutti i suoi risultati impressionanti. Conosciamo anche gli aspetti negativi. Nell’output dell’IA è stato trovato codice informatico senza licenza e copyleft. Se tale codice dovesse entrare in prodotti commerciali che generano profitti, potrebbe essere soggetto a ingiunzioni o costringere le aziende ad aprire il loro codice proprietario. Il resto è ignoto. Nessuno sa come le leggi sul copyright verranno applicate ai modelli e ai risultati dell’IA. Non si conosce la quantità di intervento umano necessaria per rendere i risultati dell’intelligenza artificiale tutelabili dal diritto d’autore. Nessuno sa dove ci porterà la tecnologia.
Le sfide future nell’applicazione delle leggi sul copyright ai modelli e ai risultati dell’IA
Le sfide future nell’applicazione delle leggi sul copyright ai modelli e ai risultati dell’IA
Con così tante incognite, dobbiamo comunque abbracciare la IA. Tuttavia, dobbiamo essere riflessivi e consapevoli nel farlo. È più importante che mai che i legali interni comprendano appieno i prodotti e l’attività quando adottiamo la IA. Dobbiamo comprendere i profili di rischio dei vari casi d’uso. Naturalmente, la protezione della capacità dell’azienda di continuare a offrire prodotti e servizi deve essere una priorità nella valutazione dell’adozione dell’intelligenza artificiale. Pertanto, è necessario un approccio cauto quando si incorporano modelli o output IA in prodotti e servizi.
Gli sviluppatori e gli altri utenti che devono utilizzare gli strumenti di IA nel loro lavoro avranno bisogno di indicazioni sulle licenze dei LLM (modelli linguistici di grandi dimensioni) e sui dati utilizzati per l’addestramento e la messa a punto di questi LLM. Stanno emergendo strumenti di intelligenza artificiale addestrati su “contenuti con licenza” o “contenuti leciti”. Si ipotizza persino che OpenAI possa essere in trattativa per concedere in licenza i contenuti degli editori. Occorre pertanto collaborare con i reparti di ingegneria, IT, sicurezza e altre parti interessate per affrontare questi problemi e stabilire linee guida e governance per un uso sicuro e responsabile dei nostri dati aziendali con i LLM.