Etichette per identificare i contenuti prodotti con l’intelligenza artificiale, un’agenzia nazionale per l’AI, schemi di licenza standard per regolare i rapporti tra editori e sviluppatori. Sono alcune delle proposte contenute nella relazione che la Commissione intelligenza artificiale per l’informazione, guidata da padre Paolo Benanti, ha elaborato per mitigare i rischi dell’AI nel mondo del giornalismo, a partire da disinformazione e violazioni del copyright. Le proposte sono state consegnate alla presidenza del Consiglio dopo due mesi di lavori e di confronto con gli editori da una parte (Fieg, Fnsi, Ordine dei Giornalisti) e con le big tech (Meta, Microsoft, Google) dall’altra.
La Commissione di Benanti ha innanzitutto individuato alcuni ambiti in cui l’Italia dovrebbe intervenire:
• tutela del diritto d’autore;
• trasparenza, riconoscibilità e tracciabilità dei contenuti prodotti dall’AI;
• difesa della professione giornalistica;
• contrasto alla disinformazione;
• vigilanza sulle dinamiche concorrenziali;
• individuazione di una governance sull’AI.
Il registro dei contenuti
In questi settori sono state individuate alcune misure che il governo potrebbe prendere, anche alla luce del testo definitivo dell’AI Act, il regolamento europeo sull’intelligenza artificiale. In particolare, la Commissione suggerisce l’introduzione dell’obbligo per chi allena i large language model (llm), i modelli che fanno funzionare i sistemi come ChatGpt, di un registro dei contenuti coperti da copyright utilizzati nel training dell’AI.
Gli editori potrebbero, quindi, regolare i loro rapporti con le società di AI chiedendo, se vogliono, l’esclusione dei loro contenuti oppure stipulando un accordo di licenza che ne autorizzi l’uso. Per questo la Commissione consiglia l’elaborazione di schemi contrattuali di licenza, anche collettivi. In Europa e negli Stati Uniti alcuni editori, a partire da Axel Springer, hanno già scelto questa via autonomamente, stringendo accordi di licenza con OpenAI.
«Le misure descritte non intendono favorire un opt-out di massa, che produrrebbe conseguenze significative sulla bontà dei modelli di intelligenza artificiale, bensì favorire la tutela delle scelte del titolare dei diritti, agevolando la potenziale apertura di un mercato basato sull’uso in licenza delle opere protette, con vantaggi mutui per tutte le parti coinvolte», si legge nella relazione.
Chi controlla l’AI
Altre proposte riguardano la trasparenza e il controllo dell’intelligenza artificiale. In particolare, la Commissione caldeggia l’adozione di un sistema di certificazione standard, una filigrana (o watermark) che renda subito riconoscibili i contenuti realizzati con l’AI. Tutti gli interventi, però, non possono prescindere dalla creazione di un’Autorità nazionale o un’agenzia che vigili sull’AI in Italia. Il regolamento europeo che entrerà in vigore tra la fine del 2024 e il 2026, infatti, prevede che ogni Stato individui almeno un’Autorità di notifica e un’Autorità di vigilanza del mercato che si affianchi, a livello nazionale, all’European Artificial Intelligence Office che l’Unione Europea ha già iniziato a istituire.
Riproduzione Milano Finanza