A Bergamo, nel campus di Aruba, la nuova infrastruttura. Stretti accordi con Mondadori, Istat e Bignami per l’addestramento di Miia, in arrivo a fine anno
Ponte San Pietro (Bergamo) – Una quindicina di metri di lunghezza per quattro di larghezza, rumore infernale, temperatura – ovviamente – controllata. Fastweb ha inaugurato nella mattinata di lunedì 8 luglio un nuovo supercomputer. Battezzato Nexxt Ai Factory, è installato nel data center di Aruba a Ponte San Pietro, incuneato tra le valli bergamasche, dove il termometro segna qualche grado in meno rispetto alla città e le condizioni di sicurezza geografica consentono di raggiungere il livello Tier 4 delle certificazioni Uptime, le più difficili da ottenere. Procedure di sicurezza, men trap, badge d’ordinanza: i data center sono i caveau moderni, luoghi dove si custodiscono informazioni che sono asset reali almeno quanto il vecchio denaro contante.
Con l’occasione, l’azienda guidata dall’ad Walter Renna ha presentato anche la prima release di Miia, un nuovo Llm (modello linguistico di grandi dimensioni) proprietario sviluppato dalla telco parte del gruppo svizzero Swisscom. Costruito da zero, è allenato su dataset pubblici di qualità, come le Gazzette ufficiali, ma anche su materiale frutto di accordi ad hoc, come nel caso di quelli stretti con l’Istat (l’istituto nazionale di statistica) e le case editrici Mondadori e Bignami.
Un vantaggio di dodici mesi
Si tratta di un supercomputer Nvidia DGX Super Pod, “il più potente disponibile in Italia per l’intelligenza artificiale di proprietà di un’azienda privata” viene ribadito più volte nel corso dell’evento di presentazione nell’auditorium di Ponte San Pietro. Convocato il parterre delle grandi occasioni, con politici e partner, oltre, naturalmente, ai vertici aziendali. Sono trentuno i nodi DGXH100 acquisiti, recitano le note tecniche diffuse. Recuperare il divario non sarà facile per chi non si è mosso in tempo, commenta Renna: “Chi vuole acquistare i chip ora dovrà aspettare 12-18 mesi in lista d’attesa” per poter disporre delle macchine, perché i processori di Nvidia sono diventati, nel giro di un paio d’anni, l’oggetto del desiderio delle aziende di mezzo mondo.
Se le macchine sono importanti (il nuovo supercomputer è connesso tramite fibra ottica alla piattaforma cloud dell’azienda) molte fiches Fastweb le punta su Miia, ovvero un Modello italiano per l’intelligenza artificiale (questo il significato dell’acronimo). Fatto in casa e rilasciato in versione alfa. Perché svilupparne uno da zero, invece di raffinare quelli esistenti? “Abbiamo messo l’IA al centro di tutta la nostra strategia e modello di business – risponde a Wired l’ad -. La stiamo implementando in tutti i processi aziendali perché riteniamo che le aziende del futuro debbano aggregare quelli che consideriamo gli asset fondamentali: la fibra, il 5G, il cloud, la cybersecurity e l’intelligenza artificiale”. E poi la questione della sicurezza: meglio fare da sé. “Maneggiamo notevoli quantità di dati sensibili, e i modelli esistenti non sono in grado di garantire totale affidabilità. Da questa esigenza nasce l’idea di disporre di un’infrastruttura proprietaria e localizzata in Italia, un supercomputer appunto, per poi costruirci attorno un modello addestrato nativamente in italiano”, dice Renna.
“Rispettare le specificità culturali e linguistiche – prosegue il manager – è fondamentale. I chatbot dialogano direttamente con gli utenti, e grandi banche, pubbliche amministrazioni, ospedali non possono permettersi errori di comunicazione, oltre ad dover mantenere un approccio molto responsabile a queste innovazioni”. Troppo sensibili i dati che gli utenti tendono a condividere con macchine parlanti di cui qualcuno è giunto a innamorarsi. Ci sono, afferma Renna, oltre duecento professionisti al lavoro sulla cybersicurezza, e quattro Security operation center (Soc) che monitorano costantemente le infrastrutture per prevenire attacchi e intercettarli. “I dati saranno qui, in Italia”, garantisce.
Gli accordi con l’editoria
La chiave per la qualità degli output è il fatto di aver stretto accordi con attori di primo piano dell’editoria per l’addestramento. “ Ci sono due strade per addestrare un modello – ha detto Renna nel corso della presentazione -. Una basata sul rastrellare il web, che privilegia la quantità; l’altra che predilige la qualità. Noi abbiamo scelto la seconda”. E sono tante le aziende editoriali che hanno scoperto recentemente di aver in casa un patrimonio dal valore ancora difficile quantificare: nel sottobosco dell’AI si lavora per dare un prezzo che rischia di essere sempre troppo basso. Chi riesce a siglare partnership (per cui peraltro non esistono schemi di riferimento: anche qui si parte da zero, con una giurisprudenza che si farà) ha le carte in regola per vincere la corsa. Ed evitare cause potenzialmente devastanti.
Posizione, come è comprensibile, condivisa da Andrea Santagata, ad di Mondadori Media. “Gli over the top [i grandi attori del digitale, soprattutto statunitensi, ndr] rispetto a noi europei hanno la tendenza a considerare diritti e principi come il rispetto della privacy certamente importanti, ma solo dopo il raggiungimento degli obiettivi di business. Tanti Llm sono addestrati su contenuti per cui non esiste la benché minima autorizzazione; ma si tratta di contenuti che possono essere visti in termini delle migliaia di ore-uomo di lavoro necessaire a produrli, tempo in cui una persona lima il testo fino a renderlo perfetto”. “A disposizione, però, non ci saranno i libri dei nostri autori – ha concluso l’editore – ma un vasto corpus verticale di cui disponiamo, costituito da circa un miliardo di parole”. La collaborazione tra Fastweb e Mondadori, che ha varato recentemente un acceleratore di startup AI, riguarderà anche la fornitura di consulenza.
A che punto è l’Llm di Fastweb?
Millecinquecento miliardi di token, pari a circa undici milioni di libri: oggi sono state accese le macchine, ma sul supercomputer “girano” ancora solo test. “Entro fine anno sarà pronta la versione commercializzabile di Miaa”, garantisce Renna. Che non vuole fare concorrenza a ChatGPT e simili, modelli generalisti, ma concentrarsi su un’utenza business, che si tratti di aziende o pubblica amministrazione. Chi sono i competitor? Si può fare concorrenza a giganti ormai affermati come la francese Mistral? “L’approccio non deve essere necessariamente competitivo: si potrebbero anche fare degli accordi, che soprattutto tra europei sarebbero auspicabili”, risponde il manager. Qual è il futuro dell’intelligenza artificiale, che consuma una quantità non trascurabile di risorse tra elettricità e acqua, risorse che decuplicheranno nel giro di un triennio? “Vedo un mondo in cui esisteranno sempre più chatbot e applicazioni di AI generativa verticali – prosegue –. Si potrà ordinare la pizza o decidere la cena con un chatbot, ma di piccole dimensioni. Non è necessaria la potenza di calcolo necessaria a trovare nuove molecole o formule matematiche. Il nostro obiettivo è dare una soluzione efficace ed efficiente a ognuno di questi casi d’uso”.
Fastweb ha ingaggiato un advisory board per sorvegliare lo sviluappo, che comprende Mariarosaria Taddeo, docente a Oxford ed esperta di etica e digitale, Gianluigi Greco, professore all’università della Calabria e a capo della commissione sull’AI di Palazzo Chigi, e Mario Rasetti, professore emerito di fisica teorica al Politecnico di Torino. Alla presentazione ha preso parte anche l’eurodeputato Brando Benifei del Pd, recentemente rieletto, che ha seguito lo sviluppo del regolamento europeo sull’intelligenza artificiale, l’AI Act.
FONTE: https://www.wired.it/article/avio-spazio-lanciatori-made-in-italy/