Quanto costa alle imprese entrare nel mondo dell’intelligenza artificiale? “Per implementare un progetto di AI generativa, una grande azienda deve molto probabilmente usare macchine iper-performanti, dotarsi di professionisti specializzati (e ce ne sono ancora pochissimi) o pagare le società di consulenza. Noi lavoriamo in maniera diversa”. Non usa mezzi termini Rodolfo Falcone, Country manager di Red Hat Italia, quando spiega quali sono i limiti attuali che un’impresa si trova di fronte cercando di introdurre l’AI nei suoi processi.
Una risorsa per ottimizzare gli investimenti preparandosi al futuro è l’open source, un pilastro di Red Hat, entrata nella famiglia Ibm per la cifra record di 34 mld di dollari nel 2019. L’azienda è tra i protagonisti più importanti nello sviluppo e nel supporto di soluzioni basate su Linux, il sistema operativo ‘libero’ per eccellenza. Negli anni il raggio di azione si è allargato verso il cloud ibrido, la gestione di applicazioni e ora, naturalmente, l’intelligenza artificiale.
Lo spiega, negli uffici milanesi dell’azienda, lo stesso country manager: “Nell’open source lavorano 6 milioni di developer. Red Hat prende le idee brillanti e le sviluppa fino a renderle prodotti finiti per le imprese”, accompagnandoli con servizi come supporto tecnico e aggiornamenti.
Cosa significa abbattere le barriere di costo e complessità che limitano l’adozione dell’AI? Quali sono questi costi?
Significa trasformarla da un lusso per pochi a uno strumento pratico e integrato per un numero molto più ampio di aziende. Questo si realizza attraverso la democratizzazione delle soluzioni, rendendole utilizzabili anche da piccole e medie imprese con risorse più contenute. Si punta inoltre a ridurre la necessità di competenze tecniche altamente specializzate, a diminuire il rischio d’investimento per le aziende garantendo la sostenibilità degli investimenti a lungo termine e ad accelerare il ‘time-to-value’, permettendo di vedere i benefici dell’AI in tempi più rapidi. Le imprese devono affrontare costi diretti economici (ad esempio licenze software e piattaforme AI, hardware, acquisizione e preparazione dei dati, sviluppo e integrazione) e costi indiretti e di complessità. Faccio riferimento a carenza di competenze, rischio (ritorni economici incerti, fallimento del progetto), aspetti legali ed etici, trasformazione organizzativa e culturale.
Qual è il valore del modello open source nell’era dell’AI e delle Big Tech?
In questo contesto, l’open source emerge come un fattore chiave. Rende le tecnologie AI accessibili a startup, Pmi, ricercatori e singoli sviluppatori, eliminando i costi di licenza elevati. La trasparenza del codice aperto garantisce una chiara comprensione del funzionamento dei modelli, essenziale per affidabilità, sicurezza ed equità, consentendo a esperti esterni di identificare e correggere rapidamente bug o bias. Anche alcune Big Tech, come Meta con Llama 2, hanno abbracciato l’open source strategicamente per favorire l’affermazione di standard propri e accelerare l’adozione delle loro tecnologie, spesso aprendo i “pesi” dei modelli pur mantenendo privati i dati di addestramento. Nonostante i numerosi vantaggi, l’AI introduce anche nuove sfide per il modello open source, che Red Hat riconosce e affronta attivamente. La complessità dei Large language model, per esempio, risiede proprio nei “pesi”, la cui manipolazione è ben diversa dalla modifica del codice software tradizionale. Inoltre, l’implementazione e la gestione dell’AI richiedono comunque competenze e risorse significative. Non da ultimo, le licenze open source non sono tutte uguali e la trasparenza sul processo di produzione di un modello (dati di addestramento, metodologie) è spesso insufficiente. Red Hat promuove una “soglia minima” per un’AI aperta, che definiamo come “pesi del modello con licenza open source combinati a componenti software open source”. Incoraggiamo la community, le autorità di regolamentazione e il mercato a impegnarsi per una maggiore trasparenza e allineamento con i principi di sviluppo open source durante la formazione e la messa a punto dei modelli AI.
Parliamo di casi concreti: lei dice che la percentuale di funzioni del codice che rende un’azienda unica – e che quindi offre un margine – è del 20%.
Per ottimizzare gli investimenti software e massimizzare il vantaggio competitivo, è cruciale distinguere tra codice differenziante e non differenziante. Il principio di Pareto, applicato al software e all’AI, suggerisce che circa il 20% delle funzionalità di un’applicazione sono quelle realmente differenzianti, che creano un vantaggio competitivo e generano valore unico. Il restante 80% è costituito da funzionalità ‘commodity’, necessarie ma non distintive. Red Hat vuole aiutare a ottimizzare questo rapporto 80/20. Fornendo soluzioni enterprise open source per l’80% delle funzionalità di base e infrastrutturali non differenzianti, si liberano risorse (tempo, budget, personale IT) delle aziende. Queste risorse possono essere reindirizzate verso lo sviluppo del 20% delle funzionalità uniche e innovative. Ciò permette ai team di sviluppo di concentrarsi sulla logica di business specifica, sui modelli AI personalizzati o su soluzioni verticali che risolvono problemi unici per i loro clienti.
Quanto è importante l’Italia per il vostro Gruppo? Quali sono gli obiettivi?
L’Italia è una delle country principali e riveste un’importanza strategica per Red Hat, tanto che oggi è una delle 4 ‘region’ in Emea (Europa, Medio Oriente e Africa). Abbiamo oltre 300 dipendenti (molti di questi sono ingegneri dedicati allo sviluppo) e una vasta rete di partner con cui collaboriamo attivamente. In un momento cruciale per la nostra nazione, che deve cavalcare l’onda del cloud computing e dell’intelligenza artificiale per non rimanere indietro, siamo un abilitatore chiave di questa trasformazione per quasi tutte le principali realtà presenti in Italia.
Facciamo delle pagelle per grandi imprese, Pmi e Pa italiane: come se la stanno cavando con l’implementazione dell’AI?
Le grandi imprese stanno mostrando un buon livello di adozione dell’AI, grazie a maggiori risorse finanziarie e competenze interne, sebbene persistano criticità legate alla carenza di specialisti e alla necessità di modelli trasparenti. Le Pmi in generale faticano a causa di minori competenze e investimenti limitati, spesso affidandosi a fornitori ‘chiavi in mano’ che possono limitare personalizzazione e controllo. Per quanto riguarda la Pa, Red Hat è attivamente coinvolta in progetti finanziati dal Pnrr. Il cuore della nostra offerta per il Pnrr è l’open hybrid cloud, fondamentale per supportare la migrazione di dati e servizi della Pa e la creazione del Polo strategico nazionale tramite infrastrutture cloud sicure e scalabili con OpenShift e RHEL. Abilitiamo inoltre la modernizzazione delle applicazioni, rendendole più agili ed efficienti grazie a tecnologie cloud come microservizi e container. L’Ansible Automation Platform automatizza i processi IT e le operazioni della Pa, riducendo tempi ed errori e liberando risorse. Tutte soluzioni con robusti meccanismi di sicurezza e una migliore governance dei dati, essenziali per le infrastrutture critiche.
State lavorando su progetti finanziati dal Pnrr? Quali sono gli ostacoli principali?
Red Hat, pur essendo un facilitatore tecnologico, si scontra con gli stessi ostacoli sistemici che rallentano l’implementazione del Pnrr e la digitalizzazione in Italia. Tra questi, spicca la carenza di competenze digitali avanzate, soprattutto nella PA, che fatica a trovare e trattenere personale qualificato in cloud, container, automazione e AI, rendendo l’adozione limitata anche con le migliori piattaforme. A questo si aggiunge la resistenza al cambiamento culturale, dove la mancanza di una mentalità innovativa e di collaborazione tra enti frena l’adozione di nuove metodologie e di una strategia IT e AI coerente e coordinata. Un altro freno è la fragilità delle basi digitali: molti enti partono da un livello molto basso, dovendo risolvere problemi semplici come gestione documentale e standardizzazione dati prima di implementare soluzioni avanzate. Infine, la complessità burocratica e normativa, inclusi i processi di acquisto, gestione e rendicontazione dei bandi Pnrr, e la necessità di rispettare normative stringenti (come il Gdpr e l’AI Act), possono rendere l’iter di implementazione lungo e farraginoso.
Come si rimedia alla carenza di competenze?
C’è una cronica carenza di data scientist con esperienza in GenAI, esperti di machine learning per modelli specifici di dominio, e cloud architect con competenze in sicurezza e scalabilità nel cloud ibrido. Oltre alle iniziative con università e enti formativi, affrontiamo il gap investendo nella formazione interna e supportando le community open source, che, per loro natura collaborativa, facilitano la condivisione della conoscenza e offrono opportunità di apprendimento pratico ‘on the job’ su progetti reali. E poi aiutiamo i partner attraverso formazione e supporto sulle tecnologie open source, garantendo una rete di professionisti qualificati per i clienti. L’obiettivo non è solo formare singoli, ma creare un ecosistema di competenze diffuso e dinamico, capace di sostenere la crescita e l’innovazione del Paese. Per un futuro digitale più forte e sostenibile bisogna agire ora.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link