Investi nel futuro

scopri le aste immobiliari

 

Dalle reti intelligenti ai nuovi servizi: il futuro delle tlc è AI-native


L’Intelligenza Artificiale (AI) rappresenta oggi una delle forze trasformative più significative per l’intero ecosistema delle telecomunicazioni e può incidere in modo profondo e strutturale sullo sviluppo ed esercizio delle reti, sul portafoglio dei servizi digitali, sulla customer experience e sul modello di business nel mondo delle Telecomunicazioni, aiutando il settore in un momento complesso della sua evoluzione.

Sconto crediti fiscali

Finanziamenti e contributi

 

In questo articolo ci focalizzeremo su quattro fondamentali impatti della AI e Generative AI sulle Telecomunicazioni e in particolare:

  • L’impatto sui processi di gestione delle reti di telecomunicazioni i quali potranno essere fortemente automatizzati e richiederanno meno persone per essere espletati[1];
  • L’impatto sulla nuova offerta di servizi digitali e sulla gestione dei clienti che si differenzierà fortemente da quella attuale, limitata e appiattita sulla sola connettività, portando gli Operatori ad abbracciare un modello “digital service integrator” per il mondo consumer e “digital system integrator” nel mondo business dove, in particolare, gli Operatori saranno importanti partner delle Aziende per la creazione dei loro Domain Specific Language Model[2];
  • L’impatto sull’architettura e le infrastrutture della rete e sulle piattaforme dei servizi digitali le quali cambieranno altrettanto radicalmente da oggi integrando le funzioni AI negli OSS e BSS, trasformando le centrali di telecomunicazioni in EDGE COMPUTING CENTER, basati sostanzialmente su GPU Fabric, e spingendo l’automazione e l’approccio Self Organizing Networking alla massima potenza;
  • L’impatto sulle competenze con particolare riferimento al software in generale e all’Open Source in particolare, che è oggi il fondamento della rivoluzione AI che guiderà l’evoluzione delle Telco da fabbriche di connettività a fabbriche di servizi per le loro “customer platform”.

Vedremo che da tutto questo segue, tra le altre conseguenze rilevanti, una rinnovata attenzione ai modelli verticalmente integrati in quanto in grado di ottimizzare la fruizione di dati e servizi ai clienti finali con elaborazione di prossimità e reti a bassissima latenza delle quale tali modelli necessitano.

L’impatto dell’AI nelle reti di telecomunicazioni

Iniziamo dall’analisi dei processi di gestione della rete costatando che l’AI ha un impatto significativo nei 5 processi fondamentali, sintetizzati nella figura 1 e discussi nei paragrafi seguenti:

  • Network Planning e Capacity Management con i modelli predittivi i quali consentono di anticipare previsione della domanda di traffico, ottimizzando investimenti in capacità e risorse;
  • Network Automation e Self Organizing Networks dove gli algoritmi AI ottimizzano configurazione, la copertura a supporto dei terminali, il supporto alla business continuity con reinstradamento automatico per eventi di guasto, riducendo OPEX e migliorando l’affidabilità. In questo contesto sono particolarmente rilevanti e promettenti innovazioni come AI RAN dove le funzioni delle Radio Access Network di nuova generazione sono implementate su GPU server nei Telco Edge Cloud.

Figura 1: Applicazione dell’AI ai processi di gestione delle Reti di Telecomunicazioni

  • Quality of Experience (QoE) Management dove algoritmi di AI consentono una gestione proattiva della qualità percepita dal cliente, anticipando i disservizi e ottimizzando l’allocazione dinamica delle risorse.
  • Technical Assistant & Caring con chatbot, virtual assistant e predictive care che consentono una gestione più efficiente e personalizzata delle segnalazioni e richieste di assistenza dei clienti con monitoraggio continuo delle funzionalità di rete e azioni di manutenzione preventiva.
  • Generative AI per i processi interni a supporto alle operation, alle attività di engineering e alle attività di search su documentazione tecnica dove gli algoritmi di AI generativa automatizzano e ottimizzano i processi interni consentendo efficienza e forte incremento della produttività.

AI powered Network & Capacity Planning

La funzione di Network Planning svolge un’attività essenziale coniugando le esigenze di sviluppo dei servizi, gli interventi di adeguamento infrastrutturale e dimensionale delle reti e il calcolo degli investimenti a fronte di analisi di varie alternative implementative. Tali funzioni sono:

  • Analisi della domanda di adozione e uso dei servizi digitali, previsioni di traffico per servizio e per segmento di cliente,
  • Studi di fattibilità per introduzione di nuovi elementi di rete e nuove tecnologie,
  • Sviluppo di progetti di massima, Business Plan per preparazione comitati di approvazione degli investimenti e analisi dello sviluppo territoriale degli stessi,
  • Redazione dei piani di struttura e di sviluppo annuali con stima degli impatti energetici correlati.

Per sviluppare modelli predittivi efficaci nel Network Planning e Capacity Management, è essenziale disporre di un ampio spettro di dati storici, operativi e contestuali. In particolare:

Aste immobiliari

 il tuo prossimo grande affare ti aspetta!

 

  • I dati di traffico storici: volumi aggregati (Gbps), conteggio sessioni, tipologia di traffico (streaming, browsing, IoT, VoIP), segmentati per area geografica, ora, giorno della settimana, stagionalità;
  • I dati topologici di rete: configurazioni fisiche e logiche della rete, capacità dei link, configurazioni radio (nel caso del mobile), architettura core/edge;
  • I dati di qualità e performance: latency, jitter, packet loss, handover failures, congestioni, utilizzo risorse CPU/memoria sugli apparati;
  • Gli eventi e le anomalie ossia guasti, manutenzioni programmate, aggiornamenti software, eventi climatici o ambientali, eventi straordinari (grandi manifestazioni, blackout, emergenze);
  • I dati commerciali e di business rilevanti: dati sul lancio e sugli andamenti di offerte commerciali, campagne marketing, attivazioni di nuovi servizi, dinamica degli abbonati e infine
  • I dati sociodemografici, dinamiche urbane (mobilità, crescita di quartieri, nuove zone industriali), calendario eventi.

Per ottenere previsioni affidabili e granulari, vengono tipicamente utilizzate combinazioni di algoritmi AI/ML, spesso in logica ensemble:

  • Modelli di Deep Learning con Time Series Forecasting, in particolare LSTM (Long Short-Term Memory), GRU (Gated Recurrent Units), Transformer-based Time Series models le quali consentono di modellare l’evoluzione temporale complessa della domanda di traffico. Sono anche utilizzati causal inference e counterfactual analysis per simulare l’effetto di campagne commerciali o cambiamenti di scenario.
  • Modelli Graph Neural Networks (GNN) con analisi spatio-temporali, Spatial-Temporal Graph Convolutional Networks, che integrano la variabile topologica di rete (nodi, link, architettura) nei modelli di previsione.
  • Modelli di Supervided Learning, con supervised regression (Random Forest, XGBoost, LightGBM) per correlare i driver esterni e interni della domanda.
  • Modelli di Reinforcement Learning con ottimizzatori AI-based (genetic algorithms) per suggerire scenari ottimali di allocazione risorse o ampliamento capacità.
  • Modelli di Anomaly Detection (autoencoder, isolation forest) per rilevare e anticipare picchi o comportamenti fuori norma.

AI powered Network Automation & Self Organizing Networks

L’intelligenza artificiale rivoluziona i metodi tradizionali di allocazione delle risorse, frequenze, potenze di emissione, caratteristiche dei diagrammi di radiazione, piani di istradamento, velocità di cifra, capacità elaborativa, vengono modificati in tempo reale o quasi reale in corrispondenza delle condizioni di carico, di funzionamento e delle richieste dei clienti.

Queste caratteristiche sono proprie delle Self Organizing Networks e sono già evidenti nelle Radio Access Network (RAN) dove sfruttando l’analisi dei dati in tempo reale e l’intelligenza predittiva, l’intelligenza artificiale consente l’assegnazione dinamica di schemi di modulazione e codifica (MCS), l’allocazione intelligente dei blocchi di risorse e il coordinamento collaborativo delle stazioni base. Assegnando l’MCS e i blocchi di risorse ottimali, la pianificazione wireless viene ottimizzata, il che dovrebbe comportare un miglioramento del throughput e dell’esperienza dei clienti. Raccogliendo dati da molte stazioni base vicine e apprendendoli e controllandoli con AI/ML, più stazioni base possono lavorare insieme per regolare la potenza di trasmissione e il beamforming nell’intera area sotto il loro controllo e ottenere il controllo delle interferenze. Questa strategia basata sull’intelligenza artificiale migliora significativamente il throughput degli utenti, sopprime le interferenze, migliora le prestazioni MIMO (Multiple Input e Multiple Output) e consente l’aggregazione flessibile delle portanti, offrendo in ultima analisi un ambiente di comunicazione wireless più reattivo ed efficiente.

Più nel dettaglio alcune delle funzioni di Automazione delle Reti sono:

  • Gestione delle coperture radio e beamforming;
  • Gestione dinamica degli istradamenti;
  • Gestione dinamica del traffico;
  • Configurazione automatica degli apparati;
  • Network restoration su eventi di guasto;
  • Ottimizzazione qualità del servizio

L’automazione della rete e il funzionamento delle Self Organizing Networks richiedono una raccolta di dati ancora più capillare e in tempo reale, poiché le decisioni vengono spesso prese in modo autonomo dai sistemi AI. I principali dati sono:

  • Dati real-time di stato della rete: utilizzo delle celle (nel mobile), carico CPU/throughput per nodo, saturazione di link, disponibilità di risorse radio/fibra, power levels.
  • Dati di performance clienti: latency per sessione, throughput per utente, numero di handover riusciti/falliti, livello di RSSI e SINR.
  • Eventi di fault management: allarmi di guasto apparati, degrado performance, riavvii forzati, downlink/uplink failure.
  • Dati di configurazione: parametri attuali di rete (frequenze, larghezze di banda, priorità QoS, allocazione di risorse, slicing, ecc.).
  • Dati ambientali: condizioni meteo, interferenze radio, eventi fisici rilevanti (interruzioni di energia, lavori stradali, nuove costruzioni).
  • KPI di SLA e Quality of Experience (QoE): indicatori sintetici che misurano il rispetto degli SLA contrattuali e la qualità percepita dal cliente.

L’AI utilizzata per le SON opera spesso su più livelli contemporaneamente: previsione, ottimizzazione, decisione autonoma. Alcuni approcci tipici:

  • Modelli di Reinforcement Learning (RL) e deep reinforcement learning (DRL): permettono ai sistemi di apprendere in modo continuo la politica ottimale per allocare risorse e riconfigurare la rete. Sono inclusi algoritmi di “multi-armed bandit” per bilanciare l’esplorazione di nuove configurazioni e lo sfruttamento delle migliori policy note e sistemi di ottimizzazione basati su evolutionary algorithms o swarm intelligence per gestire scenari multi-obiettivo (ad es. ottimizzare throughput e risparmio energetico simultaneamente).
  • Modelli di Supervised Learning con tecniche di causal AI per simulare l’impatto di modifiche parametriche sulle performance end-to-end.
  • Modelli di Deep Learning con funzioni predittive di failure prediction (XGBoost, Random Forest, LSTM) che anticipano la probabilità di guasto di nodi o tratte.
  • Modelli di Anomaly Detection con tecniche di unsupervised learning (clustering, autoencoder) per individuare pattern non noti nei dati di rete e migliorare il fault localization.

Di rilievo è l’utilizzo della AI nelle Radio Access Networks dove le funzioni di ottimizzazione e automazione sono implementato a livello EDGE nel TELCO CLOUD CONTINUUM basato su GPU EDGE NODE.

AI powered Quality of Experience (QoE) Management

La gestione proattiva della QoE richiede una visione integrata e molto granulare dell’esperienza percepita dai clienti finali. I dati chiave sono:

Sconto crediti fiscali

Finanziamenti e contributi

 

  • Metriche end-to-end di sessione: throughput per sessione, latenza one-way, jitter, packet loss, buffering events (per streaming), errori di segnalazione.
  • Dati applicativi: performance di applicazioni OTT (YouTube, Netflix, Teams, Zoom), tempi di caricamento pagine, indicatori di MOS (Mean Opinion Score) per voce/video.
  • Dati di sessione mobile: success/failure di attach, handover, call drops, location update failures.
  • Feedback diretto dai clienti: survey, NPS (Net Promoter Score), reclami, ticket aperti.
  • Dati contestuali: tipo di dispositivo, sistema operativo, condizioni ambientali, posizione geografica.
  • Dati di rete sottostante: congestione ai nodi core, congestione radio, utilizzo di link upstream, errori di routing.
  • Dati storici di incidenti e reclami: correlazione fra pattern tecnici e insoddisfazione cliente.

Per correlare i dati di rete alla qualità percepita dal cliente vengono utilizzate tecniche AI multimodali e cross-domain:

  • Modelli di Supervised Learning (XGBoost, CatBoost, Random Forest) per correlare KPI tecnici a CSI e NPS[3], costruendo modelli di QoE prediction. Tecniche AI causali per identificare i principali driver tecnici della qualità percepita. Sistemi di customer churn prediction per identificare clienti a rischio di abbandono basandosi sull’esperienza tecnica vissuta.
  • Tecniche Deep Learning (CNN, RNN, Transformer) per analizzare grandi moli di dati di sessione multivariata e identificare pattern complessi.
  • Algoritmi di Anomaly Detection per individuare in tempo reale degradi QoE prima che l’utente lo percepisca (zero-touch incident management).
  • Modelli di Reinforcement Learning per ottimizzare dinamicamente i parametri di rete in funzione della QoE osservata.

AI-driven Technical Assistance & Caring,

L’Assistenza Tecnica, assurance e caring basati su AI richiede un’integrazione profonda di dati eterogenei, provenienti sia dal comportamento tecnico della rete sia dall’interazione diretta con il cliente. I principali dati sono:

  • Storico dei ticket e interazioni: categorie di problemi, tempi di risoluzione, esiti, escalation, feedback post-intervento.
  • Dati di sessione e di uso rete: volumi di traffico, KPI di performance, interruzioni di servizio, errori di rete associati al profilo cliente.
  • Dati di CRM: profilo contrattuale, storici pagamenti, offerte attive, segmentazione commerciale, storico di reclami e soddisfazione.
  • Dati di interazione multicanale: chiamate al call center, chat, email, social media, self-care app.
  • Dati demografici e contestuali: età, localizzazione, fascia oraria di attività, dispositivi utilizzati.
  • Pattern di churn: indicatori comportamentali che storicamente hanno preceduto abbandono o disaffezione del cliente.
  • Feedback qualitativi: survey periodiche, Net Promoter Score (NPS), sondaggi post-assistenza.

In questo dominio si applicano varie famiglie di algoritmi AI, ciascuna con funzioni specifiche:

  • Modelli di Natural Language Processing (NLP) e Gen AI per analisi semantica dei ticket, classificazione automatica dei problemi, estrazione di intenti, sentiment analysis, identificazione di temi ricorrenti (LLM, BERT, GPT-like) e sistemi conversazionali AI (chatbot, voicebot) che gestiscono l’interazione diretta con il cliente per richieste semplici e ripetitive, lasciando ai human agent i casi complessi.
  • Modelli di Supervised Learning con predictive analytics per identificare clienti a rischio churn, reclami ripetuti o insoddisfazione latente, tecniche di causal inference per identificare le vere leve che migliorano la soddisfazione del cliente dopo un intervento e sistemi di recommendation per suggerire in tempo reale al call center la soluzione più probabile o le offerte commerciali più adatte.
  • Modelli di Anomaly Detection con Algoritmi di root cause analysis AI-based per correlare i reclami a eventi di rete, permettendo una diagnosi più rapida e accurata.
  • Modelli di Reinforcement Learning per ottimizzare dinamicamente il percorso di assistenza (routing intelligente verso l’operatore migliore, suggerimento azioni successive).

Generative AI e AI per i processi interni nelle TLC

Questo è un ambito, meno visibile al cliente finale, con potenziale enorme in termini di efficienza operativa e accelerazione del time-to-market. Per applicare efficacemente la Generative AI e l’AI ai processi interni, è fondamentale disporre di dataset strutturati e non strutturati che coprono le diverse funzioni aziendali:

  • Documentazione tecnica: manuali apparati, configurazioni di rete, schemi di architettura, standard di progetto.
  • Procedure operative: runbook di gestione rete, workflow di operation center, policy di sicurezza e compliance.
  • Log di operation: attività di maintenance, aggiornamenti firmware/software, tempi di intervento, incident history.
  • Ticketing interno: issue ricorrenti, soluzioni adottate, knowledge base.
  • Dati di engineering: dati di performance raccolti da sistemi OSS/BSS, metriche di utilizzo, simulazioni di capacità.
  • Documentazione di gara e normativa: capitolati tecnici, offerte commerciali, contratti, normative di settore.
  • Dati formativi: materiali di training tecnico, corsi interni, skill matrix del personale.
  • Codice e scripting: playbook di automazione, script di configurazione rete, template di provisioning.

La Generative AI entra in gioco su più fronti, grazie alla capacità di comprendere il linguaggio tecnico-specialistico e generare contenuti strutturati e coerenti. Gli algoritmi appartengono tutti alla famiglia NPL (Natural Language Processing) e Gen AI i più rilevanti includono:

  • Domain Specific Language Models (DSLM): modelli adattati su linguaggi di rete, cloud, sicurezza e operation (es. modelli fine-tuned su documentazione tecnica TLC).
  • Sistemi Retrieval-Augmented Generation (RAG): combinano LLM con knowledge base interne per generare risposte precise e contestualizzate.
  • Modelli di code generation: generazione automatica di script di configurazione, template YAML/JSON per orchestratori, script di provisioning.
  • Sistemi di process mining e AI workflow optimization: analizzano i log operativi per individuare colli di bottiglia e suggerire automazioni.
  • Sistemi di document understanding: estrazione automatica di requisiti e vincoli da documenti di gara, normativa, contrattualistica.
  • Modelli di summarization per creare sintesi di incident report, change management e lesson learned.
  • Modelli di AI generativa multimodale (testo + diagrammi) per supportare la creazione di schemi architetturali preliminari.

L’impatto AI per l’offerta di nuovi servizi digitali

L’applicazione dell’AI nelle telecomunicazioni va ben oltre i processi e il perimetro tecnico della rete discussi nel capitolo precedente, e consente agli Operatori di estendere in modo sostanziale ed economico la loro offerta dei servizi digitali, trasformando gli operatori in AI-driven Digital Service Providers. Proviamo a strutturare il ragionamento per capire sia il valore che la modalità di implementazione concreta.

Nel modello tradizionale, gli Operatori di oggi, sostanzialmente, vendono “connettività pura” (Mbps, minuti, GB). Questo modello è sotto pressione per saturazione mercato e margini decrescenti.

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

L’AI e GenAi, insieme all’uso strategico delle nuove tecnologie e librerie software Open Source, consente invece di trasformare l’offerta oggi piuttosto limitata degli Operatori in un portafoglio multiservizio che trae vantaggio dalla conoscenza della base dei clienti (Customer Platform) e soprattutto aperta ad ospitare piattaforme di servizi di terze parti. In particolare, la nuova offerta diventa:

  • centrata sul cliente (personalizzazione spinta),
  • abilitante per terze parti (ecosistema),
  • capace di erogare servizi digitali integrati e contestuali (Digital Service Provider)
  • Capace di assistere e facilitare i clienti nella fruizione dei servizi (localizzazione) e per questo fortemente differenziata rispetto ai puri BIG TECH.

Gli Operatori diventano aggregatori e orchestratori intelligenti di servizi digitali personalizzati e contestuali per il proprio cliente e l’applicazione dell’AI, schematizzata nella figura 2, può rendere molto più concreta e fattibile tale trasformazione. Per rendere operativo tale modello, servono diversi layer di capability, che possiamo schematizzare nei seguenti paragrafi.

Evoluzione della strategia che fa perno sulla Customer Platform

Dotati di “Customer Platform” numericamente importanti, gli operatori di telecomunicazioni devono investire, con maggiore decisione e focalizzazione rispetto al passato, nella creazione di un portafoglio di servizi dedicati alla clientela residenziale amplio e diversificato per tendere a un modello “Digital Service Integrator”e a un modello “Digital System Integrator” nel mondo delle imprese e delle pubbliche amministrazioni. La cura dei clienti, la previsione delle loro esigenze basate su attenta analisi dei dati, l’adozione della GenAI per l’implementazione delle attività atte a coadiuvare le piattaforme di multicanalità per rendere efficace il rapporto continuativo con la clientela.

Questo renderà possibile il rapporto con la clientela, vicino, fidelizzato, proattivo, che può costituire il fattore differenziante e nel lungo termine vincente rispetto ai concorrenti, le Big Tech, che oggi hanno sostanzialmente il monopolio dei servizi digitali. Quindi da operatori dei servizi di telecomunicazioni a operatori “di prossimità” dei servizi digitali.

Su questa base si applicano:

  • modelli predittivi (esigenze, churn, soddisfazione),
  • recommendation system,
  • modelli generativi per suggerimenti proattivi e supporto su misura.

Figura 2: Applicazione dell’AI ai processi di Service Creation e Customer Care

Sviluppo di un’offerta multiservizio nativa digitale per il residenziale

Il portafoglio di un nuovo Digital Service Integrator, nel mercato residenziale, può evolvere in un’offerta che comprende:

Dilazioni debiti fiscali

Assistenza fiscale

 

  • servizi di connettività e comunicazione che fanno perno sull’attuale modello degli operatori tradizionali,
  • servizi di distribuzione dei contenuti digitali, come ad esempio video, musica, podcast, … dove AI è importante per i motori di raccomandazioni e playlist specifiche sulle preferenze dei clienti,
  • servizi di gaming on line orientati alle community e alla clientela diffusa,
  • servizi transazionali di e-payment, instant insurance,
  • servizi di certification authority come la digital identity, posta elettronica certificata e firma elettronica,
  • servizi di e-commerce: relativi al mondo utilities, insurance, banking,
  • servizi di digital healthcare & fitness che consentono il monitoraggio dei parametri vitali e possano raccomandare semplici evoluzioni degli stili di vita a beneficio dei clienti (è rilevante in questo contesto il posizionamento di Apple con le Applicazioni Salute e Fitness che vanno esattamente nella direzione indicata);
  • servizi di positioning & digital maps sia in esterno che nei luoghi interni (ad es. centri commerciali, fiere).

Questo portafoglio, amplio e diversificato, è schematizzato nella figura 3. È vero che l’esperienza degli scorsi anni ci racconta che molti operatori hanno avviato i servizi della suite qui indicata ma con successi molto limitati. Tra le motivazioni vi è stata, soprattutto nelle fasi iniziali, la consuntivazione di margini molto limitati e quindi considerati diluitivi rispetto alle percentuali di EBITDA margin caratteristiche di questa Industry.

Oggi la situazione è molto cambiata e cambierà ancora più velocemente nel breve termine. Innanzitutto, c’è una nuova consapevolezza del valore dei nostri dati, della nostra privacy, della corretta interazione ed espressione dei nostri valori che non ritroviamo del tutto nelle grandi piattaforme social e cloud. Questo nei prossimi anni richiede e stimola la nascita di piattaforme, contenuti e servizi europei e domestici. In secondo luogo, il software per lo sviluppo di tali servizi è largamente disponibile in sterminate librerie dalle quali è possibile attingere con un investimento non proibitivo dal quale partire per lo sviluppo delle varie suites di servizi (cosa questa molto diversa rispetto alle esperienze degli operatori nello sviluppo di piattaforme di servizi e contenuti digitali).

Molto importante il livello di personalizzazione dei servizi e di forte caring dei clienti, ossia la cosiddetta offerta di prossimità con forte focalizzazione sulle esigenze dei clienti:

  • Recommendation system su video, podcast, gaming usando modelli generativi multimodali.
  • Personalizzazione tornei, matchmaking AI-driven, suggerimenti skill building.
  • E-commerce, utilities, banking: motori di offerta personalizzata, dynamic pricing AI-powered.
  • Elaborazione dati wearables, piani personalizzati AI per prevenzione e coaching salute.
  • AI per identity proofing, antifrode, scoring di rischio.
  • AI per valutazione rischio in tempo reale e pricing dinamico polizze micro.
  • AI per navigazione contestuale, flussi di persone, servizi localizzati.

E ancora di più, oggi, l’AI permette di:

  • comporre bundle dinamici in funzione del profilo,
  • erogare servizi con delivery automatizzato e scalabile (es. fitness, e-payment, digital identity),
  • integrare terze parti in un ecosistema gestito (come fu per i VAS via SMS, ma oggi con API e marketplace AI-based).

Con il motore di composizione dinamica di offerte multiservizio, l’offerta non è più statica ma negoziata in tempo reale in funzione del profilo utente tramite policy engine AI-driven, recommendation systems, generative AI per personalizzare contenuti e suggerimenti. Esempio pratico: pacchetti personalizzati che integrano bundle connettività, contenuti streaming, gaming, e-payment, e-health, certificazione digitale ecc.

Figura 3: L’approccio “AI driven Digital Service Integrator” con i servizi per il segmento residenziale, facendo leva sulla Customer Platform come suo punto di forza.

Sviluppo di un’offerta di Digital System Integration sul mercato Business

Gli operatori hanno una presenza importante sul segmento delle aziende e delle pubbliche amministrazioni, il portafoglio dei servizi è stato basato negli anni sulla connettività, navigazione internet e accesso al cloud, erogati grazie alle infrastrutture e tecnologie di comunicazione.

Tuttavia, più recentemente il portafoglio dei servizi si è esteso al mondo cloud, alla cybersecurity ai managed services, alla digitalizzazione dei principali verticali come Banche e Assicurazioni, Utilities, Pubblica Amministrazione, Retail e Media.

Cessione crediti fiscali

procedure celeri

 

L’approccio di Digital System Integration include forti capacità di offrire managed services, e su asset e competenze distintive come illustrato nella figura 4. Appartengono a tali asset, competenze e piattaforme di servizi:

  • Data Communication & Collaboration, su base fissa e mobile, su cui si basano ancora oggi la gran parte dei risultati economici
  • Network Operation Center, basati su centri operativi e piattaforme software per il monitoraggio continuo di allarmi, traffico, qualità e raccolta di segnalazioni cui seguono diagnosi, riconfigurazione e successiva riparazione.
  • Security Operation Center, basati su centri operativi e piattaforme software per il monitoraggio continuo di allarmi, threat, bollettini di vulnerabilità, flussi di traffico anomalo, e attacchi delle varie tipologie,
  • Cloud Operation Center e Control Room per gestione infrastrutturale e applicativa,
  • Data Center e piattaforme di virtualizzazione di Rete cui per offrire alle aziende un approccio ibrido e bilanciato tra private cloud (anche in logica EDGE) e public cloud, quest’ultimo sempre più utilizzato per dati e funzioni “commodity” e sempre di meno per dati e funzioni “strategy”,
  • Piattaforme di Internet Of Things e Big Data Repository & Analytics.

Una delle suggestioni più interessanti di ciò che abbiamo descritto, rafforzato da recenti acquisizioni di quote in importanti Operatori italiani, va nella direzione di soggetti in grado di operare come punto di riferimento per l’erogazione di molti servizi per le aziende e per le pubbliche amministrazioni.

In questo scenario è necessaria una profonda evoluzione delle competenze. Esse vanno dallo sviluppo e integrazione software, alla capacità di progettazione, configurazione e deployment di software defined network e data center, erogazione di managed services, analisi proattiva e remediation di cybersecurity e altre ancora. Occorre un nuovo approccio verso i principali vendor di tecnologia dove la logica è quella di evitare la disintermediazione e facilitare un approccio contrattuale e di partnership diretto. La distanza da oggi è tanta ma la strada è molto chiara e può essere percorsa con determinazione e velocità.

Uno dei punti cruciali nell’offerta B2B, in logica AI, è quello di realizzare e sostenere un approccio di AI Sovrana per il B2B, che può diventare uno degli asset centrali per i prossimi anni infatti, Il problema di fondo per le aziende clienti è che vogliono adottare AI per ottimizzare i propri processi interni (proprio come abbiamo descritto per il mondo TLC), hanno a disposizione dati enormi e preziosi (tecnici, operativi, normativi, ingegneristici, documentali), sono però spesso frenate su due fronti:

  • Sovranità e controllo sui dati: timore che i dati aziendali sensibili (IP, progetti, clienti, dati competitivi, strategie di prodotto e di mercato) finiscano nei modelli globali gestiti da hyperscaler esteri.
  • Assenza di AI specializzata sui propri processi interni: i LLM generalisti non conoscono il dominio specifico dell’azienda, faticano con linguaggi tecnici, dati strutturati aziendali, standard di settore e dunque occorre muovere verso i DSLM (Domain Specific Language Model).

Gli operatori TLC sono in una posizione unica per rispondere a queste esigenze, in quanto hanno già relazioni consolidate con il tessuto produttivo nazionale (PMI, grandi aziende, PA, sanità, banche, utilities), posseggono e possono ulteriormente ampliare asset infrastrutturali (data center, cloud regionali, backbone sicuri, edge node, competenze su sicurezza e compliance), possono erogare AI in logica AI locale, verticale, controllata, trustable.

Si tratta di creare una nuova piattaforma di AI industriale sovrana per i processi aziendali. Le componenti chiave che devono essere sviluppate sono:

  • Edge Cloud AI Sovrano, ossia un’infrastruttura elaborativa locale (data center su territorio nazionale, edge AI per fabbriche e uffici), certificata GDPR e norme nazionali. Protezione end-to-end di dati, log e modelli addestrati, con meccanismi di encryption, policy e auditing. Gestione lifecycle dei dati proprietari aziendali (dataset privati per l’addestramento personalizzato). Da notare che questa architettura trova applicazione anche nell’evoluzione del Telco Cloud necessario per la virtualizzazione degli apparati di rete tendenza in atto da molti anni nelle Telecomunicazioni.
  • LLM Specializzati (o anche DSLM) per Industry conModelli linguistici verticali per settori specifici (manufacturing, energy, banking, telco, healthcare, logistica, PA). Training su dati pubblici e privati settoriali per comprensione linguaggi tecnici, documentazione normativa, standard ingegneristici. Capacità di ingestion automatica di knowledge base aziendali interne (policy, runbook, documentazione tecnica proprietaria).

Figura 4: L’approccio “Digital System Integrator” con i servizi erogabili da una ServCo, nel segmento business, facendo leva sulle Competenze di System Integration e le Piattaforme per erogare servizi gestiti.

  • AI Process Assistantossia Strumenti AI che affiancano le squadre aziendali nei processi di redazione automatica di documentazione tecnica e gare, di sintesi automatica di audit, verifiche di compliance, preparazione per ispezioni, di estrazione automatica di vincoli contrattuali e compliance da normativa e di supporto agli ingegneri per automazione di configurazioni tecniche e codifica.
  • MLOps aziendale gestito, ossiaservizi di addestramento modelli personalizzati per i clienti su loro dati aziendali, con pieno controllo e segregazione logica dei dataset. Modelli aggiornabili e migliorabili nel tempo, mantenendo l’intelligenza contestualizzata sull’azienda. Supporto continuo del service provider per tuning, validazione e governance.
  • Compliance & Trust,Servizi gestiti di AI Governance: tracciabilità modelli, auditing decisioni AI, verifiche di bias e explainability. Garanzia che i dati restino controllati in ambito nazionale, anche sotto requisiti regolatori critici (es. finance, difesa, PA, sanità).

I canali digitali (app, portale, voicebot, assistenza) diventano inoltre copilot intelligenti che:

Finanziamenti personali e aziendali

Prestiti immediati

 

  • dialogano con il cliente (LLM e RAG),
  • propongono offerte, aiutano nelle configurazioni, automatizzano la gestione,
  • mantengono una relazione proattiva e personalizzata.

E’ importante la continua raccolta e gestione dati utente (dati di traffico, utilizzo servizi, preferenze, comportamenti, dati di contesto ambientale e temporale) e uso di modelli di machine learning e AI generativa per:

  • profilazione predittiva,
  • segmentazione dinamica,
  • intenti e interessi real-time,
  • rilevamento bisogni latenti.

L’impatto AI sulle architetture di rete

Le Architetture delle Reti, delle Piattaforme dei Servizi e dei Sistemi, con l’adozione generalizzata dell’AI, procederanno verso una profonda revisione architetturale.

Edge computing e Telco Cloud

In primo luogo, si procederà verso il Telco Cloud, in quanto i dati su reti, traffico, allarmi e uso dei servizi da parte dei clienti, raccolti in tempo reale con tecnologie e strumenti di telemetria e le analisi dei dati con i modelli AI, richiedono elaborazione in ambienti edge (distribuito e implementato con tecnologie HPC) in buona parte dei POP degli Operatori. Tale approccio è noto con il termine di Telco Cloud, ed è anche necessario per l’implementazione della virtualizzazione degli apparati di rete, per il supporto di funzioni di rete e alle piattaforme di servizi AI driven. Una delle trasformazioni più profonde in atto nelle telecomunicazioni proprio in parallelo alla crescita di utilizzo dell’AI per le varie funzioni ora esaminate, è quella delle infrastrutture elaborative per supportare l’AI applicata alle reti e ai servizi. L’AI applicata alle TLC non è semplicemente “un software in più” che gira sui server tradizionali. I motivi sono precisi:

  • I volumi di dati crescono in modo esponenziale: parliamo di petabyte al giorno su reti mobili, fisse, IoT, cloud e core di rete;
  • I dati da elaborare sono eterogenei (structured, semi-structured, unstructured) e ad altissima variabilità temporale;
  • Molti algoritmi AI — in particolare quelli di ottimizzazione real-time per SON, QoE, security — richiedono inferenza a bassa latenza;
  • L’apprendimento continuo (online learning) su reti auto-adattive richiede capacità elaborative sempre attive e distribuite;
  • Serve capacità predittiva vicino al punto di decisione (es. edge node di rete), non sempre centralizzabile nel cloud.

L’HPC sta entrando nelle TLC per alcune esigenze chiave:

  • Training massivo dei modelli AI (supervised learning, deep learning, reinforcement learning) su dataset storici enormi. Questo richiede cluster di GPU, TPU e acceleratori AI.
  • Simulazioni what-if complesse per il planning di rete, slicing dinamico, scenario analysis multi-parametrica.
  • Analisi avanzate di sicurezza, ad esempio ricostruzione temporale di attacchi (kill chain analysis) e ricerca di pattern complessi su big data.
  • Ottimizzazione globale di risorse radio e spettro in ambienti multi-tecnologia e multi-sito.
  • Modellazione generativa di configurazioni di rete ottimali sotto vincoli multipli.
  • Inferenza AI in tempo reale per SON (decisioni entro millisecondi su allocazione celle, power management, interference avoidance).
  • QoE Management personalizzato per utente basato su condizioni locali.
  • Controllo sicurezza locale su slice 5G privati e campus network.
  • Ottimizzazione routing, latency e resource allocation su reti distribuite.
  • Supporto ad applicazioni mission-critical (es. veicoli autonomi, industria 4.0, healthcare remoto) che necessitano di AI a bassa latenza.
  • Orchestrazione locale di microservizi AI integrati nel MEC (Multi-access Edge Computing) 5G.

In sostanza, gli operatori TLC si stanno spostando verso un’architettura ibrida e distribuita:

  • Data Lake centralizzati + HPC per training e analytics di lungo periodo
  • Edge Node intelligenti per inferenza locale e decisioni autonome
  • Cloud-native AI Platform per MLOps, orchestrazione modelli, governance dei dati
  • Orchestratori di rete che integrano AI come elemento funzionale (AI-native OSS/BSS)

Closed Loop Operations e Network As A Service

In secondo luogo, si velocizzerà la “softwarizzazione” della rete, o Network Function Virtualization, e l’integrazione AI/ML nei piani OSS/BSS e nelle piattaforme di orchestrazione con un approccio “Closed Loop Operations” come rappresentato nella figura 5. Verrà generalizzata la disponibilità di funzioni di “programmability” in tutti gli elementi di rete, tecnologia software defined totalmente virtualizzata, standard e API per interoperabilità fra operatori e vendor tendendo a un modello NaaS (Network As A Services).

Va creata una piattaforma aperta a terze parti (developer, startup, PA, fintech, insurtech) che permetta di:

Cessione crediti fiscali

procedure celeri

 

  • pubblicare servizi dentro l’ecosistema telco,
  • accedere alle API cliente (dati, identità, billing, connettività),
  • condividere ricavi in logica revenue sharing.

Questo richiede anche una nuova cultura industriale, simile a quella che aveva animato il mondo dei VAS, ma oggi con strumenti molto più potenti: AI, microservizi, edge cloud, privacy by design. Marketplace di API AI-powered per integrare nuovi servizi. Accordi strategici con hyperscaler, start-up e player verticali. Ricordiamo che tanti anni fa era nato un ecosistema di aziende che sviluppava e pubblicava servizi sulle piattaforme SMS mobili (i VAS mobili o servizi a valore aggiunti). Tali servizi erano la sveglia, l’oroscopo, le news, … E’ importante riprendere quella imprenditorialità che oggi è stata completamente sostituita dalle APP che vengono ospitare e scaricate dagli APPLE store e GOOGLE play.

Evoluzione e capacity planning nel Backbone

Un terzo e importante effetto dello sviluppo AI sarà l’impennata di traffico nei backbone delle reti di telecomunicazioni e quindi nella rete internet mondiale. Le stime sono analoghe a quelle della crescita della capacità, e dunque del consumo energetico, dei Data Center del mondo e tali stime indicano un consensus intorno al 25% annuo per i prossimi anni fino al 2030, sostanzialmente polarizzata dalle GPU per l’AI. Ciò significa che dai circa 85 GW di potenza istallata nel 2025, nel mondo, ci porteremo a 260 GW nel 2025 con un investimento unitario medio di circa 13 miliardi di $ a GW.

Nasceranno nuove direttrici di traffico intercontinentale e nuovi grandi cavi sottomarini. Anche i Backbone nazionali dovranno essere adeguati con sufficiente anticipo. L’impatto dell’AI non è la sola sorgente di traffico in quanto si aggiunge all’evoluzione del video streaming da 4k a 8k, alle esigenze dei nuovi terminali per la realtà aumentata e virtuale (xR) alla crescita degli oggetti intelligenti che comunicano i propri dati ai loro Digital Twin.

Nel nostro Paese questo avrà un impatto importante in quanto dobbiamo considerare che la grande dorsale ottica nord sud ed est ovest, il famoso cavo T-Bone, realizzato da Telecom Italia ha oltre 25 anni. Di conseguenza la tecnologie delle fibre è datata (standard G.655) ed è molto limitata, rispetto alle previsioni indicate, la sua capacità.

Occorre prevedere un nuovo Piano di Sviluppo per l’incremento sostanziale della capacità di Backbone e quindi l’installazione di un “T-Bone 2” che corre lungo le infrastrutture critiche del Paese (autostrade, ferrovie, coste dei nostri mari). Auspichiamo che tale piano emerga e trovi applicazione velocemente.

Stima degli investimenti

Investimenti necessari per lo sviluppo delle infrastrutture e software per AI si concentreranno su:

  • Nuovi datacenter, edge node, acceleratori AI;
  • Progressivo arricchimento delle infrastrutture di backbone delle reti (nuove direttrici e potenziamento di quelle esistenti);
  • Software per il data management, ML Ops e governance, forte adozione di strumenti Open Source;
  • Competenze: formazione di data scientist, ingegneri AI e specialisti di AI engineering per le reti.

Questa trasformazione comporta investimenti rilevanti su:

  • Infrastrutture hardware (GPU cluster, edge appliance, AI accelerators dedicati)
  • Reti inter-datacenter e backbone capaci di sostenere il flusso dati continuo
  • Software stack AI-native integrato con i sistemi di rete
  • Competenze interne su AI engineering, edge AI, distributed learning
  • Partnership tecnologiche (chip vendor, software AI vendor)

In molti casi, l’evoluzione verso AI-native network sta diventando un elemento strategico anche per la competitività futura tra gli operatori, proprio per la capacità di realizzare reti auto-adattive, sicure e ottimizzate economicamente.

Figura 5: Evoluzione dell’architettura delle Reti di Telecomunicazioni per adozione della Gen AI.

Impatto AI sulle competenze software e gli skill open source

Nelle telecomunicazioni, come descritto nei paragrafi precedenti, abbiamo incontrato sei famiglie di Algoritmi e di Modelli che sono prevalentemente utilizzate per i processi di gestione della rete, valutazione della qualità del servizio, sicurezza della rete e automazione del Customer Care. Esse sono:

  • Le Graph Neural Networks (GNN) e i modelli spazio-temporali
  • I modelli di deep learning per time series e sequenze
  • I modelli di supervised learning classico
  • Il reinforcement learning e il deep reinforcement learning
  • I modelli di Natural Language Processing e Generative AI
  • I modelli di anomaly detection

Altri modelli sono invece utilizzabili per lo sviluppo delle piattaforme di servizio per le strategie di service e system integration prima descritte.

Le Graph Neural Networks (GNN) e i modelli spazio-temporali estendono le capacità predittive integrando la struttura topologica della rete. Sono particolarmente efficaci quando occorre modellare la rete come grafo di nodi e collegamenti fisici o logici, ad esempio per prevedere propagazioni di guasti, per simulare la domanda di traffico distribuita geograficamente, per ottimizzare il bilanciamento dei carichi e per gestire le complesse interazioni fra nodi nelle reti mobili, nel core e nei sistemi di trasporto. La loro capacità di comprendere non solo il dato temporale ma anche la struttura spaziale consente di ottenere modelli predittivi molto più accurati e granulari.

Figura 6: I principali modelli di AI utilizzati nelle Telecomunicazioni.

I modelli di deep learning per time series e sequenze, come LSTM (Long Short-Term Memory), GRU (Gated Recurrent Units) e i Transformer specializzati per dati temporali, sono utilizzati per analizzare e prevedere l’evoluzione dinamica dei fenomeni nel tempo. In ambito telecomunicazioni consentono di anticipare la domanda di traffico, prevedere guasti imminenti su apparati di rete, simulare l’andamento della QoE e modellare le sequenze complesse di eventi nei log operativi. I Transformer, in particolare, offrono oggi una capacità superiore di gestire sequenze multivariate su lunghi orizzonti temporali, diventando progressivamente lo standard anche per i dati di rete.

I modelli di supervised learning classico, in particolare i Gradient Boosted Trees come XGBoost, LightGBM e CatBoost, sono strumenti estremamente efficaci per analizzare dati strutturati e numerici tipici dei contesti TLC. Sono molto utilizzati per la previsione dell’abbandono dei clienti (churn prediction), per stimare la qualità percepita dal cliente a partire dai KPI tecnici, per identificare guasti probabili sulla base di pattern storici e per supportare analisi causali semplici. La loro robustezza, velocità di training e interpretabilità li rende spesso la scelta prioritaria su dataset aziendali ampi e ben strutturati.

Il reinforcement learning e il deep reinforcement learning, rappresentano l’approccio più adatto quando occorre ottimizzare decisioni sequenziali in ambienti complessi e dinamici, come appunto le reti telecom. In questo contesto vengono utilizzati per l’automazione dei Self Organizing Networks (SON), per l’allocazione dinamica delle risorse di rete, per la gestione intelligente dei customer journey nei servizi di assistenza, e per l’ottimizzazione continua dei parametri di rete al variare delle condizioni operative e del traffico. I modelli reinforcement consentono ai sistemi di apprendere nel tempo la politica ottimale osservando i risultati delle proprie azioni, migliorando continuamente le prestazioni della rete.

I modelli di Natural Language Processing e Generative AI, in particolare i Large Language Models (LLM) come BERT e i modelli GPT-like, rappresentano oggi una componente trasversale e rivoluzionaria nei processi interni delle TLC. Essi consentono l’automazione della gestione documentale tecnica, la redazione assistita di report incident, l’analisi semantica dei ticket clienti, la generazione automatica di configurazioni di rete e di codice di provisioning. Grazie ai sistemi Retrieval-Augmented Generation (RAG), questi modelli possono attingere a knowledge base aziendali interne per generare risposte precise, contestualizzate e coerenti con le policy aziendali, diventando veri e propri assistenti AI per gli ingegneri e gli operatori.

I modelli di anomaly detection, come autoencoder, isolation forest e clustering unsupervised, sono fondamentali per individuare comportamenti anomali e deviazioni non previste nei pattern operativi della rete. Vengono applicati nel rilevamento precoce dei guasti, nella localizzazione dei fault, nella protezione dagli attacchi informatici e nella sorveglianza continua della qualità del servizio. Poiché in molti casi le anomalie non sono note a priori e non esistono dataset etichettati, i modelli unsupervised sono spesso l’unica soluzione efficace per identificare situazioni di rischio emergente.

Oggi la quasi totalità delle librerie e dei framework utilizzati per implementare i sei modelli che abbiamo descritto è disponibile sotto forma di software open source, maturato negli ultimi 10-15 anni grazie al lavoro combinato di università, centri di ricerca, community open, grandi aziende tech e consorzi industriali.

Ad esempio, per i modelli di deep learning su time series e sequenze, i principali framework sono TensorFlow (originariamente Google), PyTorch (Meta, oggi community-driven), MXNet, Keras e JAX. Queste librerie sono open source e costantemente aggiornate dalla comunità scientifica e industriale.

Per i modelli di supervised learning classico, come i Gradient Boosted Trees, le principali librerie open source sono XGBoost, LightGBM e CatBoost, tutte ampiamente diffuse e stabilizzate. Questi framework sono oggi de facto standard globali in ambito industriale. Nel reinforcement learning vengono usate librerie open come OpenAI Gym, Ray RLlib, Stable Baselines, spesso integrate dentro TensorFlow o PyTorch. Anche qui il core tecnologico è aperto, con una fortissima spinta comunitaria.

Per l’anomaly detection i componenti fondamentali (autoencoder, isolation forest, clustering unsupervised) sono ampiamente disponibili all’interno di librerie open come Scikit-learn, PyOD, PyTorch o TensorFlow stesso.

Per i modelli NLP e Generative AI oggi dominano i modelli open come Hugging Face Transformers, Llama (Meta), Mistral, Falcon, MPT, Phi-3 e molti altri. Le librerie che li supportano (Transformers, LangChain, RAG-stack, Haystack, ecc.) sono quasi tutte open e mantengono altissima velocità di sviluppo.

Per le Graph Neural Networks esistono librerie open molto avanzate come DGL (Deep Graph Library), PyTorch Geometric, StellarGraph e GraphNets, che permettono di sviluppare GNN sofisticate in tempi oggi molto rapidi.

Figura 7: I principali modelli di AI utilizzati nelle Telecomunicazioni e i Framework OPEN SOURCE che li sviluppano

Quindi, in estrema sintesi: sì, l’infrastruttura software fondamentale di AI per le TLC si basa per oltre il 90% su componenti open source consolidate, mature e disponibili a chiunque abbia le competenze per usarle.

Naturalmente resta vero che non basta “adottare e utilizzare le librerie”: servono dati di qualità, competenze di ingegneria AI, capacità di training, tuning, validazione e integrazione nei processi operativi TLC. Ed è qui che oggi si gioca molto del valore differenziante degli operatori o dei system integrator più evoluti.

Questa disponibilità open però ha un effetto strategico importante: consente agli operatori TLC di evitare dipendenza tecnologica eccessiva da pochi vendor, sviluppare internamente AI sovrana e personalizzata, costruire piattaforme AI verticali adattate al proprio network e ai propri clienti.

Impatto economico AI sulle telecomunicazioni

Secondo gli studi recenti di McKinsey, GSMA Intelligence e BCG, l’adozione sistemica e su larga scala dell’intelligenza artificiale nelle telecomunicazioni può determinare, entro i prossimi 5 anni, un incremento dei margini operativi globali nel settore compreso tra il 15% e il 25%. Questo risultato deriva da un insieme di leve che agiscono sia sulla componente dei costi che su quella dei ricavi.

Sulla componente costi, l’automazione AI-driven dei processi di rete, delle operation e del customer care può generare una riduzione dell’OPEX complessivo fino al 30%. Le aree che più beneficiano di questa efficienza sono la manutenzione predittiva, il network optimization continuo, l’automazione dei ticket di assistenza, il fault management proattivo e i sistemi self-healing nelle SON.

Sulla componente ricavi, l’applicazione dell’AI nei processi commerciali, di personalizzazione dell’offerta e di customer experience consente un incremento atteso dell’ARPU (Average Revenue Per User) tra il 5% e il 10%, grazie a una maggiore propensione all’acquisto di servizi personalizzati, bundle multi-servizio, upgrade dinamici e maggiore fidelizzazione.

Infine, si apre un nuovo fronte di crescita strategica per i servizi B2B, dove gli operatori TLC possono posizionarsi come fornitori di piattaforme AI-as-a-Service per le imprese, erogando capacità predittive, soluzioni verticali specializzate per i vari settori industriali (Industry 4.0, logistica, healthcare, smart city, finanza) e abilitando, come abbiamo visto, la trasformazione AI-powered dei processi interni dei clienti business.

Questi dati non sono solo ipotesi, ma sono già oggi osservabili in forma iniziale negli operatori pionieri che stanno integrando AI nei loro OSS/BSS, nelle operation di rete e nei servizi digitali di nuova generazione.

Ad oggi gli operatori tradizionalmente investono circa il 20-25% dei ricavi in CAPEX annuale. Di questi, la maggior parte va su reti radio, backbone ottici, apparati di trasporto, infrastruttura IP/MPLS, piattaforme OSS/BSS, piattaforme cloud interne e data center generici. Finora, l’investimento specifico in AI è stato marginale o parziale, limitato a pochi progetti di automazione operativa o analytics mirati. L’introduzione dell’AI su larga scala, come la stiamo analizzando ora, porta però ad almeno 4 fronti di investimento incrementale:

Il primo riguarda i Data Center AI-specializzati (HPC AI Cluster) per addestrare e mantenere operativi i modelli di forecasting, reinforcement learning, GNN e LLM di servizio. Si parla qui di architetture GPU/TPU-centriche, con potenze elaborative che possono crescere da pochi petaflops a scala exascale per i principali operatori tier-1. La componente hardware (GPU cluster, interconnessione, storage AI-optimized) pesa in modo rilevante. Le stime industriali attuali indicano che, per un operatore medio-grande europeo, questa componente da sola può richiedere investimenti aggiuntivi annui compresi fra il 3% e il 5% dei ricavi complessivi.

Il secondo riguarda il deployment dell’Edge AI, che va a integrare inferenza locale per SON, QoE, low latency AI, security, industrial IoT e servizi consumer realtime. L’Edge va scalato in decine o centinaia di nodi a bassa latenza distribuiti, anch’essi dotati di acceleratori AI localizzati. Qui i fabbisogni CAPEX sono stimati in ulteriori 1-2% dei ricavi.

Il terzo riguarda la modernizzazione delle piattaforme dati: serve una data fabric AI-native (Data Lakehouse), capace di integrare dati operativi di rete, customer data, dati OSS/BSS, dati di sicurezza, dati IoT, ecc. Qui l’investimento si spalma fra piattaforme software, licenze AI stack, piattaforme MLOps e governance. Su scala multi-annuale si valuta un altro 1-2% dei ricavi.

Il quarto, e spesso meno considerato, è l’investimento in competenze e change organizzativo. L’introduzione massiccia di AI richiede skill interni su AI engineering, AI Ops, data governance, AI security, auditability, explainability. Si tratta di percorsi triennali di formazione, recruitment e riqualificazione che generano un OPEX addizionale di lungo periodo non trascurabile.

Se sommiamo, su scala triennale, questi quattro fronti, possiamo stimare che il percorso verso una AI-native telco richiederà agli operatori un incremento di CAPEX/OPEX dell’ordine di un ulteriore 5-8% dei ricavi annuali dedicato esclusivamente al programma AI. Quindi un operatore che oggi investe 20-25% dei ricavi potrebbe salire temporaneamente su scala 28-30% per alcuni anni.

Va però sottolineato un aspetto essenziale che la maggior parte degli studi strategici evidenzia: il ritorno atteso (sia su OPEX saving, sia su nuovi ricavi B2B e ARPU consumer) tende a generare una neutralità finanziaria sul medio termine (3-5 anni), per poi portare a benefici strutturali superiori in termini di marginalità operativa.


[1] La minore esigenza di mano d’opera per l’espletamento dei processi di gestione della rate non significa necessariamente un ulteriore decremento dell’occupazione nel settore ma un drastico shift delle competenze necessarie, infatti, le competenze software e di progettazione di reti e infrastrutture compenseranno le minori esigenze nei processi più tradizionali.

[2] Si intende per Domain Specifica Language Model (o DSLM) la trasformazione del Know How specifico delle aziende, conservato nei documenti rilevanti e confidenziali, nei lavori e delibere dei CDA, nelle strategie dei piani industriali, nei dati operativi e strategie di prodotto, in altre parole la trasformazione della cultura e della capacità delle aziende, in informazione elaborabile con i principali Algoritmi AI e Gen AI e con gli AI agent.

[3] Si intende per CSI la Customer Satisfaction Index e per NPS il Net Promoter Score.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Aste immobiliari

l’occasione giusta per il tuo investimento.