Come l’Ai può diventare un alleato per l’inclusione, se governata da etica e competenze? Alcune risposte dal convegno “AI e Capitale Umano a difesa delle diversità”, promosso da Side by Side e ospitato da Edenred
Che l’Ai sia oggi un tema centrale per persone, imprese e istituzioni non c’è alcun dubbio. Ma la questione oggi è capire la portata di una rivoluzione copernicana i cui effetti, positivi e negativi, non sono ancora ben chiari. Anche perché sono molte le sperimentazioni, ma poche quelle che arrivano effettivamente a essere messe a terra in maniera concreta. Secondo recenti ricerche, solo il 7% degli utilizzatori di Ai è consapevole di cosa sta facendo, anche se il 96% dice di usarla, spesso per questioni personali.
Queste alcune delle problematiche che sono state affrontate dalla prima tavola rotonda, ospitata nella sede di Edenred e moderata da Cristina Lazzati, direttrice di Mark Up e Gdoweek.
Come governare la trasformazione
Per Diana De Marchi, consigliera del Comune di Milano, il rischio è che la rivoluzione tecnologica amplifichi le disuguaglianze: “Le professioni più a rischio sono quelle a prevalenza femminile. Serve formazione digitale fin dalle scuole primarie e alleanze forti tra istituzioni, imprese e terzo settore per creare nuove opportunità. Usiamo già in molti l’intelligenza artificiale, ma dobbiamo imparare a conoscerla meglio, in un mondo in cui Le competenze relazionali e creative restano la nostra vera difesa”.
Un approccio condiviso da Elena Rossella Lattuada, delegata del sindaco alle Pari opportunità: “Milano è la prima città italiana con un regolamento per l’uso etico dell’Ai. L’obiettivo è promuovere un umanesimo digitale che metta al centro il bene comune”.
Nadia Olivero, docente di Consumer Psychology all’Università Bicocca, ha richiamato l’attenzione sui bias: “Gli algoritmi riflettono gli stereotipi umani. Il problema non è tecnico, ma culturale: dobbiamo decidere quale modello di essere umano vogliamo trasmettere alle macchine”.
Riccardo Manzotti, docente di filosofia teoretica allo IULM, ha aggiunto: “L’Ai non è intelligenza, ma linguaggio artificiale. Ha conquistato la nostra prerogativa più profonda: la conoscenza. La questione ora si sposta, quindi, sulle capacità di prendere decisioni strategiche. Vuol dire che dobbiamo imparare a scegliere perché prendiamo certe decisioni, non solo come”.
Sul fronte normativo, Mattia Salerno, avvocato, ha evidenziato: “Non servono nuove leggi, ma una maggiore consapevolezza per usare al meglio la normativa che già esiste. Il tema vero, non solo etico, ma anche in termini di risarcimenti, è che chi subisce una decisione automatizzata non coerente e corretta, prima di intraprendere qualsiasi azione, deve capire da chi è stata presa e perché”.
Le aziende: l’Ai come leva per benessere e inclusione
A questa è parte più teorica, è seguita una seconda tavola rotonda, coordinata da Alessandra Lazazzara, Associate Professor dell’Università degli Studi di Milano, che ha sollecitato alcune aziende raccontare le loro testimonianze su come la tecnologia possa diventare uno strumento di ascolto e valorizzazione delle persone, ampliando quindi l’inclusità invece di ridurla.
Michele Riccardi (Edenred Italia): “Abbiamo usato l’Ai per analizzare benessere delle persone e rischio di retention. È uno strumento che dà voce ai collaboratori e ci permette di analizzare quello che viene detto in maniera più veloce e approfondita, anche se ci è chiaro che sono sempre le relazioni umane a fare la differenza”.
Alessia Canfarini (BIP): “Sulla base delle nostre indagini, solo il 15% delle aziende italiane ha una strategia sull’Ai. Una quota minoritaria, quindi, che presenta delle positività: infatti, se progettata consapevolmente, l’utilizzo dell’Ai può diventare un volano di equità. Ma serve, prima di tutto, che cambi la cultura di partenza: su dieci studenti di informatica, nove sono uomini. Il bias nasce già a scuola”.
Alessandra Baricada (Siemens): “Con i gemelli digitali relativi anche a stabilimenti industriali attivi siamo riusciti ad abbattere barriere fisiche, rendendo questi impianti più sicuri. A ciò va aggiunta la possibilità di ampliare l’accessibilità di questi lavori industriali anche a chi ha disabilità. Da questo punto di vista, l’Ai può migliorare benessere, sicurezza e qualità della vita. E noi lavoriamo in questa direzione”.
Amedeo Falcone (SAS): “L’etica non è uno slogan: serve formazione e governance multidisciplinare per creare una Ai che sia rispettosa delle differenze. Per questo abbiamo creato un team dedicato all’etica dell’Ai e un programma interno per spiegare cosa la tecnologia può e non può fare”.
Ethel Brezzo (Nhood): “La tecnologia non basta se non è guidata da persone consapevoli. Il capitale umano resta la vera differenza: l’Ai deve amplificarlo, non sostituirlo”.
Conclusione
Formazione, trasparenza e collaborazione sono le tre leve per un uso equo dell’Ai “Abbiamo parlato di tecnologia, ma al centro c’è sempre la persona” ha precisato Cristina Lazzati.
La sfida del futuro è far camminare insieme umanesimo e innovazione, perché solo un’Ai guidata da valori umani potrà davvero difendere la diversità.
Affermazioni che sono state per esplicitate in chiusura da Fulvio Matteoni, fondatore insieme a Joelle Gallesi e Alessia Salmaso dell’associazione culturale Side by Side che ha l’obiettivo di valorizzare l’unicità di ogni individuo, superando il concetto tradizionale di diversità e inclusion, utilizzando lo sport come denominatore commune, e Alessandro Arola, paratleta italiano che ha fatto parlare di sé alle Paralimpiadi di Parigi 2024, quando ha chiesto alla sua fidanzata di sposarlo direttamente durante l’evento.
A proposito dell’Ai, Fulvio Matteoni ha dichiarato di avere capito che non deve essere considerata una minaccia, ma uno stimolo a ripensare il modo in cui ci avviciniamo al digitale. Per lui la tecnologia «non ha un perché»: raccoglie dati, esplora possibilità, ma non dà senso alle cose. Il rischio è subirne l’invadenza se non impariamo a formulare con chiarezza ciò che vogliamo. Da qui il suo proposito: esprimere sempre il proprio “perché”, davanti a una persona come davanti a un device, lasciando che l’informazione aiuti ma non sostituisca la volontà umana.
Alessandro Arola offre una visione più emotiva: riconosce che l’AI aiuta chi fatica a gestire attenzione o complessità, ma ammette che può generare timori veri, come la riduzione dei posti di lavoro. La paura diventa negativa solo quando blocca, spiega, e l’unico modo per superarla è la cultura: capire cosa chiedere all’AI, come usarla, come integrarla. Racconta di aver cambiato vita professionale e di aver sperimentato i limiti dell’AI nella creatività e nell’empatia. Per questo ribadisce che la componente umana resta centrale: la conoscenza e il senso che diamo alle cose fanno dell’AI un alleato, non un avversario.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link
