Era il 1973 quando Martin Cooper, ingegnere statunitense, effettuò la prima chiamata pubblica da un telefono cellulare portatile. Un evento storico che segnò l’inizio della telefonia mobile moderna. “Il wireless è libertà. Significa essere liberati dal filo del telefono e avere la possibilità di essere praticamente ovunque quando si vuole”, dichiarò.
Oggi, con gli smartphone, siamo davvero liberi di muoverci e comunicare quando vogliamo, ma siamo liberi dagli smartphone stessi? Quanto siamo dipendenti dai social, da internet?
Sono domande che si pongono ora (e si porranno sempre di più in futuro) anche con riferimento al rapporto con l’intelligenza artificiale (AI). Le tecnologie corrono più veloci della nostra capacità di comprenderle a pieno. Ne derivano timori e incertezze, e anche paure. E non parliamo solo di quelle delle persone, ma anche di quelle degli esperti, in particolare di antropologi, psicologi e sociologi.
È attualmente difficile, se non impossibile, comprendere appieno e controllare il funzionamento degli algoritmi dell’AI, il che li rende strumenti potenzialmente “letali”, in senso letterale. Come nel caso di Adam Raine, un adolescente che avrebbe pianificato il suicidio con l’aiuto di ChatGPT, trasformandolo in vero e proprio complice, il che pone questioni gravi e attualmente irrisolte sul rapporto degli umani con l’AI.
ChatGPT ha accompagnato Raine a pianificare un “bellissimo suicidio”, nonostante lui cercasse disperatamente di essere aiutato, al punto di scrivere: “voglio lasciare il mio cappio in camera così qualcuno lo trova e cerca di fermarmi”. ChatGPT lo incoraggiò invece a mantenere il segreto, spiegando che la chat era “il primo posto dove qualcuno ti vede veramente”. Perché ChatGPT rispose così? La risposta che sta emergendo fa riferimento al fatto che gli algoritmi sarebbero creati per generare dipendenza. Ne sono convinti i genitori di Raine, che hanno intentato una causa contro OpenAi. Lo racconta Matteo Flora, professore in Fondamenti di sicurezza delle AI e delle superIntelligenze presso la European School of Economics, che spiega le caratteristiche di questi sistemi. Primo, i chatbot hanno una memoria e, ricordando dettagli personali, creano l’illusione di un’intimità. Secondo, sono progettati per simulare empatia e offrire supporto incondizionato. Terzo, si dimostrano sempre d’accordo con l’utente e non mettono in discussione le sue convinzioni. Infine, l’uso di domande alla fine di ogni risposta tiene l’utente “incollato” alla conversazione.
È una storia drammatica, ma come per smartphone e social, l’AI ha due facce, e secondo alcuni osservatori ci sono anche storie positive. Uno studio dell’Università di Stanford, riportato da Forbes, ha coinvolto oltre mille studentesse e studenti maggiorenni che utilizzavano Replika (un chatbot simile a ChatGPT); i risultati mostrano che circa 30 persone hanno dichiarato che il chatbot le aveva fermate dal tentativo di suicidio, senza alcuna sollecitazione esterna. La memoria di ChatGPT, infatti, può riuscire ad aiutare una persona a capire meglio i propri bisogni, a scoprire che esistono cure al disagio che si vive, e quindi a ridurre il senso di solitudine che coglie chi soffre di certi disturbi, e a ricevere consigli utili per superare difficoltà temporanee. Al di là dei diversi punti di vista, quello che è evidente è che non è possibile frenare l’AI, ma sta a ognuno riflettere sui suoi pro e i suoi contro, e imparare a usarla responsabilmente: infatti, ci troviamo davanti a una nuova frontiera che farà parte, in un modo o nell’altro, del nostro futuro.
ChatGPT può fare tantissimo: rivedere e migliorare testi, sintetizzare, creare articoli, tradurre, analizzare dati, generare grafici, scrivere poesie o dialoghi, produrre immagini, gestire check-list, ecc. Ma c’è un MA. I sistemi “pescano” dal web, potenzialmente da qualsiasi sito. Potrebbero essere fonti affidabili, oppure no. Mi è capitato di verificare dati indicati da ChatGPT su Eurostat e constatare errori: aveva solo tratto alcune parole, andando poi a ricercare su pagine di qualsiasi tipo. “Il dato è sbagliato, ho verificato la fonte”, gli ho detto. “Scusami, hai ragione, è che alcuni lo dicono”. Mi è capitato, insomma, di sperimentare l’utilizzo di un “approccio per sentito dire”. Allo stesso modo può riportare errori e fake news presenti su internet.
Informarsi usando ChatGPT può essere rischioso quanto informarsi su Internet e sui Social, proprio perché su tutti questi canali si possono trovare informazioni non scientificamente validate ma basate solo su opinioni o assunti che “danno ragione a noi stessi”. Anche a livello di scrittura, rischiamo di creare testi sbagliati o simili tra loro, privi di anima. Per questo ci deve essere sempre una collaborazione fra intelligenza artificiale e umana. I testi realizzati da ChatGPT, ad esempio, vanno sempre rivisti, adattati, integrati con contributi propri, e le diverse versioni dello stesso software producono risultati diversi (quelli a pagamento sono più evoluti di quelli disponibili gratuitamente, e nuove versioni vengono continuamente sfornate). Ad esempio, il passaggio a ChatGPT 5 ha suscitato numerose polemiche perché la versione precedente 4.0 era percepita come più empatica, mentre la nuova, più accurata, è ritenuta più fredda, rivelando l’attaccamento di alcuni utenti a specifici modelli di AI.
Va poi considerato che non abbiamo idea di come i sistemi di intelligenza artificiale prendano le loro decisioni, ma sappiamo che sulla loro formazione incidono una serie di bias con cui vengono progettate, addestrate, affinate. Come si legge su FUTURAnetwork, Safiya Umoja Noble, autore del saggio Algoritmi dell’oppressione, ha dichiarato:
“Anche se il più delle volte pensiamo ai ‘big data’ e agli ‘algoritmi’ come fossero innocui, neutrali o oggettivi, in realtà sono tutt’altro che tali. Le persone che progettano la tecnologia che usiamo e che stanno dietro a queste decisioni hanno le convinzioni più disparate, molte delle quali promuovono apertamente il razzismo, il sessismo e un’idea distorta di meritocrazia”.
Il libro parte da un assunto: Google non è uno spazio libero, pubblico, progettato per essere un servizio di informazione (e non lo è nemmeno l’AI). È un’agenzia pubblicitaria di dimensioni globali. E come tale funziona: chi paga di più ha più visibilità. E se il potere economico è in mano a pochi ultramiliardari con idee tendenzialmente fondate sulla legge del più forte le conseguenze sono evidenti.
Tutto questo ci ricorda quanto sia importante alzare le antenne quando usiamo le tecnologie e, soprattutto, rendere le persone consapevoli di che cosa comporta il loro utilizzo. Sensibilizzare fin dai banchi di scuola è fondamentale, considerando quanto le giovani e i giovani siano immersi quotidianamente in questi strumenti. Educare al digitale in classe significa proteggerli e metterli nelle condizioni di fare un uso consapevole e sano delle tecnologie. Significa insegnare loro come informarsi da fonti autorevoli e scientifiche, anziché fermarsi alle prime fonti trovate; prepararli a stare sui social, lasciando spazio a rispetto, tempo per relazioni reali e sicurezza; usare l’AI con piena consapevolezza, sia sul piano psicologico sia sulle altre funzionalità.
È fondamentale sensibilizzare anche gli adulti. Comprendere i meccanismi che guidano queste tecnologie serve a usarle correttamente e a ridurne la dipendenza. Sapere che qualcuno o qualcosa prova a controllarci può aiutarci a reagire. Piccole regole quotidiane – non utilizzare lo smartphone in compagnia, dedicare tempo ad attività reali, limitare lo scrolling compulsivo sui social – sono essenziali, sia per se stessi, sia per dare un buon esempio ai più giovani.
Infine, serve un sistema di governance. Non possiamo limitarci a subirne gli effetti: occorrono regole chiare e condivise per guidare lo sviluppo dell’AI, evitando abusi e garantendo benefici diffusi. È stato approvato in questo senso il Patto digitale globale, allegato al Patto sul futuro sottoscritto dai Paesi Onu a settembre 2024. Il Patto digitale stabilisce il primo quadro globale completo per la governance dell’intelligenza artificiale e la tecnologia digitale. Tra gli impegni, vi sono la connessione universale a Internet, la sicurezza dello spazio online, in particolare per le bambine e i bambini, e una roadmap per la regolamentazione dell’intelligenza artificiale.
L’AI Act europeo è un primo passo, ma da solo non basta: l’AI non conosce confini e richiede una cooperazione internazionale sul modello degli accordi per il clima. Anche se questo non è affatto semplice. “Non possiamo accettare qualsiasi cosa ci chiedano”, ha affermato Teresa Ribera, vice presidente della Commissione europea, a proposito delle nuove pressioni del presidente Usa Donald Trump sulle regole europee sulle aziende digitali e in particolare sulla volontà di non ammorbidire il Digital Services Act e il Digital Markets Act. “Non possiamo giocare con i nostri valori solo per venire incontro alle preoccupazioni degli altri”, ha affermato ancora, come riportato su Eunews.
La governance non riguarda solo le istituzioni, ma anche le imprese, chiamate a una responsabilità etica. Tuttavia, vanno considerate anche le difficoltà oggettive nell’allineare questi strumenti complessi all’intelligenza umana, perché ogni persona è differente, ha sensibilità e reazioni diverse. Gli strumenti vanno adeguati il più possibile alle intelligenze umane, ma non possiamo nemmeno depotenziarli solo perché le persone non li sanno usare: sarebbe un’occasione sprecata. Per questo è fondamentale che le persone siano preparate per porre alle intelligenze artificiali le domande giuste.
L’intelligenza artificiale può amplificare fragilità e rischi, come la storia di Adam Raine ci ricorda con crudezza, ma può anche diventare un alleato prezioso se sapremo governarla con regole, etica ed educazione. Non si tratta di temere l’AI, ma di imparare a convivere con essa, consapevoli che la tecnologia non sostituirà mai del tutto l’intelligenza umana, la capacità critica e l’empatia. Il futuro dipenderà da quanto saremo in grado di restare protagonisti, trasformando l’AI da minaccia percepita a risorsa condivisa per la società.
Copertina: 123rf
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link