Assistenza e consulenza

per acquisto in asta

 

Large Language Model: il futuro del dialogo tra scienza e società


Le nuove piattaforme digitali basate sull’intelligenza artificiale aprono la strada a un dialogo più aperto e coinvolgente tra enti di ricerca, università, cittadini e imprese. Grazie ai Large Language Models, i chatbot evoluti non si limitano a fornire risposte, ma stimolano partecipazione attiva, ascolto e confronto.

Carta di credito con fido

Procedura celere

 

Si tratta di una tecnologia che rappresenta una svolta per il Public Engagement, promuovendo una connessione autentica tra conoscenza, innovazione e società. La tecnologia, dunque, può diventare ponte tra conoscenza e partecipazione?

Un dialogo più accessibile ed evoluzione dei LLMs

In un’epoca in cui la conoscenza circola sempre più rapidamente i chatbot, evolutesi rapidamente grazie all’intelligenza artificiale (IA), stanno cambiando profondamente il modo in cui enti di ricerca, università, cittadini e imprese interagiscono. Tali “piattaforme” sono di fatto dei veri e propri hub interattivi che promuovono il dialogo e la partecipazione attiva stimolando un confronto continuo, creando spazi di ascolto e co-creazione. L’intelligenza artificiale può diventare così un ponte tra scienza e partecipazione attiva. In tale contesto, l’evoluzione tecnologica a cui stiamo assistendo ha, quindi, il potenziale di trasformare radicalmente anche il concetto di public engagement.

In altre parole, i chatbot stanno trasformando decisamente il modo di comunicare tra istituzioni accademiche e società civile, favorendo un dialogo autentico, partecipativo e inclusivo proponendosi non solo come uno strumento informativo, ma come un mediatore cognitivo capace di adattare il linguaggio della scienza ai diversi livelli di competenza degli utenti.

In una recente ricerca che abbiamo condotto su 293 articoli pubblicati tra il 2014 e il 2025, è emerso che l’evoluzione dei modelli di linguaggio di grandi dimensioni (LLM) ha portato a significativi sviluppi nell’ambito dei chatbot accademici. La Figura 1 evidenzia come la ricerca sui chatbot basati su LLM nell’educazione accademica stia vivendo un’espansione rapida, un fenomeno che coincide con l’introduzione e la popolarità delle tecnologie come GPT-3.5 e GPT-4. La ricerca è stata condotta su Scopus, il più grande database bibliografico citazionale a livello accademico, combinando le parole chiave con operatori booleani come OR (per includere termini simili) e AND (per specificare le combinazioni di concetti chiave). Più dettagliatamente, sono state combinate parole chiave relative ai modelli linguistici (“Large Language Models” OR “GPT”) con quelle relative all’educazione (“Higher Education” OR “Academic”). L’aumento di pubblicazioni rappresenta un momento critico in cui la comunità accademica sta esplorando attivamente l’uso di queste tecnologie, non solo per risolvere compiti specifici, ma anche per affrontare le sfide etiche, didattiche e di implementazione che ne derivano.

Le università e gli enti di ricerca, tradizionalmente custodi del sapere, attraverso i nuovi strumenti basati su AI riflettono sull’opportunità di integrare l’IA all’interno dei loro “sistemi” non solo per raccogliere e analizzare dati, ma anche per facilitare l’interazione con il pubblico. Piattaforme digitali basate su IA possono diventare ambienti in cui ognuno di noi può contribuire attivamente alla ricerca scientifica, partecipando a discussioni su progetti di innovazione o testando prototipi di nuovi prodotti. Inoltre, l’intelligenza artificiale consente di rendere il processo di divulgazione scientifica più accessibile e democratico spiegando concetti complessi in modo semplice e comprensibile.

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

Tuttavia, è bene precisare che l’uso di chatbot solleva anche preoccupazioni legate alla plausibilità di risposte errate (hallucinations) ed alla mancanza di citazioni verificabili.

Pertanto, al centro di questa rivoluzione c’è la capacità degli LLM di comprendere contesti complessi, generare risposte coerenti e facilitare interazioni più naturali tra esseri umani e macchine.

I LLM sono nati dalla continua evoluzione dei modelli di linguaggio basati su reti neurali. I primi approcci, come i modelli n-gram e word embeddings (ad esempio, Word2Vec), cercavano di rappresentare il significato delle parole in base alla loro vicinanza in un corpus di testo. Questi metodi, sebbene utili, avevano limitazioni significative in termini di capacità di comprendere il contesto più ampio. L’introduzione di modelli più avanzati, come gli Attention Mechanisms e le Transformers, ha segnato l’inizio di un nuovo paradigma. Il primo modello di successo su questa base è stato BERT (Bidirectional Encoder Representations from Transformers), introdotto da Google nel 2018. BERT ha mostrato per la prima volta che l’attenzione bidirezionale sui dati di input permette ai modelli di capire meglio il contesto linguistico, aumentando significativamente le prestazioni nei compiti di comprensione del linguaggio naturale. Successivamente, GPT-3 (Generative Pre-trained Transformer 3), sviluppato da OpenAI, ha portato la potenza dei LLM a un nuovo livello, con 175 miliardi di parametri. Il modello ha dimostrato una sorprendente capacità di generare testo, rispondere a domande, scrivere articoli, tradurre lingue e svolgere molte altre funzioni in modo sorprendentemente umano. Altri modelli come T5 e RoBERTa hanno ulteriormente perfezionato l’architettura Transformer, consentendo applicazioni ancora più sofisticate. I LLM sono caratterizzati da alcune capacità chiave che li rendono particolarmente potenti così come descritto nella Tabella 1.

Tabella 1. Caratteristiche ed applicazione dei LLMs

Caratteristiche degli LLM Descrizione Applicazioni dei LLM Descrizione e Casi Reali
Comprensione contestuale Comprendere non solo le parole, ma anche il contesto più ampio, migliorare la qualità della comprensione del linguaggio Assistenza Virtuale e Chatbot Avanzati Gli LLM sono utilizzati per sviluppare assistenti virtuali che rispondono a domande e risolvono problemi in modo naturale. Casi reali: – OpenAI – ChatGPT: Utilizzato in diversi ambiti, come supporto clienti e educazione. – Google Assistant: Utilizza modelli LLM per rispondere a domande e migliorare l’interazione vocale.
Generazione di testo naturale Generare testi coerenti e fluidi, simili a quelli scritti da esseri umani Generazione Automatica di Contenuti Gli LLM sono impiegati per creare articoli, post sui social media, e descrizioni di prodotti. Casi reali: – Jasper AI: Strumento per generare contenuti marketing, articoli, e post sui social. – The New York Times: Utilizza AI per generare bozze di articoli e sintesi. – Copy.ai: Creatore di contenuti per email marketing e descrizioni di prodotto.
Apprendimento non supervisionato Pre-addestrare su enormi corpora di testo senza etichette, apprendere autonomamente le strutture linguistiche e concettuali Ricerca e Innovazione Scientifiche Gli LLM analizzano articoli scientifici, suggeriscono ipotesi di ricerca, e aiutano nella scrittura accademica. Casi reali: – Semantic Scholar: Utilizza LLM per aiutare i ricercatori a trovare articoli rilevanti e riassumere la letteratura. – Insilico Medicine: Usa LLM per accelerare la scoperta di farmaci, analizzando articoli scientifici.
Versatilità nelle applicazioni Utilizzati per molteplici compiti, come traduzione, analisi del sentiment, risoluzione di problemi, ecc Healthcare e Diagnosi Medica I LLM supportano medici e pazienti nell’interpretazione dei referti e nelle diagnosi. Casi reali: – IBM Watson Health: Utilizzato per l’analisi delle cartelle cliniche elettroniche e diagnosi oncologiche. – Infermedica: Fornisce supporto nel triage medico utilizzando AI per raccogliere informazioni sui sintomi e suggerire diagnosi. – Google Health: Utilizza AI per la diagnosi precoce di malattie attraverso immagini mediche.
Adattabilità a nuovi domini Adattabili facilmente a nuovi domini o linguaggi, grazie alla loro capacità di apprendere dalla vasta quantità di dati su cui sono addestrati Traduzione e Multilinguismo I LLM migliorano la traduzione automatica, riducendo gli errori e migliorando la fluidità. Casi reali: – Google Translate: Utilizza Google Neural Machine Translation (GNMT) per tradurre testi tra oltre 100 lingue. – DeepL: Eccelle nella traduzione di testi complessi e specialistici. – Microsoft Translator: Impiegato in traduzioni in tempo reale durante videoconferenze, anche in ambito legale e medico.

Gli Augmented LLM-based Engagement System

Nel contesto appena descritto è bene precisare l’esistenza degli Augmented LLM-based Engagement System ovvero sistemi digitali avanzati che combinano modelli linguistici di grandi dimensioni (LLM) con tecnologie di intelligenza aumentata, al fine di creare un’interazione più coinvolgente, dinamica e personalizzata tra gli utenti – come cittadini, studenti, ricercatori – e varie entità, tra cui governi, università, aziende e organizzazioni. Questi sistemi mirano a migliorare la comunicazione, non solo attraverso la fornitura di risposte automatizzate, ma favorendo una partecipazione attiva e un dialogo autentico.

L’idea di Augmented Intelligence, alla base di questi sistemi, implica che la tecnologia non sia destinata a sostituire l’intelligenza umana, ma a potenziarla. Supportando gli utenti nell’esplorazione di informazioni, decisioni e attività complesse.

Questa flessibilità comunicativa è resa possibile dall’adozione della tecnologia Retrieval-Augmented Generation (RAG) che consente al sistema di effettuare una ricerca semantica in tempo reale all’interno di corpus accademici indicizzati, selezionando e integrando i contenuti più pertinenti nei prompt di generazione. In questo modo, le risposte sono sempre ancorate a fonti validate, garantendo tracciabilità, coerenza e affidabilità delle informazioni fornite.

L’adozione di questa architettura consente di mitigare uno dei rischi principali legati all’utilizzo degli LLM: le “allucinazioni”, ovvero la produzione di contenuti plausibili ma errati o inventati. Diversamente dai chatbot generalisti, che spesso si basano su conoscenze non verificate o obsolete, un Augmented LLM-based Engagement System assicura che ogni risposta possa essere contestualizzata e verificata tramite i riferimenti diretti ai materiali scientifici da cui proviene. Pertanto, il sistema offre un nuovo paradigma di trasparenza algoritmica e responsabilità epistemica, elementi cruciali nell’utilizzo dell’intelligenza artificiale nel settore educativo e nella comunicazione scientifica.

Conto e carta

difficile da pignorare

 

In definitiva, questi sistemi non si limitano a rispondere a domande, ma si propongono come veri e propri facilitatori di comprensione e dialogo. Grazie alla loro capacità di modulare il sapere accademico sono alla base di una nuova forma di engagement che integra la trasparenza e l’interazione dinamica come principi fondanti della comunicazione.

Strategie, politiche e tecnologie per il public engagement

La tecnologia sta avendo un impatto significativo anche sul miglioramento del Public Engagement, in particolare nei settori dell’educazione e della ricerca, dove l’uso innovativo dei Large Language Models (LLM) e degli strumenti di AI sta favorendo un dialogo più inclusivo e partecipativo tra cittadini, enti di ricerca, università e istituzioni politiche.

Un esempio significativo proviene dall’ambito educativo. La piattaforma Khan Academy, un’organizzazione non profit che fornisce lezioni online gratuite, ha recentemente integrato GPT-4 di OpenAI per creare un assistente virtuale in grado di rispondere alle domande degli studenti, guidarli attraverso i materiali didattici e offrire spiegazioni personalizzate. L’apprendimento è stato reso più accessibile e interattivo, offrendo agli utenti la possibilità di ricevere un supporto immediato, indipendentemente dal luogo e dall’orario. La personalizzazione del percorso educativo basata sulle esigenze individuali consente un maggior coinvolgimento degli utenti, favorendo un apprendimento che meglio si adatta alle capacità e preferenze personali.

Nel settore delle politiche di ricerca, un caso di successo è rappresentato dal progetto Citizen Science sviluppato in collaborazione con l’European Commission. In questo contesto, i cittadini sono coinvolti attivamente nella raccolta e analisi di dati scientifici, con l’ausilio di piattaforme digitali che utilizzano l’intelligenza artificiale per guidare e facilitare il processo. L’uso di LLM in questi progetti ha permesso ai partecipanti di interagire in modo naturale con i dati scientifici, porre domande e ottenere risposte basate su analisi avanzate, rendendo la scienza più trasparente e accessibile. Un esempio concreto è rappresentato dal progetto Open Science, che ha utilizzato modelli linguistici avanzati per automatizzare la traduzione di articoli scientifici e rendere la ricerca scientifica di alta qualità accessibile a un pubblico globale, inclusi i non specialisti.

Infine, un altro esempio viene dall’iniziativa “AI for Good” delle Nazioni Unite, che ha sfruttato l’intelligenza artificiale per facilitare il coinvolgimento dei cittadini nelle politiche pubbliche globali.

Gli esempi dimostrano come l’intelligenza artificiale e i LLM, stiano facilitando una partecipazione più attiva e inclusiva, non solo per migliorare l’accesso all’educazione e alla ricerca, ma anche per rafforzare il coinvolgimento civico.

L’utilizzo dell’intelligenza artificiale conversazionale in ambito universitario rappresenta una leva strategica per ripensare il ruolo stesso delle istituzioni accademiche nella società (Figura 2).

Carta di credito con fido

Procedura celere

 

In questo contesto, abbiamo sviluppato il progetto ALES un chatbot accademico basato su modelli di linguaggio di grandi dimensioni (LLM) che si distingue per l’approccio metodologico rigoroso e multidimensionale adottato fin dalle fasi iniziali.

ALES rappresenta un cambio di paradigma non solo in termini di funzionalità e performance tecnica, ma anche di allineamento con le politiche educative, i processi interni e le aspettative sociali. L’IA non è più un oggetto da testare in laboratorio, ma un soggetto con cui è necessario co-progettare l’interazione all’interno di ambienti complessi come quelli universitari.

I risultati preliminari ottenuti durante la sperimentazione pilota dell’Università di Napoli “Parthenope” sono indicativi del potenziale di un’adozione responsabile e ben strutturata: oltre il 90% di accuratezza delle citazioni fornite da ALES, dimostrando l’efficacia del sistema RAG (Retrieval-Augmented Generation) nel ridurre la disinformazione e garantire trasparenza delle fonti;

Gli Augmented LLM-based Engagement System diventano così un modello di riferimento per un’IA educativa e partecipativa, dove tecnologia, istituzione e società co-evolvono nel rispetto di criteri di affidabilità, equità e trasparenza.

La Figura 3 descrive in modo semplificato l’architettura del sistema ALES. L’architettura è progettata per garantire che le risposte fornite siano non solo fluenti e contestualmente appropriate, ma anche supportate da informazioni verificate, in linea con gli standard accademici.

Figura 3: Architettura semplificata ALES

Assistenza e consulenza

per acquisto in asta

 

I principali moduli che compongono l’architettura sono di seguito dettagliati.

  • Modulo dell’interfaccia utente (user interface module): rappresenta il punto di interazione tra l’utente (studente, ricercatore, educatore) e il chatbot ALES. Gli utenti possono inserire domande o richieste in linguaggio naturale (ad esempio, “Spiega il concetto di entropia nella teoria dell’informazione e fornisci riferimenti accademici” o “Riassumi i principali risultati di questo articolo”). Le risposte generate da ALES vengono visualizzate nell’interfaccia, che include non solo il testo, ma anche potenzialmente fonti citate, formule o figure, se necessario.
  • Elaborazione e instradamento della query (query processing and routing). Quando una query viene ricevuta, ALES la elabora per determinare come gestirla. Le domande più generali possono essere risposte direttamente dal modello LLM, mentre richieste che richiedono riferimenti specifici attivano un processo di recupero. Le query vengono classificate in diverse categorie (ad esempio, spiegazioni generali, ricerca di dati/fatti specifici, supporto alla scrittura, aiuto con la programmazione) e poi instradate di conseguenza.
  • Modulo di recupero della conoscenza accademica (academic knowledge base & retrieval module). Una caratteristica distintiva di ALES è la connessione a un repository di conoscenza accademica, che include database scientifici curati, contenuti specifici per l’università e forse anche basi di conoscenza aperte come Wikipedia. Quando una query richiede informazioni molto specifiche, il sistema esegue una Generazione Potenziata da Recupero (RAG), cioè cerca nel database i documenti o i frammenti più pertinenti. L’input della query viene trasformato in un “embedding” e confrontato con i testi indicizzati per trovare i contenuti più rilevanti, come articoli scientifici pertinenti.
  • Modello di Linguaggio di Grande Dimensione (LLM Core). Caratteristica di ALES è l’uso di un modello di linguaggio avanzato, che viene affinato su testi accademici. Il modello riceve due input: la query dell’utente e qualsiasi documento di contesto recuperato. Combinando la query con i documenti pertinenti, il modello genera una risposta che mira a rispondere in modo accurato, utilizzando le informazioni estratte.
  • Post-elaborazione e Generazione di Citazioni (Post-Processing and Citation Generator). Dopo che il modello LLM ha generato una risposta, ALES esegue un passo di post-elaborazione per strutturare la risposta (ad esempio, usando elenchi puntati o numerati) e includere citazioni accurate. Se il modello ha fatto riferimento esplicitamente a fonti, le citazioni vengono incluse nel formato corretto alla fine della risposta. In altri casi, ALES può aggiungere una lista di fonti conosciute che sono state utilizzate per costruire la risposta.
  • Modulo di Feedback e Apprendimento (Feedback and Learning Module). Questo modulo raccoglie il feedback degli utenti, permettendo loro di valutare le risposte o segnalare inesattezze. I dati raccolti vengono utilizzati per migliorare progressivamente il sistema. Inoltre, questo modulo gestisce le protezioni etiche: se una query viola l’integrità accademica (ad esempio, “scrivi il mio compito”), ALES risponde con un rifiuto gentile o fornisce suggerimenti socratici piuttosto che dare una risposta diretta.

Un ecosistema partecipativo e inclusivo

Attraverso uno studio accurato e sistematico delle esigenze dei diversi stakeholder – tra cui studenti, ricercatori, comunicatori scientifici, insegnanti, policy maker e professionisti del settore privato – il “modello” ALES è stato progettato con una logica profondamente adattiva, capace di modellare il contenuto in base al contesto e al profilo dell’interlocutore. Non si tratta semplicemente di “semplificare” o “complicare” l’informazione, ma di riconfigurare il linguaggio, la struttura e la profondità delle risposte in funzione delle reali necessità comunicative e cognitive di chi pone la domanda.

Questa capacità deriva dalla progettazione a doppia modalità di interazionescientifica e divulgativa – che consente a uno stesso corpus informativo di essere fruito in modi diversi, senza alterare la veridicità o l’accuratezza del contenuto. In pratica, lo stesso sapere viene tradotto in registri linguistici differenti, garantendo che sia comprensibile e utile sia per l’esperto accademico sia per il cittadino curioso. Ad esempio, di fronte alla domanda: “Qual è l’impatto dell’intelligenza artificiale sull’ingegneria?”, ALES è in grado di fornire:

  • in modalità scientifica, una risposta tecnica che include riferimenti a studi clinici, modelli predittivi, protocolli di diagnostica automatizzata e citazioni in formato APA;
  • in modalità divulgativa, una spiegazione chiara e accessibile, che utilizza analogie (es. “come un assistente digitale che aiuta i medici a fare diagnosi più veloci”) e semplifica i concetti senza distorcerli.

Questa dinamica è particolarmente efficace nei contesti educativi e istituzionali. Durante i test, ad esempio, l’uso della modalità divulgativa ha permesso di trasformare materiali scientifici complessi in contenuti “semplici” utili per facilitare la comprensione di concetti avanzati.

Analogamente, i policy maker coinvolti nella fase pilota hanno apprezzato la possibilità di ottenere risposte sintetiche ma affidabili a quesiti come “Quali sono i vantaggi dell’idrogeno verde nel trasporto pubblico?”, ricevendo spiegazioni basate su fonti accademiche ma formulate in linguaggio chiaro, direttamente applicabile nei contesti decisionali.

Questa personalizzazione linguistica e cognitiva è ciò che rende ALES uno strumento realmente orientato al public engagement: la conoscenza non viene semplicemente “offerta”, ma messa in dialogo con i bisogni, i linguaggi e le competenze di chi la riceve. In questo senso, ALES non si limita a democratizzare l’accesso alle informazioni, ma promuove un principio più profondo di equità cognitiva, offrendo a ciascun utente la possibilità di comprendere, valutare e utilizzare il sapere scientifico secondo le proprie capacità e interessi.

In definitiva, la tecnologia diventa un mediatore culturale, capace di abbattere le barriere tra esperti e non esperti, tra accademia e cittadinanza, contribuendo a costruire una società più informata, consapevole e partecipativa.

Assistenza e consulenza

per acquisto in asta

 

Limiti e prospettive future

I LLM-based Engagement Systems rappresentano senza dubbio una delle tecnologie più promettenti nel panorama dell’intelligenza artificiale. Tuttavia, nonostante il loro grande potenziale, presentano ancora numerosi limiti che ne ostacolano una diffusione pienamente ottimale. Uno dei principali problemi riguarda la comprensione del contesto da parte dei modelli linguistici. Ad esempio, un LLM potrebbe non comprendere appieno un dialogo che si sviluppa nel tempo, perdendo riferimenti a eventi precedenti o fraintendendo le “emozioni” dietro una conversazione.

Inoltre, un altro aspetto che pone sfide importanti è la dipendenza dei modelli da dati di addestramento che potrebbero non essere rappresentativi di tutte le situazioni. I modelli linguistici vengono addestrati su enormi volumi di testi provenienti da Internet, ma questi dati non sono sempre completi o imparziali. Ne deriva che i sistemi possono riprodurre bias impliciti nei dati, influenzando negativamente la qualità delle risposte. Un esempio emblematico è quando un modello generativo, senza una corretta supervisione, potrebbe rispondere in modo discriminatorio o rafforzare stereotipi legati a genere, etnia o classe sociale, con ripercussioni dirette nella vita quotidiana, come nelle interazioni aziendali o nei servizi di assistenza.

Anche l’aspetto delle risorse computazionali è una barriera significativa. I modelli LLM richiedono potenze di calcolo enormi, sia per l’addestramento che per l’esecuzione in tempo reale, il che comporta alti costi energetici e infrastrutturali.

Nonostante questi limiti, ci si aspetta che i modelli diventino più personalizzati e in grado di adattarsi dinamicamente alle esigenze degli utenti. Un esempio potrebbe essere un assistente virtuale che non solo risponde alle domande, ma impara a conoscere preferenze e comportamenti nel tempo, riuscendo a prevedere le necessità dell’utente in modo proattivo.

Inoltre, l’integrazione di LLM con altre tecnologie emergenti, come la realtà aumentata (AR) o la realtà virtuale (VR), aprirà nuove possibilità per creare esperienze immersive e interattive. La combinazione di linguaggio naturale con l’interazione spaziale e visiva potrebbe rivoluzionare settori come l’educazione, il turismo e il supporto tecnico.

Parallelamente, la crescente attenzione verso l’etica e la regolamentazione delle intelligenze artificiali aiuterà a guidare lo sviluppo di sistemi più equi e sicuri. In futuro, i modelli linguistici saranno progettati tenendo conto di principi etici rigorosi, come la riduzione dei bias, la protezione della privacy degli utenti e la trasparenza dei processi decisionali.

Un recente post ha generato grande entusiasmo nel mondo dell’IA con il rilascio di Llama 3.1 da parte di Meta, un aggiornamento che non si limita a perfezionare il modello precedente, ma rappresenta un vero e proprio balzo in avanti. Con una versione da 405 miliardi di parametri, Llama 3.1 si posiziona come un concorrente diretto di modelli proprietari come GPT-4 di OpenAI e Gemini 1.5 Pro di Google. Questo modello, addestrato su un dataset vastissimo, ha mostrato capacità di ragionamento e comprensione del contesto senza precedenti. L’introduzione di un modello open-source di tale portata offre nuove opportunità, non solo per i ricercatori e gli sviluppatori, ma anche per applicazioni accademiche come ALES. Appare chiaro che in un contesto tecnologico in continua evoluzione, il Public Engagement si arricchisce di nuove opportunità, permettendo al settore accademico e tecnologico di progredire in modo più aperto e collaborativo.

Trasforma il tuo sogno in realtà

partecipa alle aste immobiliari.

 

La tecnologia come essere un ponte tra conoscenza e partecipazione

La risposta alla domanda “la tecnologia può diventare un ponte tra conoscenza e partecipazione?” è , ma a condizione che venga progettata e implementata con attenzione all’etica, alla trasparenza e al contesto d’uso. Le piattaforme basate su intelligenza artificiale, non nascono per sostituire il sapere umano o l’interazione tra esseri umani, bensì per potenziare la capacità delle istituzioni di comunicare, spiegare, coinvolgere, favorendo un accesso più equo, aperto e personalizzato alla conoscenza accademica.

ALES rappresenta un esempio virtuoso in questa direzione. Grazie alla sua architettura dual-mode – che permette di scegliere tra una risposta scientifica e una divulgativa – il sistema non si limita a “rispondere” a domande, ma attiva un processo di dialogo, adattandosi ai diversi livelli di competenza e alle esigenze di chi interroga il sistema. In tal senso, amplifica la conoscenza, perché la rende fruibile a chi altrimenti ne sarebbe escluso per barriere linguistiche, cognitive o culturali.

Ad esempio, uno studente delle scuole superiori può utilizzare ALES per comprendere concetti complessi di biologia molecolare, ricevendo spiegazioni semplificate, analogie quotidiane e definizioni accessibili. Contemporaneamente, un ricercatore universitario può accedere a fonti accademiche validate per ottenere citazioni, riferimenti bibliografici e dati tecnici da includere nel proprio lavoro. Entrambi, pur partendo da esigenze e background diversi, attingono allo stesso corpus di sapere accademico – reso “liquido” e adattivo dall’intelligenza artificiale.

Ma questo approccio va oltre l’educazione. In un mondo in cui le sfide globali – dal cambiamento climatico alla transizione energetica, dalla sanità pubblica all’intelligenza artificiale stessa – richiedono una cittadinanza informata e capace di comprendere le implicazioni scientifiche e tecnologiche delle decisioni collettive, strumenti come ALES promuovono una forma di democrazia epistemica.

Tutto ciò ci porta a una conclusione chiave: l’intelligenza artificiale può – e deve – essere al servizio del dialogo sociale, non solo come infrastruttura tecnica, ma come attore culturale. Può contribuire a costruire una cittadinanza scientificamente alfabetizzata, capace di partecipare consapevolmente ai dibattiti su innovazione, diritti digitali, ambiente e salute. Il potere di imparare, quando potenziato dalla tecnologia, può trasformarsi in un superpotere, capace di evolversi e adattarsi ad ogni sfida.

Bibliografia

A. Maisto Da Harris ai Large Language Models. Un’analisi linguistica. Ed. Carocci, 2024

A.Petrillo, F. De Felice. Digital Transformation – Towards New Frontiers and Business Opportunities. Ed. IntechOpen, 2022.

Prestito condominio

per lavori di ristrutturazione

 

C. Hussain, A. Petrillo, S. Ul Islam. Concepts in Smart Societies: Next-generation of Human Resources and Technologies. Ed. CRC Press, 2023.

F. De Felice, A. Petrillo. Effetto digitale. Visioni d’impresa e Industria 5.0. Ed. McGraw-Hill Education, Milano, 2021.

F. De Felice, A. Petrillo. Digital Effects, Strategies, and Industry 5.0 (“International Perspectives on Science, Culture and Society”). Ed, CRC Press, 2024.

P. Benanti, Digital age. Teoria del cambio d’epoca. Persona, famiglia e società. Ed. San Paolo Edizioni, 2020.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Opportunità unica

partecipa alle aste immobiliari.