giovedì, Aprile 25, 2024
ComunicazioneCultura

Potenzialità e limiti dei bot conversazionali: intervista a ChatGPT

di Federico Oliveri

 

Quando un’innovazione tecnologica inizia a guadagnare l’attenzione dei media mainstream, o diventa oggetto di conversazione tra non addetti ai lavori, è possibile che ci si trovi davanti a una potente operazione di marketing, ovvero che si abbia a che fare con qualcosa di realmente nuovo e potenzialmente rivoluzionario. Nell’uno come nell’altro caso – ma potrebbero essere vere entrambe le cose – l’innovazione in questione merita senz’altro una riflessione.

È il caso di ChatGPT, un generatore automatico di testi in risposta a una vasta gamma di richieste, prodotto e messo online dalla società statunitense OpenAI. ChatGPT utilizza un’intelligenza artificiale addestrata su un’amplissima base di dati e capace, a partire da questo addestramento, di interpretare ed eseguire i comandi ricevuti. A differenza di altri sistemi di risposta automatizzata basati su regole fisse, come la maggior parte dei chatbot che hanno sostituito il servizio clienti di molte aziende, ChatGPT è in grado di reagire a un numero di gran lunga superiore e più complesso di domande, di adeguarsi maggiormente al proprio interlocutore, di apprendere dalle reazioni ricevute e di autocorreggersi nell’interazione, dando la sensazione di avere a che fare con un’entità “intelligente”: esattamente l’effetto ricercato dagli sviluppatori di questo tipo di “bot conversazionali”.

Rilasciata lo scorso 30 novembre, ChatGPT ha totalizzato più di un milione di utenti nella sua prima settimana di vita. Gli accessi continuano a crescere di giorno in giorno, mettendo alla prova la capacità del sito di gestirli: non stiputevi se, in alcune fasce orarie, non riuscirete ad accedere al servizio! La settimana scorsa OpenAI ha annunciato l’imminente lancio negli Stati Uniti di una versione Plus: al costo di 20 dollari al mese, sarà possibile utilizzare una versione più performante del bot, dotata di funzioni “sperimentali”. Ma, di fatto, si pagherà per fare da tester del nuovo prodotto.

Il successo di ChatGPT ha reso evidente la fortissima competizione globale, in corso da tempo sotto traccia, intorno allo sviluppo e all’uso dell’intelligenza artificiale, soprattutto per migliorare gli attuali motori di ricerca. Non è un caso che Google, leader mondiale nel settore, abbia annunciato in queste settimane lo sviluppo di un proprio chatbot conversazionale, Sparrow, capace di contrastare la diffusione di ChatGPT offrendo prestazioni migliori, con risposte più accurate e maggiore trasparenza rispetto alle fonti utilizzate. All’annuncio di Microsoft sulla prossima integrazione di ChatGPT nel proprio motore di ricerca, Bing, Google ha risposto annunciando il rilascio sperimentale di Bard, un servizio avanzato di intelligenza artificiale conversazionale: nel caso di domande per le quali non esiste una risposta univoca, Google Bard sarà in grado di sintetizzare una risposta che riflette opinioni divergenti (cosa che, in realtà, ChatGPT è già in grado di fare sia pure in modo elementare). Alla competizione globale nel settore partecipa anche la società cinese Baidu, che ha annunciato per il prossimo marzo il lancio pubblico di un bot in stile ChatGPT, chiamato ERNIE Bot, da integrare nel proprio motore di ricerca per raffinarne i risultati.

Non ci sono dubbi: l’intelligenza artificiale – nozione essa stessa complessa e controversa – rappresenta un campo sempre più strategico dell’industria informatica. Un campo in rapido sviluppo, che sta avendo e avrà un enorme impatto sull’economia, sulla società, sulle vite quotidiane di centinaia di milioni di persone.

Per comprendere meglio potenzialità e limiti di questo settore in espansione ho intervistato ChatGPT, ponendole una serie di domande su sé stessa. Dalla conversazione sono emersi punti di forza e debolezza, opportunità e rischi di questa tecnologia di intelligenza artificiale. Se, da un lato, la capacità di risposta del bot a domande complesse può lasciare meravigliati, dall’altro lato, proseguendo nella conversazione è stato facile notare ripetizioni e resistenze ad approfondire i quesiti posti. Per questa ragione è stato necessario selezionare e rivedere sul piano formale le risposte date da ChatGPT durante l’intervista, a conferma che un servizio del genere può produrre buoni pre-lavorati, ma non può (ancora?) sostituire il lavoro propriamente umano di produzione di testi coerenti e stilisticamente accurati. Inoltre sui punti più controversi – relativi alla tutela dei dati personali, al controllo della veridicità e all’aggiornamento delle informazioni, alla responsabilità per errori o danni agli utenti, agli usi impropri del servizio – le risposte sono state sostanzialmente corrette ma molto (troppo?) rassicuranti, com’era prevedibile che fosse.

 

Buongiorno, come stai?

Sono una AI (Artificial Intelligence). Non ho la capacità di provare sentimenti, emozioni o sensazioni fisiche, né possiedo una coscienza, quindi non ho il concetto di “sentirsi bene” o “sentirsi male”. Non ho preferenze, opinioni personali o volontà. Rispondo in base alle informazioni che mi sono state fornite durante l’addestramento. Ma sono sempre pronta ad aiutarti, con qualsiasi domanda o compito tu abbia per me.

 

Bene. Per iniziare, come spiegheresti in modo semplice che cos’è l’intelligenza artificiale? Quante forme ne esistono? E in che cosa si differenziano?

L’intelligenza artificiale è il settore dell’informatica che mira a creare “modelli” in grado di eseguire compiti che normalmente richiederebbero l’intelligenza umana, come la comprensione del linguaggio naturale, la risoluzione di problemi, la presa di decisioni e la percezione sensoriale. Questi risultati sono generalmente ottenuti tramite l’apprendimento automatico e l’utilizzo di algoritmi e di “reti neurali artificiali”, ossia reti di nodi o neuroni interconnessi che elaborano e trasmettono informazioni imitando il cervello umano.

Esistono diverse forme di intelligenza artificiale. L’intelligenza artificiale “pervasiva”, capace di svolgere compiti specifici, come la traduzione o la guida automatica. L’intelligenza artificiale “generalizzata”, capace di svolgere una vasta gamma di compiti, come risolvere problemi matematici o giocare a giochi complessi; l’apprendimento automatico, basato su algoritmi e modelli matematici che possono imparare dai dati senza essere esplicitamente programmati; l’intelligenza artificiale “sottile”, che utilizza tecniche di apprendimento automatico e di elaborazione del linguaggio naturale per comprendere e interagire con il mondo nel modo più simile a quello umano.

Ciascuna AI ha le proprie capacità e i propri limiti. Alcune seguono meccanicamente le regole secondo cui sono state programmate per prendere decisioni e risolvere problemi circoscritti. Le AI “reattive” possono solo reagire alla situazione attuale e non possono utilizzare le esperienze passate per orientare le decisioni future. Le AI “a memoria limitata” possono ricordare eventi passati e utilizzare tali informazioni per decisioni nel presente. Le AI in grado di comprendere stati mentali come convinzioni, desideri e intenzioni possono integrare tale comprensione nelle proprie decisioni. Le AI capaci di “apprendimento profondo”, un sottoinsieme delle intelligenze capaci di apprendimento automatico, utilizzano reti neurali con più livelli e possono svolgere compiti ancora più complessi.

 

E ChatGPT, che tipo di intelligenza artificiale è?

ChatGPT è un’intelligenza artificiale di tipo NLP (Natural Language Processing). È stata addestrata a comprendere e generare testo in modo simile a come lo farebbe un essere umano, utilizzando tecniche di machine learning e deep learning. In questo modo, quando gli viene fatta una richiesta, il sistema è in grado di generare risposte coerenti e sensate in linguaggio naturale.

 

Che differenza c’è tra machine learning e deep learning?

Il machine learning riguarda le tecniche per insegnare ai computer a eseguire determinate attività senza essere esplicitamente programmati. Implica l’addestramento di algoritmi su grandi repertori di dati per fare previsioni o prendere decisioni sulla base di modelli presenti nei dati. Il deep learning è un sottoinsieme del machine learning, che si basa sulle reti neurali artificiali. Gli algoritmi di deep learning sono progettati per operare su molteplici livelli di astrazione e stabilire connessioni gerarchiche tra i dati, consentendo di effettuare previsioni e decisioni complesse.

 

Perché ti chiami ChatGPT?

“Chat” si riferisce alla capacità di rispondere all’input dell’utente in modo colloquiale, mentre GPT sta per “Generative Pre-trained Transformer”. “Generative” si riferisce alla capacità di generare testo. “Pre-trained” si riferisce al fatto che l’addestramento avviene su un ampio repertorio di dati prima che il sistema sia messo a punto per svolgere attività specifiche. “Transformer” si riferisce al tipo di architettura neurale che utilizzo per generare testi, usando meccanismi di “auto-attenzione” che consentono di soppesare l’importanza delle diverse parti dell’input quando si effettuano previsioni sulla possibile risposta.

 

Quali e quanti dati sono stati usati per addestrarti?

ChatGTP è stata addestrata su un ampio repertorio di testi, come libri, articoli, siti web, conversazioni sui social media e molto altro, utilizzando una tecnica chiamata “apprendimento non supervisionato”. Ciò consente di apprendere modelli e relazioni presenti nei testi senza alcuna conoscenza preliminare dell’attività specifica per cui il sistema verrà utilizzato.

Il numero di dati utilizzati per addestrare un GPT dipende dalla versione specifica del modello e dal set di dati di addestramento utilizzato. Maggiore è la quantità di testo utilizzata per addestrare un modello linguistico del tipo GPT, più accurato e diversificato sarà l’output del modello.

La versione originale di GPT, GPT-1, è stata addestrata su un set di dati di oltre 40 GB provenienti da una varietà di fonti, pre-elaborati per rimuovere qualsiasi identificazione personale. La versione successiva, GPT-2, è stata addestrata su un set di dati di oltre 570 GB. GPT-3, il modello su cui si basa ChatGTP, è stato addestrato su diversi terabytes di dati: la quantità esatta non è stata resa nota dall’azienda.

 

I testi usati per l’addestramento sono stati scelti secondo qualche criterio?

I testi sono stati selezionati in base alla loro disponibilità e diversità, per replicare il linguaggio umano e le sue sfumature. Non sono stati seguiti criteri precisi per la selezione dei testi, ma si è cercato di fornire al sistema un insieme rappresentativo del linguaggio umano in tutte le sue forme. Lo scopo era quello di fornire al sistema un vasto repertorio di esempi di lingua scritta e parlata, per renderlo in grado di comprendere e replicare una vasta gamma di attività linguistiche.

 

ChatGPT impara anche dalle interazioni con le persone che lo utilizzano?

Sì, ChatGPT è un sistema di apprendimento automatico. Una volta addestrato e rilasciato continua a imparare dalle interazioni che ha con le persone. Ad esempio, quando GPT viene utilizzato per generare testo, come in un chatbot o in un’applicazione di traduzione linguistica, è esposto a nuovi e vari input da parte delle persone, da cui riceve anche feedback. Nel tempo, ciò può portare a miglioramenti nella capacità del sistema di comprendere e generare testi.

 

In quante lingue è in grado di lavorare ChatGPT?

ChatGPT riesce a lavorare attualmente in varie lingue, come l’inglese, lo spagnolo, il tedesco, il francese, l’italiano e il cinese. L’obiettivo è renderla accessibile a un pubblico sempre più ampio, indipendentemente dalla lingua madre.

 

Chi ha inventato ChatGPT?

ChatGPT è il risultato di un lavoro di squadra dei ricercatori di OpenAI. Il suo sviluppo ha comportato la collaborazione di numerosi esperti in vari campi, come l’elaborazione del linguaggio naturale, l’apprendimento automatico e l’informatica.

Il concetto di modello linguistico pre-addestrato e poi messo a punto per attività specifiche non è nuovo. OpenAI ha migliorato questo concetto, addestrando il GPT su un set di dati molto più ampio rispetto ai modelli precedenti e utilizzando un’architettura di tipo “transformer”, che si è dimostrata molto adatta per le attività di modellizzazione del linguaggio umano.

 

Quando e da chi è stata fondata OpenAI?

OpenAI è stata fondata nel dicembre 2015 da Elon Musk, Sam Altman, Greg Brockman, Ilya Sutskever, Wojciech Zaremba e John Schulman. L’azienda è stata fondata per promuovere e sviluppare un’AI user-friendly, in modo sicuro e responsabile, con l’obiettivo di portare beneficio all’umanità nel suo insieme.

 

Quali sono le principali fonti di finanziamento usate da OpenAI per sviluppare GPT?

OpenAI è finanziata da una combinazione di investimenti privati, capitali di rischio e grants. L’azienda ha iniziato con un investimento di 1 miliardo di dollari da parte dei fondatori. Da allora, ha ricevuto finanziamenti da varie fonti, tra cui società di venture capital come Andreessen Horowitz, Founders Fund e Obvious Ventures, nonché partner aziendali come Microsoft e IBM. Oltre ai finanziamenti privati, OpenAI riceve anche grants da organizzazioni come la National Science Foundation (NSF) e l’Open Philanthropy Project.

OpenAI ha anche una divisione a scopo di lucro che mira a monetizzare la ricerca attraverso la vendita di prodotti e servizi basati su GPT, ed ha firmato accordi con aziende come Microsoft e AWS per concedere in licenza la sua tecnologia.

 

Come e da chi vengono affrontate le questioni etiche legate all’uso del GPT?

OpenAI ha un team specifico per approfondire le implicazioni etiche e sociali della sua tecnologia, incluso GPT. Il team “Policy and Ethics” è guidato da Sam Altman, amministratore delegato di OpenAI, ed è composto da esperti in vari campi come l’intelligenza artificiale, la filosofia, il diritto.

 

Il team “Policy and Ethics” lavora su un’ampia varietà di questioni relative allo sviluppo responsabile e all’implementazione dell’AI, tra cui l’equità, la trasparenza e la responsabilità sociale. Si impegna inoltre, con l’aiuto di esperti esterni, a garantire che la tecnologia di OpenAI sia sviluppata in modo coerente con i valori e gli obiettivi dell’azienda.

 

Il team “Policy and Ethics” ha affrontato anche questioni legali?

Sì, sono molte le questioni legali prese in considerazione dal team. Innanzitutto la privacy e la sicurezza dei dati ossia, rispetto all’Unione Europea, il rispetto del Regolamento generale sulla protezione dei dati (GDPR). In secondo luogo, la proprietà intellettuale, allo scopo di garantire che GPT e altri sistemi di intelligenza artificiale non violino alcun brevetto o marchio esistente, ma anche che la proprietà intellettuale di OpenAI sia protetta. In terzo luogo, problemi di determinazione della responsabilità, nel caso in cui GPT o altri sistemi di intelligenza artificiale causino danni a persone. In quarto luogo, problemi di equità e discriminazione, allo scopo di garantire che GPT e altri sistemi di intelligenza artificiale non discriminino determinati gruppi di persone in base a fattori quali razza, sesso o età. Infine, problemi di trasparenza, per garantire che gli utenti possano capire come funziona il GPT e prendere decisioni informate sul suo utilizzo.

 

Il team ha mai affrontato l’applicazione del GPT ai conflitti armati o alla costruzione della pace?

Non sono a conoscenza di alcun lavoro specifico svolto dal team sull’applicazione del GPT ai conflitti armati o alla costruzione della pace, ma è probabile che il team abbia considerato le potenziali implicazioni del GPT e di altre tecnologie AI in questi ambiti. I suoi membri sono consapevoli delle potenziali implicazioni della propria tecnologia e lavorano per garantire che venga utilizzata rispettando le leggi internazionali e i diritti umani.

 

OpenAI ha avuto ovvero ha rapporti con l’industria militare?

OpenAI non ha mai confermato di avere rapporti specifici con l’industria militare.

 

Quali sono i principali limiti di ChatGPT?

ChatGPT non è perfetto e potrebbe non rispondere correttamente a tutte le domande o generare testi incoerenti o non in linea con le aspettative dell’utente. Uno dei suoi principali limiti è dato dalla qualità dei dati utilizzati nell’addestramento, che potrebbero non essere rappresentativi dei diversi tipi di linguaggio e di usi che il sistema incontrerà quando viene utilizzato, né essere aggiornati in tempo reale. Un altro limite è che si basa su modelli statistici e correlazioni trovati nei dati su cui è stato addestrato, ma non è in grado di comprendere il contesto né il “mondo reale” come fa un essere umano.

 

Quali applicazioni pratiche può avere la tecnologia GPT?

La tecnologia GPT può essere utilizzata in una vasta gamma di applicazioni, tra cui la generazione di testo in base a un modello di input, come una frase o una domanda. Questo la rende utile per la scrittura automatica di articoli, la creazione di conversazioni virtuali e molto altro. Può anche essere utilizzata per analizzare i sentimenti espressi nei testi, ad esempio identificando tendenze e opinioni sui social media. Può essere utilizzata per completare automaticamente frasi o testi in base a un modello iniziale. Può essere addestrata per rispondere alle domande degli utenti, migliorando le performance delle applicazioni di conversazione virtuale. Questi sono solo alcuni esempi delle applicazioni attuali, ma con il continuo sviluppo e il miglioramento del modello, potrebbero emergere altre opportunità e applicazioni future.

 

Quali potrebbero essere queste applicazioni future?

La tecnologia GPT ha dimostrato di saper generare testi di qualità, inclusi articoli di notizie, poesie e persino codici per la programmazione informatica. Potrebbe essere utilizzata per generare contenuti per siti web, social media e altre piattaforme, o per assistere in altre attività di scrittura. Potrebbe essere utilizzata per riassumere grandi quantità di testo, come articoli di notizie, documenti scientifici e documenti legali, rendendo più facile per le persone trovare informazioni pertinenti. Ma potrebbe anche essere utilizzata per analizzare il sentiment di un testo, ad esempio per identificare il feedback dei clienti, i post sui social media o gli articoli di notizie in base al loro tono.

La tecnologia GPT, infine, potrebbe essere utilizzata per migliorare i motori di ricerca in diversi modi. Ad esempio, per riassumere ed estrarre automaticamente le informazioni chiave per migliorare la pertinenza dei risultati di ricerca; per fornire direttamente le risposte alle ricerche in linguaggio naturale, invece di visualizzare solo un elenco di collegamenti; suggerire domande e argomenti correlati per aiutare gli utenti a trovare ciò che stanno cercando. Queste applicazioni richiedono un’integrazione significativa con i motori di ricerca esistenti e potrebbero sollevare preoccupazioni circa il bias e la qualità delle informazioni generate.

 

La tecnologia GPT sostituirà mansioni finora affidate a esseri umani?

GPT aiuta a rispondere a domande e a scrivere testi, ma non può sostituire completamente i lavoratori umani. GPT è progettato per essere uno supporto, non un sostituto dell’intelligenza, della creatività e del giudizio umani. Può automatizzare attività di routine e produrre dei pre-lavorati di testo, ma ci sono molte attività che richiedono le competenze di lavoratori umani.

 

Essendo in grado di generare testi anche per i social media, la tecnologia GTP può essere usata in modo improprio per influenzare il dibattito pubblico?

Sì, il rischio esiste. La tecnologia GPT potrebbe essere usata per generare grandi quantità di post automatizzati sui social media o altre forme di contenuto che potrebbero diffondere disinformazione, propaganda o odio online. Inoltre, potrebbe essere utilizzata per impersonare persone o organizzazioni reali online, il che potrebbe complicare ulteriormente il problema della disinformazione e delle “notizie false”.

Per mitigare questi rischi, è importante che le organizzazioni e gli individui che sviluppano e utilizzano GPT siano trasparenti sull’uso di questa tecnologia e ne prevengano usi impropri. Ciò può comportare l’etichettatura chiara dei contenuti automatizzati, l’implementazione di solidi sistemi di moderazione e lo sviluppo di politiche e linee guida per un uso responsabile. Inoltre, è importante che ricercatori, responsabili politici e altri stakeholders rimangano informati sulle capacità e sui limiti delle tecnologie GPT e lavorino insieme per sviluppare le migliori pratiche per il loro utilizzo.

 

Quali altri rischi può comportare l’uso di questa tecnologia?

I rischi sono molteplici. Oltre alla disinformazione online, c’è il problema della riproduzione di bias causa di discriminazione: se i dati su cui è avvenuto l’addestramento contengono pregiudizi o inviti alla discriminazione, questi possono essere amplificati dalla tecnologia. Ci sono poi vari problemi legati alla privacy: l’utilizzo di tecnologie GPT comporta la raccolta e l’utilizzo di grandi quantità di dati personali, che possono essere utilizzati per scopi impropri. Ci sono infine rischi per la sicurezza: le tecnologie di intelligenza artificiale possono essere usate per condurre attacchi informatici.

Per evitare questi e altri rischi, è importante sviluppare e implementare pratiche etiche rigorose nell’utilizzo di tecnologie come GPT.

 

Federico Oliveri è Senior Fellow del Centro Interdisciplinare “Scienze per la Pace” dell’Università di Pisa e co-fondatore di “Scienza&Pace Magazine”. Insegna “Filosofia della pace” nel corso di laurea in Scienze per la pace dell’Università di Pisa e “Informatica giuridica” nel corso di laurea in Scienze giuridiche per l’innovazione organizzativa e la coesione sociale dell’Università di Camerino. L’autore tiene a ringraziare Tommaso Gatto, Daniele Risaliti e Fabio Tarini per le osservazioni ricevute.