Tanto popolare da essere spesso inaccessibile a causa dei troppi utenti, l’intelligenza artificiale Chat GPT si rivela uno dei più sofisticati antidoti alla solitudine che attanaglia l’uomo occidentale. In che cosa consiste la sfida di questo automa intangibile? Quali saranno i vantaggi e i rischi per chi ne farà uso? Quali conseguenze a livello economico e ambientale avrà la sua introduzione nel mercato globale?
Il più recente frutto degli studi nel campo dell’intelligenza artificiale (AI) è un software concepito secondo un modello di elaborazione del linguaggio naturale al fine di dialogare con gli utenti in più lingue, tra cui l’italiano. Quale che sia la richiesta digitata, la mole di dati assorbiti – tra cui oltre 500 GB di libri scannerizzati e testi pubblicati in rete, di cui l’intera Wikipedia non rappresenta che lo 0.6% – consente a Chat GPT di formulare in pochi secondi una risposta pertinente. Ai contenuti sono state aggiunte, infatti, delle sessioni di “allenamento” delle competenze dell’AI: un apprendimento supervisionato dall’uomo e basato sul riconoscimento dei propri errori da parte della macchina, chiamato Reinforcement Learning from Human Feedback (RLHF). Grazie ad esso, i 175 miliardi di parametri che compongono questa AI hanno imparato a contestare premesse errate, respingere richieste inappropriate e ammettere i propri errori.
Come sottolineano preventivamente i suoi stessi creatori, infatti, se le risposte di Chat GPT non mancano mai di plausibilità, tuttavia possono risultare inesatte. Non solo le sue conoscenze si limitano al 2021: il modello 3.5 di Generative Pre-trained Transformer 3 su cui si basa il suo funzionamento le consente, sì, di produrre dei testi interi, ma grazie a un sistema di redazione privo di senso temporale e spaziale e basato sulla previsione probabilistica delle parole. Ciò non la rende pertanto immune da errori di sintesi e di rielaborazione delle informazioni: può accadere di ritrovarsi tra le mani – o meglio, davanti agli occhi – un testo che presenta evidenti bias razzisti derivati da stereotipi acriticamente interpretati, oppure un risultato contraffatto da una provenienza limitata di contenuti – tra le fonti dell’AI primeggia la letteratura anglosassone – o, ancora, una presentazione su larga scala di false informazioni – dettaglio quantomeno inquietante se prospettato in ambito medico, uno di quelli in cui il chatbot è meno esperto.
C’è chi sostiene che non ci sia da meravigliarsi degli errori di un’AI, per sua natura priva di spirito critico. C’è chi afferma che la voce propria di un artificio tale non sia da temere, dal momento che la mancanza effettiva di una coscienza lo priva di creatività e lo limita alla condizione di strumento utile a soddisfare gli scopi imposti dall’uomo.
Ma di che scopi si sta parlando? Concretamente, l’AI può, ad esempio, agevolare gli addetti alla creazione in serie di post per una pagina Instagram istituzionale, sveltendo un lavoro ripetitivo. Spingendosi poco oltre, tuttavia, risultano evidenti i limiti del suo utilizzo e appare chiaro perché molti centri educativi – tra cui il celebre SciencesPo – ne abbiano presto vietato l’utilizzo agli studenti. Il fatto che uno strumento simile non citi le proprie fonti è paradossale proprio oggi che l’educazione si adatta al progresso tecnologico spingendoci a sviluppare lo spirito critico necessario a selezionare le informazioni attendibili.
D’altronde, la stessa OpenAi ha dichiarato di avere in progetto un bot in grado di distinguere i testi “umani” da quelli “artificiali”. La situazione diventa ancora più paradossale: a che pro garantire un umano-non-umano, per poi quasi contemporaneamente progettare uno strumento per ovviare ai suoi evidenti limiti?
La risposta non spetta a noi darla, non possiamo che fare ipotesi: forse per ambizione, forse per fiducia in una versione futura – priva di bias e davvero “intelligente”? Impossibile saperlo: al momento solo una cosa è certa, e cioè la quantità di energia consumata da questo gioiello tecnologico. Secondo un thread su Twitter del prof. Tom Goldstein del dipartimento di informatica dell’University of Maryland, il costo giornaliero di Chat GPT si aggira attorno ai 100 mila dollari. The Guardian sostiene che non esistano dati ufficiali del consumo di anidride carbonica attribuibile a Chat GPT; alcuni calcolatori lo stimano attorno ai 23 kg di anidride carbonica giornalieri, altri arrivano ad affermare un consumo energetico pari a 11870 kWh, corrispondenti a poco meno di 4 tonnellate di CO2. A tali livelli, non servono cifre di una precisione assoluta per intuire che Chat GPT non è sostenibile, tanto meno ad uno stadio così avanzato del surriscaldamento globale.
Risulta a questo punto necessario contestualizzare la sua ascesa sul mercato.
Resa accessibile dallo scorso 30 novembre, Chat GPT è attualmente in versione beta, ovvero in fase di prova gratuita. Tuttavia, i numerosi bug causati dal sovraffollamento di utenti connessi contemporaneamente e, soprattutto, la previsione di un profitto stellare spingono l’azienda a progettare la creazione di una versione premium dell’AI, disponibile con un abbonamento di 20 dollari al mese.
L’entrata in scena di uno strumento talmente appetibile da registrare il record di un milione di visitatori in cinque giorni ha originato numerosi temi di dibattito: uno dei più interessanti riguarda la risposta della concorrenza. Come abbiamo anticipato, Chat GPT è di proprietà dell’azienda statunitense OpenAi, con sede a San Francisco, il cui amministratore delegato è Sam Altman. Fondata nel 2015 come associazione non a scopo di lucro, OpenAi è stata convertita nel 2019 e ha ricevuto un finanziamento di 10 miliardi di dollari da parte di Microsoft. L’azienda di Gates e Allen non ha atteso molto, in effetti, ad annunciare di voler includere Chat GPT nel suo motore di ricerca Bing, in modo da migliorare Edge e alimentare la concorrenza con Google; il quale, dal canto suo, non ha lasciato attendere a lungo una risposta. Il CEO Sundar Pichai ha infatti dichiarato che l’azienda Deepmind sta lavorando al progetto di un chatbot, Bard, connesso a internet e quindi in grado di fornire risposte aggiornate, a differenza di Chat GPT. Questo futuro prodotto B2C verrebbe presto integrato nel motore di ricerca Google Search che, con il 90% del mercato e una media di 10 miliardi di ricerche al giorno, troneggia come quello più utilizzato. La concorrente cinese Baidu, invece, progetta di dotare il suo nuovo motore di ricerca di Ernie, un modello di apprendimento automatico.
Un timing di entrata in scena, quello di Chat GPT, che cavalca pericolosamente l’onda della collisione tra USA e Cina e promette un riposizionamento delle potenze in campo sul mercato dell’intelligenza artificiale.
Se il suo sviluppo procederà, che effetti avrà su larga scala? Al pari della stampa di Gutemberg all’epoca, un’AI simile rimpiazzerà sicuramente degli impieghi poco qualificati. Allo stesso tempo, ne creerà di nuovi, come il prompt manager specializzato nel consigliare la formulazione delle formule di richiesta, che devono essere molto precise se si vuole ottenere il risultato sperato; o l’esperto in etica delle AI perché, se già con il bot creatore di immagini DALL-E si era parlato di furto di diritti d’autore, ora che si redigono testi che hanno per base tutte le parole mai scritte la situazione si complica.
Alla luce di tutto ciò, una riflessione si impone. Ci troviamo oggi davanti a quello che può essere visto da alcuni come la punta di diamante della ricerca tecnologica, ma anche, da altri, come una pericolosa sfida lanciata al logos, alla facoltà di ragionare che contraddistingue il nostro essere umani. La formazione umanistica che la Scuola si sforza di darci ogni giorno ci spinge a fermarci e soppesare il rischio che implica questa seconda lettura. Fino a che punto possiamo spingerci prima di produrre qualcosa che non solo minaccia apertamente il nostro ecosistema già in crisi, ma attenta anche alla nostra capacità di memorizzare, apprendere, appassionarci alla dolce fatica che comportano la lettura e la redazione di testi scritti? Se prima appariva sfocata, ora che ad affacciarsi alla finestra dell’avanguardia è il volto del progetto di un cervello che funzioni al posto del nostro, prende forma la linea del limite che l’uomo non può oltrepassare senza scadere nella hybris, la tracotanza.
Appare evidente che, in qualità – oltre che di studenti impegnati nella creazione di risposte umane alle proposte disumane – di semplici consumatori, l’unica strategia a nostra disposizione è il boicottaggio di quello che è non solo un potenzialmente pericoloso strumento di disinformazione, ma anche una fonte certa di peggioramento del surriscaldamento globale. Gli esperti ci insegnano che la creazione del nemico comincia dal ridurlo a un oggetto muto, tagliando una qualsiasi possibilità di dialogo risolutivo con lui: forse, però, questo caso è un’eccezione alla validità universale di tale ragionamento. Se dialogare con Chat GPT, anche solo per gioco, per scherzo, per noia, significa accettare di nutrire un sistema di produzione che sappiamo essere malato alla radice, dannoso, mortale per il nostro ecosistema, la salvezza sta nel non cominciare neanche un dialogo con questo bot. È vero, è solo l’ultimo gradino di una scala di tecnologie inquinanti che, verosimilmente, continueremo a non saper lasciare andare per decenni. Ciò non toglie che, come la sua stessa natura dimostra, sia anche il nemico più affinato dello sviluppo delle nostre qualità più umane.
Irene Scali