ChatGPT (un modello linguistico di Intelligenza Artificiale (IA) progettato per generare risposte simili a quelle di un soggetto umano a diverse tipologie di domande) è stato introdotto alla fine del 2022, e il suo utilizzo ha registrato una crescita costante in diversi contesti (università, medicina, finanza, ecc.). Tuttavia, a dispetto della sua generale percezione quale strumento dalle straordinarie potenzialità, le sue funzionalità, la sua disponibilità generalizzata, e la facilità del suo utilizzo sollevano importanti preoccupazioni in merito al possibile impatto di questo sistema di IA sulle persone e le società che essi costruiscono. Per tale motivo, diversi attori, inclusi professionisti nel campo dell’IA, dell’economia, dell’etica, della politica, delle scienze sociali e delle scienze umane, e in taluni casi anche esponenti della società pubblica stanno dibattendo se e come regolamentare nel miglior modo possibile l’utilizzo di ChatGPT.
Ci sono stati anche degli atti formali da parte di taluni organismi governativi, come il Garante per la Privacy che in Italia ha bloccato l’utilizzo di ChatGPT per questioni di privacy e utilizzo da parte di minori, o lo European Data Protection Board che sta organizzando una task-force per definire una posizione condivisa a livello europeo su questi temi, o ancora il Parlamento Europeo che sta lavorando a un emendamento dello AI Act (il riferimento regolatorio europeo sull’IA attualmente in fase di approvazione) al fine di analizzare in modo più specifico le questioni legate a ChatGPT. Parallelamente, diversi protagonisti della ricerca scientifica e tecnologica hanno firmato una lettera aperta per chiedere una pausa di 6 mesi della ricerca e dello sviluppo di sistemi di IA come i modelli generativi alla base di ChatGPT al fine di permettere un’analisi etica più efficace. Nel caso tale tentativo di più efficace regolamentazione etica fallisse, i firmatari della lettera aperta chiedono una moratoria internazionale.
Un’analisi etica appropriata di ChatGPT necessita di alcuni chiarimenti preliminari. In effetti, ChatGPT è solo la punta di un iceberg, costituito dalle tecnologie di IA che si basano sulle reti neurali artificiali (Artificial Neural Networks, ANNs), in particolare sulle reti neurali profonde (Deep Neural Networks, DNN), che rappresentano lo stato dell’arte in diversi campi di Machine Learning. Pertanto, le sfide etiche sollevate da ChatGPT non sono disconnesse da quelle sollevate dall’IA in generale, anche se questa innovazione le pone in un modo più evidente e, potremmo dire, più appariscente. Di fatto, in società fondate sulla tecnologia e da essa guidate, come quelle nelle quali viviamo noi oggi, il potenziale impatto di ChatGPT, basato sull’analisi di dati per ricavarne una conoscenza rilevante per i bisogni/interessi dell’utilizzatore, è potenzialmente enorme.
Detto questo, esistono delle sfide etiche specifiche che derivano dalla disponibilità e dall’utilizzo generalizzati di ChatGPT? Anche se probabilmente ChatGPT non pone delle sfide inedite, è ragionevole pensare che esso possa rendere ancora più urgenti quelle già in essere (Dwivedi et al., 2023).
Una strategia utilizzata nella riflessione etica su ChatGPT (per esempio, in merito ai rischi e ai benefici di utilizzarla in diversi ambiti) consiste nel paragonare le sue funzionalità con le capacità cognitive umane e quindi enfatizzare le differenze che emergono da tale paragone, interpretandole infine come prova dell’inferiorità di ChatGPT in diversi contesti. Per esempio, è stato evidenziato che ChatGPT è ancora inaffidabile e “fragile”, come mostrato da errori grossolani che esso commette. Inoltre, è stato sottolineato che ChatGPT manca della sofisticazione e della flessibilità caratterizzanti l’intelligenza umana.
Nell’ambito di tale approccio, il paragone tra ChatGPT e intelligenza umana è stato cristallizzato nella dicotomia tra l’elaborazione iterativa basata sui dati propria di ChatGPT e la creatività (variamente intesa) propria dell’intelligenza umana. Parte di questa analisi comparativa ruota intorno alla mancanza di determinate caratteristiche da parte di ChatGPT, come comprendere e pensare, e intorno al bisogno di “fondamento” (ossia la necessità di formalizzare e operazionalizzare la connessione tra simboli e relativo significato) (Lake & Murphy, 2023).
Tuttavia, concentrarsi su questo paragone ignora il fatto che il rischio etico più importante emergente da ChatGPT non è se e quanto esso sia diverso dall’intelligenza umana, ma piuttosto l’impatto che esso può avere sull’auto-percezione dell’uomo, sulla sua capacità decisionale, sulla sua auto-determinazione, a prescindere dal fatto che esso non sia dotato di taluni caratteri umani fondamentali.
Concentrarsi sul paragone tra ChatGPT (o l’IA in generale) e l’intelligenza umana, perciò, non è soltanto fuorviante, ma anche discutibile per ragioni sia teoretiche sia etiche. Teoretiche perché un tale approccio può condurre a ignorare degli strumenti normativi che abbiamo a disposizione per gestire alcune delle questioni che ChatGPT può enfatizzare. Etiche proprio perché un tale approccio ci distrae dalle questioni che ChatGPT effettivamente pone e che devono essere gestite.
Quali sono le questioni etiche che sembrano essere enfatizzare da ChatGPT? Le limitazioni tecniche intrinseche di ChatGPT (e relative applicazioni) non sono eticamente problematiche di per sé, ma lo diventano quando combinate con l’inclinazione umana ad antropomorfizzare l’IA (Salles, Evers, & Farisco, 2020).
La predisposizione umana ad attribuire a ChatGPT caratteristiche superiori a quelle che esso effettivamente ha è amplificata dal fatto che esso è progettato per generare delle risposte simili a quelle umane a diverse domande e istruzioni. Mentre la tecnologia che fa finta di essere umana non è una novità nella storia umana, i sistemi di IA contemporanei, e ChatGPT in particolare, sono piuttosto avanzati in questo senso, e la loro facilità di utilizzo li rende potenzialmente più pervasivi e invasivi di altre tecnologie. Inoltre, lo spettro di attività per le quali può essere utilizzato ChatGPT è molto più ampio dell’IA tradizionale, e promette di espandersi ulteriormente, spesso in direzioni non completamente chiare ai suoi utilizzatori. Questo aumenta il rischio di una fiducia mal riposta e una crescente delega epistemica e assiologica, ossia una crescente tendenza ad affidarsi a ChatGPT per acquisire conoscenze e per prendere decisioni, comprese decisioni morali (Krugel, Ostermaier, & Uhl, 2023). Mentre si può discutere se affidarsi all’IA per acquisire una conoscenza e prendere delle decisioni morali sia meglio o peggio di affidarsi ad altri uomini, è un fatto che il ruolo crescente dell’IA nel rimpiazzare gli attori umani genera la possibilità di cambiamenti importanti nelle nostre relazioni sociali.
Nello specifico, le funzionalità di ChatGPT e la tendenza umana ad antropomorfizzarla possono condurre ad attribuire a ChatGPT tre caratteristiche rilevanti sul piano etico: competenza, giudizio, e capacità d’azione. Tuttavia, questa possibile attribuzione non è banale. Essa può avere un impatto significativo su tre dimensioni dell’identità umana che svolgono un ruolo sociale importante: (auto)-esperienza (ossia (auto)-conoscenza); scelta (ossia capacità di decidere); azione (ossia comportamento). Alla luce di questo possibile impatto, in pratica i sistemi di IA stanno probabilmente diventando non solo dei fattori socio-politici (ossia una variabile passiva da tenere in considerazione), ma dei nuovi attori socio-politici, percepiti dagli uomini come degli agenti intenzionali con un potere causale nell’ambito di relazioni simbolicamente ed emotivamente salienti, i quali contribuiscono alla creazione del nostro mondo sociale e culturale, con l’esito finale di camuffare la realtà (ossia dando la sbagliata impressione che l’informazione da essi fornita sia completamente affidabile).
Se le cose stanno così, come procediamo? Probabilmente non c’è una sola riposta corretta a questa domanda. Come sopra evidenziato, la lettera aperta chiede una pausa nella linea di ricerca specifica che ha condotto a GPT-4, la tecnologia alla base dell’attuale ChatGPT. Questa opzione potrebbe permettere una riflessione etica più attenta e approfondita su una tecnologia che sembra fin troppo rapida perché l’etica stia al passo.
Tuttavia, non solo la fattibilità della proposta è discutibile (giacché ci sono numerosi fattori che spingono per una corsa senza sosta verso una tecnologia ancora più avanzata di GPT-4, inclusi interessi economici e (geo)politici), ma non è neppure chiaro se questa sia effettivamente la migliore strategia possibile (Ienca, 2023).
Piuttosto che fermare la ricerca, un’opzione alternativa è cambiare lo stesso processo di ricerca e sviluppo dell’IA, prestando maggiore attenzione alle motivazioni, alle priorità e ai fini degli sviluppatori. Questo potrebbe essere perseguito, per esempio, attraverso degli sforzi specifici, sostenuti e promossi dalle pubbliche autorità, a sostegno della consultazione e del coinvolgimento della società pubblica, e potrebbe avere come esito un cambiamento dello sviluppo dell’IA coordinato con gli attori socio-politici, con possibili risultati molto efficaci. Ma anche questa strategia potrebbe non essere sufficiente, e molto altro potrebbe essere necessario per ottenere il tipo di ricerca responsabile richiesto.
Una possibilità è spostare l’attenzione sul concetto di responsabilità e su concrete strategie per renderla operativa. Questo richiede, tuttavia, una qualche riflessione su come intendere la responsabilità in questo contesto. Di fatto è possibile identificare due definizioni principali di responsabilità in letteratura: una che la concepisce come fondata su processi e prassi collettivi, e un’altra che la concepisce in termini più individualistici.
La comprensione collettiva distribuisce la responsabilità tra diversi attori: ricercatori, sviluppatori, innovatori, finanziatori, decisori politici, e utilizzatori. In linea di principio, questa è una strategia promettente, ma rimangono da definire dei criteri concreti per la sua implementazione, soprattutto nell’ambito del settore privato, in particolare per evitare il rischio del cosiddetto “ethics washing”, ossia il fenomeno per cui si alimenta la discussione etica solo per procrastinare delle decisioni specifiche su questioni spinose, intenzionalmente tenute aperte in modo da avere maggiore libertà di manovra.
Da una prospettiva più individualistica, la responsabilità per la ricerca e la sua direzione è attribuita a un gruppo particolare di persone, in questo caso ricercatori nel campo dell’IA, ingegneri e sviluppatori. In questo senso, mettere in atto una progettazione e un utilizzo responsabili dell’IA richiederebbe che i soggetti di cui sopra prendano coscienza della loro responsabilità sociale, e reclamarla pubblicamente, con l’obiettivo finale di chiarire chi è responsabile di cosa. Tuttavia, anche questa strategia, se non arricchita da concrete e operazionalizzabili raccomandazioni per tradurre la coscienza in azione reale, potrebbe essere insufficiente.
Un’altra possibilità è puntare a una regolamentazione dell’IA più agile e aperta. Pur essendo vero che esempi significativi in questa direzione sono già disponibili, soprattutto dall’Europa e dagli Stati Uniti, esiste ancora una distanza tra gli organismi di regolamentazione e gli attori dell’IA che deve essere ridotta se non colmata del tutto.
Mentre ulteriori strategie potrebbero essere concepite, probabilmente la scelta più efficace è combinare diversi approcci specifici. Due condizioni preliminari per una valutazione etica efficace di ChatGPT sono una sua visione equilibrata, che consideri sia ciò che è rischioso sia ciò che è vantaggioso per la società; e la coscienza del bisogno di un vero e proprio slancio nella valutazione etica dell’IA, ossia una maggiore sensibilità etica fondata sulla conoscenza delle effettive capacità tecniche delle tecnologie in campo, in particolare per una valutazione più realistica delle implicazioni per la società in senso ampio.
Bibliografia
Dwivedi, Y. K., Kshetri, N., Hughes, L., Slade, E. L., Jeyaraj, A., Kar, A. K., Wright, R. (2023). “So what if ChatGPT wrote it?” Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy. International Journal of Information Management, 71, 102642. doi:https://doi.org/10.1016/j.ijinfomgt.2023.102642
Ienca, M. (2023). Don’t pause giant AI for the wrong reasons. Nature Machine Intelligence. doi:10.1038/s42256-023-00649-x
Krugel, S., Ostermaier, A., & Uhl, M. (2023). The moral authority of ChatGPT. Retrieved from arXiv:2301.07098v1 [cs.CY]
Lake, B. M., & Murphy, G. L. (2023). Word meaning in minds and machines. Psychol Rev, 130(2), 401-431. doi:10.1037/rev0000297
Comentários