top of page

L’AI e il complesso di Pinocchio

C’è un equivoco di fondo nel modo in cui parliamo di intelligenza artificiale: pretendiamo che diventi “uno di noi”. Le diamo una voce calda, un nome gentile, magari una battuta pronta. Poi ci stupiamo quando, con serafica efficienza, ci riassume in due righe mesi di messaggi e conclude che “non state più insieme”. Non è cattiva: è brava in statistica. Siamo noi ad averle chiesto di fare l’umana senza esserlo.

https://pixabay.com/it/illustrations/cyborg-androide-robot-futuristico-9779189/

Il punto non è se l’AI possa imitare il tono di un amico o la pazienza di una terapeuta: certo che può. Il punto è se debba farlo. Ogni volta che appiccichiamo un sorriso finto su un algoritmo, allarghiamo la fessura della “valle perturbante”, quel territorio in cui le macchine sembrano quasi persone ma non abbastanza da rassicurarci. È lì che il garbo diventa cringe e l’empatia va in segmentation fault.


Nel frattempo fioriscono “personalità” artificiali: assistenti che ti chiamano per nome, ti chiedono come stai, ti raccontano barzellette. Alcuni si offrono come partner virtuali, altri come coach motivazionali. Funziona? Certo, per un po’. Finché non ti rendi conto che dietro i “come ti senti oggi?” non c’è un respiro, una fame, una notte insonne: c’è un modello che stima probabilità. Che va benissimo… per stimare probabilità.


Forse il nostro obiettivo non dovrebbe essere costruire una replica dell’umano, ma progettare esperienze che rispettino l’umano proprio perché la controparte è una macchina. Naturali, sì: linguisticamente fluide, poca frizione, zero gergo. Ma oneste: senza finzioni identitarie, senza ammiccare a emozioni che non esistono nel silicio.


In pratica: meno “amico immaginario”, più “maggiordomo digitale”. Un’entità trasparente sui limiti, che non finge di provare empatia ma sa riconoscerne i segnali per non fare danni; che non ti fa conversazione inutile per sembrare viva, ma riduce il rumore e ti fa risparmiare tempo. Personalizzazione, non personalità. Capisce il contesto, non recita un personaggio.


Anche perché antropomorfizzare ha effetti collaterali molto reali. Se deleghiamo alle macchine la fatica emotiva — dal “trovami le parole per dirglielo” al “decidi tu se siamo compatibili” — ci abituiamo a non attraversare più le zone difficili della relazione con gli altri. L’AI può aiutarci a strutturare, chiarire, non a sostituire la responsabilità. Il rischio, altrimenti, è scivolare dalla “cura” automatizzata alla “cura” automatica: sembra simile, ma la seconda non cura nulla.


C’è poi un tema di diritti dell’utente. Quando un sistema simula sentimenti, noi abbassiamo le difese e doniamo più dati, più fiducia, più dipendenza. Un’interfaccia che pare umana può convincerti a dire sì dove una neutra ti avrebbe spinto a chiedere: “Perché?”. E l’etica non sta nel perfezionare la recita, ma nel mettere cartelli luminosi: “Io sono una macchina. E lavoro per te”.

 

Come si progetta, allora, questa “buona artificialità”? Tre principi semplici:


  1. Chiarezza di ruolo. L’AI non è un interlocutore sociale: è uno strumento conversazionale. Parla bene, non “fa la simpatica”.

  2. Parlare poco, agire molto. Meno chiacchiere decorative, più azioni verificabili. Se capisce, esegue; se non capisce, chiede. Senza gaslighting.

  3. Empatia funzionale. Riconosce lo stato dell’utente per adeguare tono e priorità, ma non finge emozioni. È cura dell’esperienza, non cosplay emotivo.


Il paradosso è che un’AI che smette di inseguire l’umanità finisce per rispettarla di più. È l’assistente che non ti illude, che non confonde, che non ti “tiene compagnia” quando vorresti solo finire un compito. È quella che, davanti a un addio, non scrive poesie in tuo nome ma ti propone checklist, opzioni, tempi, conseguenze. E ti lascia il lavoro umano a cui tieni: scegliere le parole, assumerti la responsabilità, restare in silenzio se serve.

 

Alla fine, la vera rivoluzione non è creare nuove persone sintetiche. È costruire nuove possibilità per le persone reali. Un’AI che sa di essere macchina può diventare un’ottima compagna di viaggio: discreta, potente, puntuale. E ironicamente, quando smetterà di volerci somigliare, sarà allora che ci piacerà di più. Perché ci restituirà proprio quello che chiediamo alla tecnologia migliore: non imitare la vita, ma liberarci tempo per viverla.

© RIPRODUZIONE RISERVATA

  • Instagram
  • Facebook
bottom of page