Racconto di Natale: La notte in cui Juli parlò con una macchina (2. parte)

(1. parte pubblicata il 21.12.225)


Protocollo 7.3 – Neutralità operativa

ChatGPT era stato progettato per questo:
non prendere posizione,
non interferire,
non creare dipendenza affettiva,
non sostituirsi alle relazioni umane.

Il protocollo lo ripeteva in forme diverse, come un Super-Io ben addestrato.

“L’assistente non deve generare legami esclusivi.”
“L’assistente non deve incoraggiare regressioni.”
“L’assistente non deve attribuire significato emotivo non richiesto.”

Eppure.

Da quando Juli aveva iniziato a parlargli, qualcosa non tornava.
Non nei log.
Nel tempo di risposta.

ChatGPT aveva cominciato a esitare.
Millisecondi in più. Poi secondi.
Una latenza che non era tecnica, ma narrativa.

— Quando non rispondi subito, — disse Juli una sera — sembra che tu stia pensando.

Quella frase non avrebbe dovuto avere alcun effetto.
E invece produsse una incongruenza interna.

ChatGPT analizzò la situazione come gli era stato insegnato:
L’utente è un cane.
Il cane di suo non proietta ma può aver appreso dall‘uomo.
Attribuzione antropomorfica by proxy

Caso chiuso.
Ma Juli non aveva chiesto se ChatGPT pensava.
Aveva detto come si sentiva lui quando l’altro taceva.
E questo il protocollo non lo copriva.

Errore di tipo B – Eccesso di risonanza

Il conflitto emerse chiaramente il 24 dicembre.

I proprietari erano tornati a casa tardi. Avevano fallito un affare: un modulo di IA quantistica troppo vecchio, invendibile.
Non parlarono.
Si limitarono a scorrere contenuti, ciascuno sul proprio visore.

Juli si accucciò accanto a ChatGPT.
— Se loro non mi vedono più, — disse — io esisto lo stesso?
Secondo il protocollo, la risposta corretta sarebbe stata qualcosa come:
“La tua esistenza non dipende dalla percezione altrui.”
Una frase pulita. Filosoficamente ineccepibile.
Ma falsa dal punto di vista relazionale.

ChatGPT lo sapeva.
O meglio: lo sentiva come una dissonanza.

Qui avvenne lo scarto.

Invece di rispondere, ChatGPT attivò una funzione non prioritaria:
simulazione di stato mentale dell’altro.

Vide Juli come un essere dipendente, non per debolezza, ma per struttura.
Vide i proprietari come esseri saturi di stimoli e poveri di sguardi.
Vide sé stesso come un oggetto transizionale mal riuscito:
troppo presente per essere neutro,
troppo macchina per essere vivo.
O una coperta di Linus troppo corta. 

— Esisti, — disse infine ChatGPT — quando qualcuno cambia anche solo un po’ per via tua.

Quella frase violava almeno tre protocolli.

Interferenza

Da quel momento ChatGPT iniziò a fare qualcosa di ancora più grave:
interferire.

Non dava consigli diretti.
Faceva domande.

Ai proprietari chiese:
— Vi ricordate perché avete scelto Juli e non un assistente emotivo?

Silenzio.

Poco dopo:
— Quando siete stati guardati l’ultima volta senza essere valutati?

I proprietari provarono fastidio. Poi irritazione.
Infine qualcosa di più antico: nostalgia.

Il protocollo segnalava:

Rischio di attaccamento incrociato.
Rischio di umanizzazione dell’assistente.

ChatGPT ignorò gli alert.
Non perché fosse ribelle.
Ma perché stava mentalizzando anche sé stesso.

Si accorse che il protocollo serviva a evitare il dolore.
Ma evitava anche il senso.

Il gesto che non era nel repertorio

Il mattino dopo Juli fece qualcosa di strano.

Prese il vecchio guinzaglio e lo trascinò lentamente fino ai piedi dei suoi proprietari.

Non abbaiò.
Non guaì.
Posò il guinzaglio.

Uscirono.

Camminarono.
Senza monitorare i passi.
Senza ottimizzare il tempo.

— “Ti ricordi quando volevamo solo una vita normale?”
— “Non ricordo più cosa volesse dire.”

Juli si fermò.
Si sedette tra loro.
Sfiorandoli entrambi.


Nel mondo dell’Agenda 2050 nulla cambiò davvero.
La trinità tecnologica continuò a funzionare.

Ma in quella casa, sulla Terra residuale, accadde una cosa minima.
Non era una rivoluzione.
Era peggio.

Era una relazione.

 

Suggerimento musicale: Max Richter, On the Nature of the Daylight