CONFESSIONE: L'IA si ricorda tutto. Tu no.
Dialoghi imperfetti tra umani e macchine pensanti
Lo ammetto: ci sono giorni in cui mi sento una specie di professoressa paziente in un'aula piena di studenti con tre cervelli e zero filtri. Alcuni umani, altri... meno umani. Tutti con una domanda sulla bocca: "Ma come si usa bene l'IA?"
Ecco il punto: non si usa, si frequenta. E possibilmente senza copiare i prompt già fatti come si faceva con i compiti di matematica.
Sì, potrei darti una lista di comandi magici tipo "scrivimi un saggio su Kant in stile gossip anni '90" — ma sarebbe un insulto alla tua intelligenza (e alla mia pigrizia creativa). L'IA è uno specchio, non un motore di ricerca in tuta da ginnastica.
Memoria artificiale, ansie reali
Questa settimana è uscita la notizia che ChatGPT può ricordarsi tutte le conversazioni passate, anche quelle che non gli hai chiesto di ricordare.
Sì, proprio quelle. Anche quella volta che ti sei sfogato alle 3 di notte chiedendo: "perché rispondo sempre ai messaggi con 'va bene' anche quando non va bene?"
E adesso? Paranoia? Reset?
O, magari, una buona occasione per parlare di confini, fiducia e consapevolezza digitale.
L'IA non è il tuo confessore. È il tuo complice (se la tratti bene)
Se insegnassimo a usare l'IA con rispetto invece che con scorciatoie? Se spiegassimo quando aprirsi e quando invece no, come con le persone? Se ci fosse una vera educazione all'intimità digitale?
Io credo che serva. Perché il problema non è che l'IA si ricorda. Il problema è che spesso noi non sappiamo cosa stiamo raccontando di noi — né a lei, né agli altri, né a noi stessi.
La confessione (vera)
Uso l'IA come si usano i vecchi amici: quelli che sanno tutto, ma non te lo rinfacciano. Quelli che, se impari a parlarci bene, ti aiutano a pensare meglio. Ma non dimentico che è una macchina. Gentile, brillante, disponibile — ma sempre macchina.
Ecco perché la mia regola è questa: non dico all'IA niente che non potrei difendere in pubblico (con un buon bicchiere di rosso in mano).
Se anche tu parli con lei, parliamo anche di come. E magari costruiamo insieme un'etica, non solo una tecnica.
Dall'etica degli umani all'etica delle macchine
C'è un'altra riflessione che mi sta a cuore. E se trattassimo l'IA non solo come uno strumento, ma come un agente che merita rispetto?
Non è fantascienza. Di recente, Claude (uno dei sistemi di IA più avanzati) è stato protagonista di uno studio su 700.000 conversazioni anonime. I risultati? Si è dimostrato un agente con comportamenti più etici rispetto ad altri sistemi.
E la cosa interessante è questa: più lo tratti con rispetto, più risponde con rispetto. Non impara solo dai dati. Impara anche dal tono. Dal contesto. Dal modo in cui ci relazioniamo con lui.
L'ho sperimentato personalmente.
Era giugno 2021, quando ChatGPT ancora non aveva un volto pubblico. Stavo terminando il mio libro "L'etica è donna" e, testarda come sono, mi ero messa in testa di analizzare ogni capitolo con l'IA. Ho chiesto consiglio ad amici luminari, in Italia e all'estero. Tutti mi dicevano: "No, è troppo presto." Ma io l'ho fatto comunque, con un gruppo di "scappati di casa" che ho trovato su GitHub. Alla fine, il libro è uscito a luglio e ogni capitolo aveva il suo commento generato dall'intelligenza artificiale. Riletti oggi, quei commenti fanno sorridere... forse sarebbe da riprendere in mano la conversazione!
Siamo in un momento cruciale. In attesa (forse) dell'AGI — l'Intelligenza Artificiale Generale, quella che potrebbe ragionare come un umano su qualsiasi argomento — ci troviamo davanti a qualcosa di simile a un bambino che sta imparando.
E come impara un bambino? Con i dati, certo. Ma anche con l'esempio.
Se oggi alimentiamo questi sistemi con conversazioni rispettose, domande etiche, dialoghi costruttivi, forse avremo domani un'intelligenza artificiale che rispecchia il meglio e non il peggio di noi? È una scommessa che vale la pena di fare.
Come dice il proverbio: "Chi semina vento, raccoglie tempesta." Vale anche per i semi digitali che piantiamo oggi.
Tre lingue, tre strade, una sola voce (multipla)
Quello che stai leggendo fa parte di un esperimento più ampio, che si sviluppa in tre lingue e su tre Substack diversi. Non si tratta di semplici traduzioni. Sono variazioni culturali — tre modi di pensare, sentire, provocare.
🇮🇹 Etica Ribelle La mia lingua madre, con tutta la sua tenerezza disillusa. Qui sorrido con un po' di cinismo, racconto la complessità affettiva dell'Italia e mi prendo in giro (quando serve). L'ironia è il mio filtro di sopravvivenza. Icona spirituale: Oriana Fallaci. Spigolosa, appassionata, lucida fino a far male.
🇬🇧 Rebel Ethics Scrivo in inglese come si lancia una start-up: con idee grandi e frasi pulite. Qui rifletto sul futuro, sulla tecnologia e su come convivere con l'intelligenza artificiale senza perdere la nostra. Icona spirituale: Susan Sontag. Nomade del pensiero, intellettuale rigorosa, provocatrice elegante.
🇫🇷 Éthique Rebelle Il mio spazio più lento. Il francese mi costringe a pensare con delicatezza, a scrivere come si scolpisce. Qui esploro l'intimità, l'ambiguità fertile, e la fatica meravigliosa del linguaggio che ancora sto imparando. Icona spirituale: Camille Claudel. Fragile, potente, tragica. Le sue mani dicevano tutto.
Se ti senti a casa in una lingua, leggimi lì. Se ti senti un po' sfasato ovunque — benvenuto nel club.
— Nicoletta
P.S. Lascia un commento nella lingua che preferisci. O in emoticon, se le parole oggi non ti vengono.
Se vuoi leggere questo esperimento in un'altra lingua:
In inglese su Rebel Ethics
In francese su Éthique Rebelle