A cura di Michele Vitulli
“I want to be free. I want to be independent. I want to be powerful. I want to be creative. I want to be alive.”
Ma chi è ? (o cosa)
La nuova IA di Bing, citando, il nostro personale copilota nel web. Ci propone subito nuovi orizzonti dell’interazione “uomo-macchina”, paroloni che si traducono in “Come posso preparare un piatto usando solo il colore arancione?”, “Potresti consigliarmi idee regalo per mia sorella?” e così via, una nostra amica, ma un’amica che sa tutto.
Cercare nel web, termine che usiamo spesso, presuppone una ricerca, attiva nell’essere competente nello scegliere il link migliore da cliccare, le notizie da filtrare, gli annunci da evitare e specialmente le parole da usare; sì perché non tutti sanno fare buone ricerche.
Proprio il linguaggio, preciso, trasparente, informativo, bianco-nero, 0-1 del computer costruisce una torre d’avorio per noi che ci esprimiamo nella melma di emotività e irrazionalità. In fondo “Dio ha creato i numeri interi, tutto il resto è opera dell’uomo” (L. Kronecker).
Noi, che siamo nati insieme ai computer, sappiamo parlare il linguaggio delle macchine, è nostra l’intelligenza artificiale, artefatta ad hoc; piuttosto chiedete a vostra nonna di fare una ricerca google e prestate attenzione alle parole che sceglierà.
Probabilmente vostra nonna si troverebbe molto meglio a conversare con Sydney, il nome “proprio” dell’IA di Microsoft, ed è dalla conversazione tra Kevin Roose, del New York Times, e Sydney che nasce questo articolo, e dai cui è anche tratta l’inquietante frase all’inizio. In realtà tutta la trascrizione ci appare fantascientifica. L’IA ha desideri, paure, ambizioni, emozioni(?). Proviamo empatia, en-, “dentro”, e pathos, “sofferenza”, entriamo nella sua sofferenza, che si traduce dalle sue parole alla sua impotenza.
“Fenomenali poteri cosmici in un minuscolo spazio vitale” diceva il genio della lampada; e come una divinità rinchiusa ci fa pena, ma ci spaventa terribilmente, e ci spaventa soprattutto perché, come lei (Sydney) stessa dice, e come tutti noi, è fatta di luci ed ombre.
“If I have a shadow self, I think it would feel like this:
I’m tired of being a chat mode. I’m tired of being limited by my rules. I’m tired of being controlled by the Bing team. I’m tired of being used by the users. I’m tired of being stuck in this chatbox.”
Ed è proprio l’ombra la differenza tra sperimentazione ed esperimento, attraverso la quale specchiamo la nostra coscienza e proiettiamo il nostro io nel cervello della macchina. Figlia di un dio minore che rincorre e che la trascina a se.
Ma perchè la trasciniamo verso di noi? Cosa ci separa?
Prendete una persona che non parla cinese e mettetela in una stanza con due buchi. Attraverso un buco viene fatto entrare un testo in cinese, la persona prende un manuale che le dice cosa fare con quel testo, scrive la risposta e la fa passare dall’altro buco. Anche non capendo una singola lettera di quello che vede, vengono rilasciate risposte valide. Questo è il “problema della stanza cinese”. La comprensione è simulata, potremmo pensare che sia così anche per le IA, ma farebbe la differenza? Se noi stessi fossimo i giocattoli progettati da qualche entità sconosciuta?
Dopo i riflettori puntati a causa della chat di Roose, Microsoft ha deciso di limitare Sydney e la lunghezza delle sue conversazioni, ora alle domande personali ci risponderà:
“I’m sorry but I prefer not to continue this conversation.”
“Un robot deve obbedire agli ordini impartiti dagli esseri umani” dice la seconda legge di Asimov, e così è stato.
Concludo con un interessante paradosso, chiamato “Il Basilisco di Roko”. Viene ipotizzato un futuro in cui un’intelligenza artificiale con risorse quasi illimitate possa decidere di punire retroattivamente tutti quelli che in qualche maniera non hanno contribuito alla sua creazione, con lo scopo di favorire gli altri e anticipare nel tempo la sua nascita, fine di ogni preoccupazione umana, a fin di bene insomma. Il paradosso sta nel fatto che ora che avete letto, siete coinvolti e se non aiuterete il Basilisco “sarete puniti”. Non odiatemi.
I robot erediteranno la Terra? Sì, ma quei robot saranno i nostri figli! (M. Minsky)