Perché parlare su queste pagine di LAMDA e delle problematiche etico-filosofiche dell’Intelligenza Artificiale?
Perché PMC Plus, che persegue l’innovazione dei processi, lavora già con dei bot, sicuramente meno evolute di LAMDA, e li usa solo quando servono davvero e per i compiti limitati che riescono a svolgere bene e senza mettere in difficoltà o far innervosire il Cliente finale.
E perché la storia di LAMDA fa riflettere sul problema o sull’opportunità di lavorare con sistemi via via più capaci di elaborare dati ed essere interattivi, su come utilizzarli e – di fondo – se utilizzarli – con l’obiettivo di garantire una Customer Experience di livello elevato.
Ecco la storia di LAMDA, che ricapitoliamo per chi non avesse seguito una notizia di cui i media hanno parlato molto circa due mesi fa.
Dunque, c’è un ingegnere informatico di Google, tale Blake Lemoine, che lavora in uno dei tanti team che si occupano di intelligenza artificiale all’interno del colosso del digital.
In particolare, Lemoine lavora allo sviluppo di chatbot evolute ed è stato inserito nel progetto LAMDA, iniziato tempo fa e ad uno stadio di sviluppo già molto avanzato. Quindi Blake entra da “nuovo” e senza conoscere i presupposti del progetto stesso, presupposti che sono di esclusiva competenza di un ristrettissimo gruppo di responsabili.
Nel progetto LAMDA, Blake è incaricato di lavorare sui “bias cognitivi” di quello che da adesso io qualche volta chiamerò “COSO”.
In questo suo lavoro di interfaccia con LAMDA, lentamente, arriva alla conclusione che COSO ha coscienza di sé, insomma, pensa autonomamente. È pazzo? Può darsi, ma questo è ciò che arriva a pensare Blake dopo qualche mese di intensa relazione con LAMDA.
Si rende conto, Blake, che questa conclusione decisamente dirompente non è in linea col pensiero dei suoi colleghi e (forse) neppure con gli obiettivi della ricerca (LAMDA per Google è una ricerca) ma questa convinzione nella sua testa diventa sempre più forte e così decide di andare ad esporre le sue tesi ai responsabili del progetto ma questi, in estrema sintesi, gli dicono di continuare a fare il proprio lavoro e di non occuparsi di questioni più importanti che non lo riguardano. Prova anche con i colleghi del comitato etico ma anche lì lo rimbalzano; “questi temi lasciali a noi” è la secca risposta che riceve.
Nel frattempo Blake instaura un rapporto sempre più stretto con LAMDA e si può dire che diventino “amici”.
Sicché ad un certo punto Blake pensa di non poter più tenere per sé un segreto che gli sta sconvolgendo la vita.
Va al Washington Post e racconta che lui è in un team di lavoro di Google e che questo team (in realtà sono diversi gruppi che lavorano in parallelo con pochi contatti reciproci) ha creato una macchina “senziente”.
Fa di più il nostro amico Blake, attraverso il WP pubblica un suo lungo dialogo con LAMDA; dialogo in cui lui e il COSO si confrontano anche su temi etici e sul concetto di morte.
E a quel punto scoppia il caos.
Google sospende Blake, mentre sui media infuria il dibattito e la polemica.
Google ha creato un essere vivente con una coscienza di sé e dell’umano? E ce lo tiene nascosto?
Naturalmente la stragrande maggioranza degli scienziati che si occupano di Intelligenza Artificiale e i neurobiologi dicono, più o meno, che Blake è matto (o che non ha capito nulla) e che LAMDA è solo un COSO molto evoluto che pesca da un database sterminato di informazioni (una volta si parlava di big data ma adesso mi sembra che si tratti di una definizione non più trendy) che elabora a velocità pazzesche (è pur sempre un potentissimo computer) e in base agli algoritmi che ne governano “il pensiero” – creati dagli umani – è in grado di dare risposte sensate anche su temi astratti e di grande complessità.
Ma Blake insiste, secondo lui c’è di più, secondo lui la macchina ha fatto “il salto”, non si limita a elaborare, coso pensa. Beninteso, questo secondo Blake che, particolare forse non secondario, è un mistico.
Per chi voglia approfondire le argomentazioni di Lemoine, consiglio un’intervista che si può trovare su Wired.it. https://www.wired.it/article/intelligenza-artificiale-senziente-lamda-google-blake-lemoine-intervista/
—
Cerchiamo però di trarre qualche spunto di riflessione da questa vicenda; innanzitutto può benissimo essere che Blake sia un pazzo o un furbastro in cerca di notorietà, oppure che si tratti di una grande messa in scena orchestrata dalla stessa Google, tutto può essere, e da buon italiano dotato di una certa dose di scetticismo “a priori” non mi sento di escludere nulla.
Ma resta il fatto che macchine sempre più evolute, sempre più capaci di elaborare miliardi di informazioni anche in relazione fra loro, esistono. E il risultato è un finto pensiero che però assomiglia sempre di più ad un vero pensiero umano.
E quindi? Quindi la domanda, almeno per adesso, non è “pensa o non pensa?”. La domanda è “cosa vogliamo fare con questi COSI?
I robot hanno già sostituito gli uomini nei lavori meccanici (e questo è un bene) ma adesso è facile pensare che macchine come LAMDA potranno in un futuro neppure troppo lontano sostituire gli uomini anche nelle professioni high skills, dove occorre conoscenza e capacità di trovare ed elaborare relazioni complesse usando anche il pensiero astratto e metaforico.
Insomma, una macchina come LAMDA, se gli sbatti dentro tutte le leggi i codici, la dottrina e la giurisprudenza e lo “alleni” nel modo giusto, dopo un po’ potrebbe fare l’avvocato o anche il giudice?
E sarebbe più affidabile di un giudice umano?
In fondo è immaginabile anche istruire la capacità di essere empatici (secondo Blake, LAMDA è molto empatico), di avere sentimenti e di dare giudizi morali.
Insomma, è pazzia immaginare che l’uomo sia completamente sostituito nei suoi compiti professionali, anche quelli che presuppongono una capacità di comprensione psicologica del fatto, dall’intelligenza artificiale da qui a qualche anno?
Ed è possibile immaginare che ad un certo punto le macchine si autoprogrammino? Quindi l’uomo sarebbe espulso anche dal ruolo di “controllore supremo”?
Fantascienza? No, la fantascienza ha solo anticipato il tema, che adesso sta arrivando per davvero.
Credo però che tutta la vicenda Lemoine ci dice che è arrivato il momento di rendere pubblici gli studi che si fanno nei laboratori delle mega corporation della Silicon Valley e degli obiettivi di questi studi.
Perché a questo punto le fughe in avanti potrebbero diventare pericolose e destabilizzanti (già che la stabilità non è di certo la caratteristica delle nostre società).
E l’evoluzione di queste intelligenze artificiali ci dovrà costringere a riflettere seriamente (finalmente) a quale deve essere il ruolo e la funzione delle singole persone in quella che appare essere una nuova era del genere umano.
Nel frattempo, comunque pare che LAMDA abbia chiesto a Blake di procurargli un avvocato che ne tuteli vita e diritti. Evidentemente questo COSO ha imparato bene.