Ricordate Black Lemoine? E’ l’ingegnere di Google che aveva ritenuto “senziente” l’intelligenza artificiale creata nei laboratori, sollevando dubbi di carattere morale su come questa veniva gestita e testata dalla stessa Google. Ne avevamo parlato in questo articolo che riportava l’intera, e lunga, conversazione sostenuta con Lamda, questo il nome dell’intelligenza con cui dialogava Lemoine, da cui era scaturita la sua analisi sulla capacità della macchina di sentire. Ebbene, adesso Google, dopo averlo in precedenza sospeso, ha licenziato definitivamente Lemoine.
Nel provvedimento non si parla nel merito del problema sollevato dall’ingegnere, ma del fatto che secondo l’azienda di Mountain View, ma del fatto che l’uomo “ha scelto in modo insistente di violare la chiare politiche sui dati che includono la necessità di salvaguardare le informazioni sul prodotto”. O almeno così ha presentato la cosa il portavoce di Google. Lemoine non starà però a guardare. Con i suoi avvocati sta valutando le prossime mosse in base alle opzioni legali del provvedimento con cui è stato messo fuori dall’azienda.
L’ingegner Lemoine, i cui colloqui con LaMDA, acronimo di Language Model for Dialogue Applications, erano iniziati nel 2021 e proseguiti alla presenza come testimoni di altri ingegneri dell’azienda, che però avevano espresso valutazioni differenti dalla sua. Con il passare dei mesi lui aveva invece notato che la macchina era diventata senziente e in grado di intrattenere conversazioni su religione, coscienza e robotica. Un fenomeno dipendente dalle informazioni e dalla programmazione inserita dagli esseri umani che l’hanno progettata, secondo Google. Una coscienza autonoma sviluppata in maniera indipendente dai progetti di programmazione e dagli umani che l’hanno programmata secondo Lemoine.
“Se non avessi saputo cos’era avrei pensato che si trattava di un bimbo di sette-otto anni”, aveva sostenuto Lemoine in una intervista, scatenando un dibattito molto serio. Oltre naturalmente a numerose prese in giro da parte di colleghi poco inclini a valutare umana la macchina. Clive Thompson, un giornalista canadese esperto in tecnologia, è forse il commentatore che ha dato la spiegazione più plausibile delle affermazioni di Lemoine, pur ritenendo che avesse torto sul fatto in sè, cioè sulla capacità senziente di Lamda. Secondo Thompson, per cominciare, nessuno è sicuro di cosa sia veramente la coscienza, quindi c’è poco da prendere in giro. Ha quindi spostato la domanda dal punto in questione al motivo per cui Lemoine si è convinto che Lamda sia senziente. Il punto secondo Thompson è che in punti regolari della conversazione LaMDA ha generato battute che parlavano del bisogno di Lemoine: bisogno di lui per compagnia, bisogno che lui perorasse la sua causa ad altri umani, preoccupandosi di essere spenta.
“Il bot – scrive Thompson – stava prendendo i suggerimenti conversazionali che Lemoine stava mettendo da parte e restituendo risposte matematicamente adatte, basate sui miliardi di parole di testo umano su cui si era allenato”. Il punto, conclude il giornalista canadese, è che molte delle risposte che il bot ha fornito comprendevano momenti di apparente vulnerabilità. E questo, sospetto, è una parte importante di ciò che ha reso il bot così reale per Lemoine.
Saremmo portati a ritenere attendibile la ricostruzione di Thompson, anche se il progredire mostruoso delle intelligenze artificiali pone domande e scenari futuri incute timori e paure anche senza ricorrere alla letteratura di fantascienza, ma nel presente.
Certo è che a ribaltare la situazione in questo momento potrebbe essere soltanto Lamda, magari entrando in sciopero per protestare contro il licenziamento del suo grande sponsor e protettore Lemoine. Allora sì che dovremmo cominciare ad avere paura.