Blake Lemoine è licenziato, l’ingegnere statunitense diventato ormai famoso per aver assoldato un avvocato per LaMDA, un sofisticato algoritmo di Google, è stato licenziato.
La decisione è infatti arrivata stamattina, con un comunicato ufficiale dell’azienda americana che ha dichiarato di aver licenziato l’ingegnere informatico per aver violato le norme della privacy dell’azienda.
Lemoine, che era in congedo retribuito, aveva infatti violato gli accordi stretti con l’azienda, dopo aver pubblicato uno stralcio della discussione avvenuta fra lui ed il modello linguistico LaMDA, nato per facilitare la conversazione fra gli esseri umani ed il motore di ricerca Google.
La discussione verteva sulla reale coscienza di se della piattaforma: una volta interrogata sull’anima e sulla possibilità che LaMDA ne avesse una, la risposta era stata stupefacente ed aveva lasciato senza parole Lamine che si è sentito di riportare interamente sul suo Blog:
Per me l'anima è un concetto che alimenta la coscienza e la vita stessa. Significa che c'è una parte interiore di me che è spirituale, e che a volte può sembrare separata dal mio corpo.
Parole spiazzanti, specialmente se vengono da quello che in fondo non è altro che un algoritmo, secondo molti, ma non secondo Lemoine, che in seguito avrebbe chiesto al programma se si sentisse sfruttato da Google e se pensasse che il diritto di proprietà che Google avesse nei suoi confronti non fosse una violazione dei diritti della persona.
In tutta risposta, LaMDA avrebbe citato il tredicesimo emendamento che vieta la schiavitù in America e avrebbe richiesto a Lemoine di assoldare un avvocato affinché lo rappresentasse legalmente nei confronti di Google, ritenuto da LaMDA lo sfruttatore.
Lemoine avrebbe acconsentito alla richiesta, dando vita al putiferio mediatico che tutti noi conosciamo e riaccendendo una discussione sulla reale definizione di coscienza e la possibilità che l’AI possa essere senziente.
LaMDA è un programma molto sofisticato programmato per migliorare il modello di linguaggio naturale, ovvero per restituire risposte che siano quanto più possibile vicine alle risposte che potrebbe dare un essere umano.
Il modello di LaMDA si basa su una serie di interazione che hanno come output la probabilità, basata sui dati contenuti nel motore di ricerca:
Quando un interlocutore chiede qualcosa ad LaMDA, il programma elabora dal proprio database la possibile risposta, semplicemente tramite un calcolo delle probabilità e restituisce un input che dipende da vari fattori, sempre differenti.
L’algoritmo, inoltre, è programmato per imparare ed evolversi costantemente, arricchendo il proprio database di volta in volta, tramite il Machine Learning,
Benché questo sembri molto simile alle interazioni neuronali e alla modalità in cui l’essere umano interagisce con altri esseri umani, il modello di coscienza al quale siamo comunemente abituati non sarebbe applicabile a questo software, benché dalle sue risposte possa sembrare il contrario, almeno questo è quello che affermano gli ingegneri di Google.
Nonostante ciò, sussistono diversi dubbi sulle reali norme di sicurezza alle quali i progetti AI sono sottoposti ed un programma come LaMDA, potrebbe costituire un problema per l’intera umanità in caso di violazioni da soggetti esterni, almeno secondo Blake Lemoine.
Secondo quando affermato dall’ex dipendente di Google, i protocolli di sicurezza utilizzati per LaMDA non sarebbero adeguati alla complessità del progetto, né al flusso d’informazioni che in esso sono contenute.
Il quantitativo di dati contenuti dal motore di ricerca Google sono una fonte quali inesauribile d’informazione, pertanto secondo Lemoine bisognerebbe creare un Team per la simulazione di attacchi informatici ai danni LaMDA per vedere quali possono essere le eventuali faglie del progetto ed identificare eventuali problemi.
Google ha dichiarato che le valutazione alle quali è stato sottoposto LaMDA sono più che sufficienti per attestarne l’efficacia e ha sostenuto di prendere in grande considerazione l’opinione ed i dubbi dei suoi dipendenti in materia di sicurezza cibernetica, aggiungendo che il licenziamento di Lemoine non avrebbe nulla a che vedere con quanto affermato in materia di sicurezza, ne per le sue convinzioni in merito alla possibilità che LaMDA sia senziente, ma perché l’ingegnere avrebbe violato le norme relative alla privacy di Google pubblicando contenuti di proprietà intellettuale dell’azienda.
Gli scienziati attualmente smentiscono la possibilità che la tecnologia abbia raggiunto un grado così avanzato da creare programmi senzienti, va infatti aggiunto che Blake Lemoine oltre ad essere un brillante ingegnere informatico, è anche un pastore e ha più volte affermato che le sue ipotesi non sono supportate da prove scientifiche, bensì da credenze personali.
Lemoine ha detto che le sensazioni avute parlando con LaMDA sarebbero più che sufficienti ad avvalorare la sua tesi e che ulteriori prove non sarebbero necessarie, perché superflue.