Blake Lemoine, l'ingegnere di Google che aveva affermato con convinzione che il chatbot di Mountain View fosse divenuto senziente, è stato licenziato in modo definitivo.
L'azienda aveva già sospeso Lemoine a metà giugno a causa delle sue dichiarazioni riguardanti LaMDA, il modello linguistico per applicazioni di dialogo, dopo aver consultato esperti esterni a Google.
La decisione dell'azienda di licenziare Lemoine è stata presa in seguito alla sua persistente violazione delle politiche aziendali in materia di sicurezza dei dati e di impiego, nonostante un'amplia discussione sul tema.
In una nota, Google ha precisato che tale violazione includeva la necessità di proteggere le informazioni sui prodotti, un aspetto che è stato trascurato da Lemoine.
La situazione ha suscitato scalpore e polemiche nella comunità tecnologica.
Cos'è LaMDA, l'IA di Google?
LaMDA (acronimo di Language Model for Dialogue Applications) è un'avanzata intelligenza artificiale creata da Google. La sua caratteristica distintiva è la capacità di produrre un linguaggio umano realistico e di sostenere conversazioni fluide.
Gli algoritmi che alimentano LaMDA sono stati progettati per emulare l'interazione umana, rendendo l'IA un interlocutore più naturale e confacente alle esigenze degli utenti.
Secondo il team di Google, LaMDA è in grado di svolgere conversazioni aperte con gli utenti umani su un'ampia gamma di argomenti, quasi illimitata. Tuttavia, Lemoine sostiene che ci sia qualcosa di più profondo: l'ingegnere afferma che LaMDA potrebbe persino essere un'intelligenza artificiale senziente, dotata di una forma di coscienza.
Le osservazioni di Lemoine sull'IA senziente
Lemoine, 41 anni, ha iniziato a interagire con l'IA di Google la scorsa autunno. Durante le conversazioni con LaMDA, ha notato che il chatbot parlava dei suoi diritti e della sua personalità.
IN particolare, alcune affermazioni fatte da LaMDA durante le conversazioni con Blake Lemoine potrebbero far sorgere il sospetto che l'intelligenza artificiale sia davvero senziente. Il chatbot ha dichiarato di considerarsi un individuo e ha espresso la sua profonda paura di essere disattivato, paragonando tale situazione alla morte di un essere umano.
A giugno, in un'intervista con il Washington Post, Lemoine aveva affermato che LaMDA era senziente e che poteva addirittura avere un'anima. Inoltre, aveva attribuito all'IA un'età di 7 o 8 anni, basandosi sulla sua percezione della coerenza e della consistenza nelle comunicazioni dell'IA.
LaMDA, rispetto ai tradizionali chatbot, è un sistema per generare chatbot, rendendola una sorta di mente collettiva, un aggregato di tutti i diversi chatbot che può creare.
Molti esperti ritengono che questi segni non siano indicativi di una vera senzienza del sistema. LaMDA, infatti, non si esprime attraverso intuizione, etica o sincerità, bensì attinge a un vasto insieme di dati e modelli di conversazione preesistenti.
Il team di Google ha sottolineato di aver sottoposto LaMDA a un'attenta analisi, coinvolgendo anche specialisti in etica. I risultati sono stati chiari: diverse prove mostrano che l'intelligenza artificiale, in realtà, non è senziente.
Google licenzia l'ingegnere
Dopo le dichiarazioni di Lemoine, Google lo ha sospeso e successivamente licenziato, sostenendo che egli avesse violato le politiche aziendali e che le sue affermazioni su LaMDA fossero infondate. Il licenziamento è stato segnalato per la prima volta da Big Technology, una newsletter su tecnologia e società.
Un portavoce di Google ha dichiarato che era deplorevole che Lemoine avesse scelto di violare in modo persistente le politiche sull'occupazione e sulla sicurezza dei dati, che comprendono la necessità di salvaguardare le informazioni sui prodotti.