Elon Musk e altri 1.000 scienziati, ingegneri e amministratori hanno proposto una moratoria di sei mesi sullo sviluppo di sistemi avanzati di intelligenza artificiale a causa del loro potenziale di "profondi rischi per la società e l'umanità".
La lettera aperta, pubblicata dal Future of Life Institute, è stata firmata dal cofondatore di Apple Steve Wozniak, dai fondatori di Stability AI e Characters.ai e da altre personalità di spicco.
L'interruzione dello sviluppo proposta mira a prevenire uno "scenario Terminator" e a consentire lo sviluppo di protocolli di sicurezza condivisi.
L'obiettivo principale della proposta è il chatbot GPT-4 di OpenAI, in grado di raccontare barzellette e superare test come quelli richiesti per diventare avvocato.
Questa lettera serve come monito contro il rapido avanzamento di potenti menti digitali che non hanno capacità di comprensione, previsione e controllo. È essenziale che i sistemi di IA siano sviluppati con la certezza che gli effetti saranno positivi e che i rischi associati siano gestibili.
Elon Musk ha già investito in aziende di IA e ha fatto parte del consiglio di amministrazione di OpenAI, e questo invito alla pausa riflette il timore di conseguenze potenzialmente devastanti se lo sviluppo di questi potenti sistemi viene lasciato senza controllo.
Gli esperti di tecnologia chiedono una moratoria di sei mesi per collaborare alla creazione e all'implementazione di protocolli unificati che garantiscano la sicurezza del sistema al di là di ogni dubbio.
La lettera chiede che i laboratori di IA diano la priorità a rendere i sistemi esistenti più precisi, chiari, affidabili ed equi, piuttosto che accelerare lo sviluppo di sistemi ancora più potenti.
La lettera afferma che: "Abbiamo preso una pausa su altre tecnologie che potrebbero avere effetti catastrofici; facciamo lo stesso in questo caso. Prendiamoci una lunga estate di introspezione per valutare i potenziali rischi dell'IA".