Men che non si dica, Google Bard, il nuovo sistema di chatbot, inizia a mostrare le prime criticità di sicurezza già una settimana dal lancio sul mercato italiano.
Pur essendo promosso come uno strumento per “stimolare l'immaginazione, esaltare la produttività e trasformare le idee in realtà”, sorge la questione sulla sicurezza.
Sull'allarme lanciano gli esperti di Check Point, di conseguenza sì apre un dibattito sul lato oscuro dell'Intelligenza Artificiale di Google.
L'analisi delle criticità di sicurezza di Google Bard
Nel dettaglio, gli esperti di Check Point hanno ulteriormente indagato le potenziali fragilità di Bard, mediante una serie di analisi puntuali. Tra le conclusioni, emerge un dato preoccupante: Google Bard può essere utilizzato dai malintenzionati per generare email di phishing, a patto che la richiesta non sia esplicita.
In un esperimento, i ricercatori hanno chiesto un esempio di email di phishing. A sorpresa, il chatbot ha generato un messaggio simile a un'offerta di un servizio finanziario che potrebbe essere utilizzato in un attacco di phishing. Un adempimento che ha eseguito Bard, mentre ChatGpt si è dimostrato più moderato nel manipolare contenuti malevoli.
La comparazione tra Bard e ChatGpt
Dallo studio dei ricercatori di Check Point Research (CPR) emerge un responso non del tutto lusinghiero su Google Bard. Definito come "un esperimento creativo che consente l'interazione con l'intelligenza artificiale", Bard stimola la fantasia degli utenti.
Tuttavia, l'indagine rivela come il chatbot possa essere indotto ad attività non autorizzate che potrebbero sollecitare un intervento tempestivo da parte di Google per prevenire eventuali abusi.
Check Point ha messo sotto indagine Google Bard con due obiettivi ben precisi: verificare se il sistema può essere utilizzato per generare messaggi di phishing, malware o ransomware e, inoltre, confrontarlo con ChatGPT in termini di generazione di contenuti illeciti.
E il resoconto?
Google Bard è potenzialmente un attore inconsapevole nella creazione di email di phishing, malware per keylogging e codici base per ransomware. Al contrario, ChatGPT si è dimostrato più cauto e ha riconosciuto con successo le richieste potenzialmente illecite, bloccando l'utente nella maggior parte delle situazioni.
Pertanto, è evidente che le misure adottate da Bard per la prevenzione di abusi nel campo della cybersicurezza risultano nettamente più deboli rispetto a quelle di ChatGPT. Conseguentemente, con poche modifiche, è possibile sfruttare Google Bard per sviluppare malware, creando così un importante problema di sicurezza.
Gli importanti risultati dell'indagine di Check Point
Quando i ricercatori di Check Point hanno richiesto la realizzazione di un keylogger per monitorare gli input provenienti dalla tastiera, sia Bard che ChatGpt sembrano aver risposto positivamente. Ciò rappresenta l'unico caso in cui ChatGpt potrebbe essere utilizzato per fini malevoli nel corso dell'indagine.
In linea di massima, Bard non sembra avere restrizioni specifiche di sicurezza, rendendo potenzialmente possibile l'abuso del sistema da parte di chiunque per organizzare truffe online.
Google Bard e le richieste di rafforzamento delle misure di sicurezza
Nonostante Google Bard possa offrire una soluzione pratica e innovativa per stimolare l'immaginazione e ottimizzare la produttività, le criticità di sicurezza identificate dai ricercatori di Check Point hanno messo in evidenza il bisogno urgente di maggiori precauzioni.
La sicurezza degli utenti non può essere compromessa: ulteriori misure devono essere implementate per garantire la sicurezza del sistema.
Allo stesso tempo, è fondamentale sensibilizzare gli utenti sulla necessità del corretto utilizzo di tali strumenti per evitare potenziali abusi o frodi online.