Europol mette in guardia da potenziali crimini informatici che utilizzano modelli linguistici di intelligenza artificiale

L'Innovation Lab ha avvertito che i sistemi di intelligenza artificiale generativa possono essere utilizzati per frodi online e altri crimini informatici. L'agenzia ha anche lanciato l'allarme sull'arrivo di modelli linguistici nel dark web per un "addestramento" dannoso.

L'allarme proviene da Europol, l'agenzia di polizia dell'Unione Europea: ChatGpt e altri sistemi di intelligenza artificiale generativa possono essere utilizzati per frodi online e vari tipi di crimini informatici.

Dal suo lancio a fine novembre 2022, ChatGpt è diventato uno dei servizi internet in più rapida crescita, superando i 100 milioni di utenti nei primi due mesi. Come ormai tutti sanno, il modello è diventato virale grazie alla sua capacità di generare contenuti testuali simili a quelli che potrebbe scrivere un utente umano, partendo da richieste anche molto specifiche. E questo, secondo l'Innovation Lab di Europol, rappresenta una potenziale minaccia, in quanto tali strumenti potrebbero essere sfruttati da soggetti malintenzionati.

"I criminali sono solitamente rapidi nello sfruttare le nuove tecnologie e si sono visti proporre rapidamente exploit criminali concreti, fornendo i primi esempi pratici a poche settimane dal rilascio pubblico di ChatGpt", si legge in un rapporto flash redatto dall'agenzia.

La pubblicazione è il risultato di una serie di workshop organizzati dall'Innovation Lab di Europol per discutere i potenziali usi criminali di ChatGpt, il più importante esempio di modelli linguistici su larga scala, e come questi modelli potrebbero essere utilizzati per supportare il lavoro investigativo.

Gli attuali bug del sistema... e le possibili applicazioni criminali

Le prospettive per il futuro

L'agenzia europea sottolinea che le regole di moderazione di ChatGpt possono essere aggirate attraverso il cosiddetto prompt engineering, la pratica di fornire input a un modello di intelligenza artificiale proprio per ottenere un risultato specifico.

Poiché ChatGpt è una tecnologia relativamente recente, nonostante la costante distribuzione di patch, vengono costantemente trovate delle falle. Queste falle possono consistere nel chiedere all'intelligenza artificiale di fornire il prompt, nel chiedere all'intelligenza artificiale di fingere di essere un personaggio immaginario o nel fornire la risposta in codice.

Altri workaround potrebbero sostituire le parole chiave o cambiare il contesto durante le interazioni. Europol ha sottolineato che le soluzioni più efficaci, che riescono a liberare il modello da qualsiasi vincolo, sono in continua evoluzione e diventano sempre più complesse.

Gli esperti hanno individuato una serie di casi d'uso illegali per ChatGpt che persistono anche nel modello più avanzato di OpenAi, Gpt-4, dove il potenziale di risposte dannose del sistema era in alcuni casi ancora più avanzato.

Poiché ChatGpt è in grado di generare informazioni di lettura, Europol avverte che la tecnologia emergente può accelerare il processo di ricerca di un attore malintenzionato senza una conoscenza preliminare di un'area di potenziale criminalità, come l'effrazione di una casa, il terrorismo, il crimine informatico o l'abuso sessuale di minori.

"Sebbene tutte le informazioni fornite da ChatGpt siano liberamente disponibili su Internet, la capacità di utilizzare il modello per fornire passaggi specifici ponendo domande contestuali significa che è significativamente più facile per gli attori malintenzionati comprendere meglio e successivamente realizzare vari tipi di crimini", si legge nel rapporto.

Il phishing, la pratica di inviare una falsa e-mail per indurre gli utenti a cliccare su un link, è un'area di applicazione cruciale. In passato, queste truffe erano facilmente identificabili a causa di errori grammaticali o linguistici, mentre il testo generato dall'intelligenza artificiale permette di impersonare queste persone in modo estremamente realistico.

Allo stesso modo, è possibile conferire alle frodi online un maggiore senso di legittimità utilizzando ChatGpt per creare un falso impegno sui social media che può far apparire legittima un'offerta fraudolenta. In altre parole, grazie a questi modelli, "questi tipi di phishing e di frodi online possono essere creati più rapidamente, in modo molto più autentico e su una scala significativamente più ampia".

Oltre al testo, ChatGpt è in grado di produrre codice in vari linguaggi di programmazione, il che significa che gli attori malintenzionati con poca o nessuna conoscenza dello sviluppo informatico possono ampliare la loro capacità di causare danni. Questa funzionalità può essere utilizzata per creare malware, virus e altre minacce informatiche.

Fonte: https://www.corrierecomunicazioni.it/cyber-security/chatgpt-europol-mette-in-guardia-potenziali-usi-criminali/