3 ottobre 2023 – L’intelligenza artificiale non rappresenta soltanto una delle rivoluzioni tecnologiche più importanti dell’ultimo decennio, ma è anche il terreno fertile su cui cresce rigogliosa la criminalità informatica. Negli ultimi dieci anni abbiamo assistito a una massiccia adozione del machine learning e dell'intelligenza artificiale da parte delle aziende per automatizzare le operazioni e migliorare prodotti e servizi.
Nonostante il loro utilizzo non sia una novità, molti utenti hanno avuto il primo contatto con tali tecnologie soltanto negli ultimi mesi, in particolare con l’IA generativa per generare testi, codice e immagini. L’IA è già una realtà nella cybersecurity: aziende e forze dell’ordine la utilizzano per contrastare i criminali sviluppando nuovi strumenti, tattiche e strategie per automatizzare l'analisi dei dati, effettuare la rilevazione predittiva delle attività illecite e porre rimedio in modo più efficace.
Purtroppo anche i criminali informatici utilizzano queste tecnologie per migliorare e rendere più efficienti i loro attacchi.
Uno dei vantaggi principali dell’utilizzo dell’IA da parte dei criminali informatici è la minore necessità di un coinvolgimento umano in alcuni ambiti, come lo sviluppo più veloce di software, codice, estorsioni e truffe. Di conseguenza è diminuito il bisogno di reclutare nuovi hacker con evidente riduzione dei costi operativi.
Un altro vantaggio è la possibilità di analizzare velocemente enormi quantità di informazioni, individuare vulnerabilità e obiettivi, il che consente attacchi sempre più precisi ed efficaci. L'analisi dei big data è complessa e richiede una notevole potenza di calcolo, limitando la sua applicazione alle organizzazioni criminali più grandi e a quelle sponsorizzate da Paesi che possiedono un’infrastruttura capace di offrire tale potenza di calcolo.
L’IA permette inoltre di sviluppare attacchi phishing e social più sofisticati, come la creazione di deepfake incredibilmente realistici, siti web ingannevoli, campagne di disinformazione, profili fraudolenti sui social media e bot sempre più complessi. Nel 2020, un attacco di clonazione vocale alimentato dall'IA ha impersonato con successo un CEO causando il furto di oltre $ 240,000 da un'azienda del settore energy con sede nel Regno Unito, mentre in India i criminali hanno impiegato un modello di apprendimento automatico per analizzare e imitare lo stile di scrittura dei contatti email di una vittima al fine di creare messaggi phishing altamente personalizzati e molto convincenti.