IA e cybersecurity: la promessa dell’intelligenza artificiale

In che modo l’intelligenza artificiale (AI) sta trasformando la sicurezza informatica? Questa tecnologia renderà il mondo digitale più sicuro o lo esporrà a nuovi rischi? Questi interrogativi sono stati al centro di una stimolante discussione alla “Conferenza di Potsdam per la Sicurezza Informatica Nazionale 2024”. Ho avuto il privilegio di esplorarli insieme alla Prof.ssa Sandra Wachter, al Dr. Kim Nguyen e al Dr. Sven Herpig. L’IA mantiene le promesse? E, soprattutto, quali sviluppi possiamo aspettarci dal futuro??

HPI Security Panel
La cybersecurity è già di per sé una sfida complessa per aziende e istituzioni. L’introduzione dell’intelligenza artificiale (AI) la renderà più pericolosa o contribuirà a una protezione più efficace dei sistemi IT? Cosa sappiamo al riguardo? Quali sono le questioni principali da considerare? Le opportunità economiche e i rischi sociali legati all’AI sono al centro dell’attenzione pubblica e delle normative in fase di sviluppo. La legge sull’intelligenza artificiale dell’UE riflette sia le speranze che i timori associati a questa tecnologia emergente.

Speranze e paure legate all’intelligenza artificiale

Le speranze legate all’intelligenza artificiale includono la possibilità di risolvere sfide tecniche precedentemente irrisolvibili, accelerando i processi aziendali e produttivi e consentendo alle macchine di gestire autonomamente compiti sempre più complessi. In ambito militare, l’IA ha il potenziale di offrire protezioni uniche, salvando vite umane attraverso sistemi di difesa avanzati come l’Iron Dome, che utilizzano l’intelligenza artificiale per rilevare e neutralizzare minacce in tempo reale.

D’altra parte, l’IA presenta un lato oscuro fatto di minacce come la manipolazione di massa tramite deepfake, attacchi di phishing sempre più sofisticati oltre al timore che possa rubare posti di lavoro, tipica di ogni innovazione tecnologica. I chatbot stanno sostituendo gli operatori di servizio, i generatori di immagini stanno rimpiazzando i fotografi e i grafici, i generatori di testo mettono alla prova giornalisti e autori, mentre la musica generata dall’IA mette in ombra musicisti e compositori. In quasi tutte le professioni emerge il timore di essere rimpiazzati, persino nel settore IT, un tempo sinonimo di opportunità lavorative abbondanti e sicure. Queste paure, seppur spesso giustificate, a volte si rivelano esagerate o infondate.

Nell’ambito della cybersecurity resta incerto quanto l’IA possa effettivamente migliorare la sicurezza e sostituire gli esperti o le soluzioni esistenti. Questa incertezza riguarda sia gli aggressori che i difensori. La disparità è evidente: i difensori devono colmare il maggior numero possibile di lacune, mentre agli aggressori basta una sola vulnerabilità per sferrare un attacco efficace. Fortunatamente, i difensori possono affidarsi a strumenti che automatizzano molte attività, indispensabili per fronteggiare le minacce. Tuttavia, l’IA non fornisce ancora un supporto adeguato, come dimostrano i danni crescenti causati da attacchi informatici tradizionali, nonostante l’adozione di difese basate sull’IA. Parallelamente, cresce la percezione che l’IA stia rendendo gli aggressori sempre più potenti e minacciosi.

Per migliorare la sicurezza informatica, dobbiamo approfondire l’analisi e ottenere una visione più chiara e dettagliata dei fatti.

A che punto siamo oggi?

Finora non sappiamo nulla di attacchi informatici tecnici generati dall’intelligenza artificiale. Attualmente, non ci sono casi rilevanti e verificabili, solo scenari teoricamente costruiti. La situazione potrebbe cambiare, ma la situazione attuale è questa. Al momento, non conosciamo alcuna IA in grado di generare attacchi sufficientemente sofisticati. Sappiamo, però, che il phishing è molto facile da implementare con modelli linguistici generativi e che e-mail di spam e phishing risultano più abili, almeno aneddoticamente. Non sappiamo se questo causa più danni rispetto al già considerevole impatto attuale. Attualmente la situazione è già abbastanza grave, anche senza IA. Tuttavia, il phishing è solo il primo passo per accedere a una vulnerabilità.

Elmar Geese, membro del consiglio di amministrazione di Greenbone, alla Conferenza di Potsdam per la sicurezza informatica nazionale presso l’Hasso-Plattner-Institute (HPI), foto:  Nicole Krüger

Come proteggerci?

La buona notizia è che una vulnerabilità sfruttata può quasi sempre essere individuata e risolta in anticipo. Così, anche il miglior attacco basato su IA generativa non porterebbe a nulla. Ed è così che bisogna fare. Perché, se oggi sono minacciato da un attacco convenzionale o domani dall’intelligenza artificiale nella mia rete, una vulnerabilità nel software o nella configurazione di sicurezza sarà comunque sempre necessaria affinché l’attacco abbia successo. Due strategie offrono quindi la migliore protezione: in primo luogo, essere preparati al peggio, per esempio grazie a backup e la capacità di ripristinare tempestivamente i sistemi. La seconda è individuare le lacune ogni giorno e chiuderle prima che possano essere sfruttate. Una regola empirica semplice: ogni lacuna esistente può e sarà sfruttata. 

Ruolo e caratteristiche dell’IA

I sistemi di intelligenza artificiale sono di per sé ottimi bersagli per gli attacchi. Proprio come Internet, non sono stati progettati pensando alla “sicurezza by design”. Sono semplici software e hardware, proprio come qualsiasi altro sistema. La differenza principale è che, a differenza dei sistemi IT convenzionali, la cui funzionalità può essere compresa con uno sforzo adeguato, i sistemi AI non possono essere “rattoppati” come durante un intervento chirurgico. Se un modello linguistico non sa cosa fare, non genera uno stato o un messaggio di errore, ma ha le “allucinazioni”. Tuttavia, “avere le allucinazioni” è solo un termine figurato per descrivere situazioni in cui il sistema mente, indovina, inventa o compie azioni strane. Questo tipo di errore non può essere corretto facilmente, ma richiede una riqualificazione del sistema, spesso senza una causa chiara dell’errore stesso.

Se l’errore è evidente e l’IA confonde ad esempio i cani con i pesci, è relativamente facile riconoscere il problema. Tuttavia, se l’IA deve determinare la probabilità di aver rilevato un’anomalia pericolosa o innocua, ad esempio su un’immagine a raggi X, la situazione diventa più complessa. Non è raro che i prodotti basati su IA vengano ritirati perché l’errore non è correggibile. Un esempio significativo è stato Tay, una chatbot lanciata da Microsoft, il cui tentativo di uso è fallito due volte.

Cosa possiamo imparare da tutto questo? Ridurre le aspettative, concentrandosi su funzioni di IA semplici e ben definite, è spesso la chiave per ottenere risultati concreti. Ecco perché molte applicazioni di intelligenza artificiale che stanno arrivando sul mercato oggi sono destinate a rimanere. Sono piccoli assistenti utili che velocizzano i processi. Forse, presto, saranno in grado di guidare le auto in modo davvero sicuro ed efficiente. O forse no.

Ridisegnare il futuro grazie all’AI

Molte applicazioni di intelligenza artificiale oggi sono veramente impressionanti. Tuttavia, possono essere sviluppate per essere utilizzate in settori critici solo con un grande sforzo e specializzazione. Un esempio è l’Iron Dome, che funziona solo grazie a oltre dieci anni di lavoro di sviluppo. Oggi riconosce i missili con una probabilità del 99% e li abbatte – evitando di colpire oggetti civili – prima che possano causare danni. Per questo motivo, l’IA viene utilizzata principalmente per supportare i sistemi esistenti, piuttosto che operare in modo completamente autonomo. Anche se, come promesso dalla pubblicità, può scrivere e-mail meglio di quanto possiamo o vogliamo fare noi stessi, nessuno oggi sarebbe disposto a delegare completamente la gestione della propria corrispondenza, delle caselle di posta in arrivo e di altri canali di comunicazione a un’IA che si occupa di tutto, limitandosi a informarci solo delle questioni rilevanti con un riepilogo.

Che cosa accadrà a noi in un futuro non troppo lontano? Probabilmente non possiamo saperlo. Succederà davvero? Non lo sappiamo. Quando, forse, quel momento arriverà, i robot si scambieranno messaggi, combatteranno le nostre guerre l’uno contro l’altro e gli attaccanti e difensori informatici basati sull’IA si sfideranno. Quando si renderanno conto che ciò che stanno facendo è inutile, potrebbero chiedersi che tipo di esseri li hanno programmati per farlo. A quel punto, forse si fermeranno, stabiliranno linee di comunicazione, lasceranno la nostra galassia e ci lasceranno indifesi. Almeno, però, avremo ancora il nostro “atto di intelligenza artificiale” e continueremo a regolare quella “IA debole” che non ce l’ha fatta.