AI e cybersecurity: la sfida etica. Intervista a Luca Moroni

 

 

La genesi della crisi digitale

L’attuale scenario che lega Intelligenza Artificiale (AI) e cybersicurezza non è solo una mera questione tecnologica, poiché trova la sua origine in una profonda crisi etica e sociale. L’AI è diventata molto più di un motore di innovazione: è un argomento di quotidiana attualità, spinto da episodi che sollevano dubbi urgenti sulla sicurezza dei dati e sulla tenuta sociale.

Per analizzare questo contesto complesso, abbiamo dialogato con Luca Moroni, Cyber Risk Manager, Co-Founder di Cyber Security Angels (CSA) e Co-Founder di Via Virtuosa. Attraverso la sua esperienza, esploriamo i rischi informatici ed etici che le aziende devono oggi affrontare.

Il “Doping Digitale”: l’impatto sociale dell’AI

Prima delle aziende, l’impatto della tecnologia si sta misurando sulle persone. Secondo Moroni, la narrazione dominante sull’AI tende a ignorare il contesto sociale in cui questa tecnologia è emersa. Assistiamo a una forma di “doping” delle persone, in particolare delle nuove generazioni, attuato attraverso dispositivi connessi che hanno creato una vera e propria dipendenza. L’AI si innesta in questo terreno fertile attraverso un modello di risposta rapida  il cui obiettivo è quello di svalutare il pensiero critico, con il suggerimento implicito che il “pensare” non sia più necessario. Questo meccanismo alimenta oltretutto ansia e solitudine, spingendo quasi la metà dei giovani italiani a cercare supporto emotivo proprio nell’intelligenza artificiale. Le Big Tech, che prima hanno creato la dipendenza dai dispositivi connessi, ora puntano sul business dei dati, scelta che sacrifica molto spesso l’etica in nome del rientro economico.

I nuovi rischi di sicurezza: deepfake e frodi

Riguardo alla cybersicurezza aziendale, l’impatto più tangibile dell’evoluzione dell’AI è la proliferazione di artefatti fake.

  • Deepfake di figure apicali: la creazione di video e audio falsi che ne riproducono fattezze e voce, ha già portato a clamorosi episodi di frode.
  • Il paradosso analogico: La minaccia è talmente reale che si valuta il ritorno a metodi analogici (“pizzini” o parole d’ordine) per garantire la reale identità dell’interlocutore.
  • Manipolazione dell’opinione pubblica: oltre alla singola truffa, la velocità di evoluzione dell’AI rende la manipolazione delle notizie un’arma potente con impatti politici ed economici rilevanti.

AI Act e pressioni geopolitiche: a che punto è la normativa?

Per arginare quella che appare come una “digitanarchia”, l’Unione Europea ha introdotto l’AI Act (entrato in vigore nel 2024 e caratterizzato da più step temporali), con l’intento di creare fiducia e classificare i rischi.

La normativa vieta esplicitamente pratiche inaccettabili come:

  • Manipolazione cognitivo-comportamentale.
  • Social scoring e sorveglianza massiva.
  • Uso distorto dell’identificazione biometrica.

Tuttavia, Moroni evidenzia una criticità nel recente Decreto (Digital) Omnibus. L’Europa subisce forti pressioni da oltreoceano – legate anche a negoziazioni commerciali come la riduzione dei dazi sull’acciaio – che mirano all’allentamento delle restrizioni sulla privacy (GDPR). L’obiettivo delle Big Tech è ottenere un accesso più ampio ai dati dei cittadini europei per istruire i motori AI, un’apertura che oltrepasserebbe i confini di un’adeguata valutazione del rischio.

Lo stato dell’arte nelle aziende: tra marketing e stallo

Qual è la reazione delle aziende italiane di fronte a questo scenario? Secondo Moroni, la situazione è di sostanziale stallo. Molte realtà hanno imposto il blocco all’uso dell’AI proprio perché la panoramica dei rischi non è chiara e mancano policy ben definite. Dall’altro lato, esiste una problematica inerente all’offerta tecnologica: molti fornitori utilizzano l’AI come leva di marketing (fa “cool”) per ampliare il business, proponendo soluzioni senza una corretta valutazione dei rischi e, di fatto, violando la legge.

La cybersicurezza come missione etica

Non si tratta di essere contro l’AI, ma di essere consapevoli dei rischi. In uno scenario dove alcuni esperti ipotizzano “punti di non ritorno” tecnologici entro il 2027, il ruolo dello specialista di cybersicurezza cambia radicalmente. La cybersicurezza amplia la propria visione e così anche le figure specializzate che diventano “sentinelle etiche”: una funzione di alerting che ha la responsabilità di segnalare a società e aziende i pericoli in essere. Come racconta Luca Moroni nel suo libro “Segui la Via Virtuosa: spunti di vita, famiglia e Cybersecurity lungo la via”, l’unica vera difesa resta la diffusione della conoscenza e la capacità di misurare il successo nella coerenza tra valori e scelte quotidiane.

 

 

 

 

Share Button

Post Navigation