Ciardi: “L’intelligenza artificiale aiuta la sicurezza. A patto che non sia proprietà solo dei grandi gruppi”

Pubblicità
Pubblicità

«Partiamo da due notizie, pubblicate a poche ore di distanza».

Prego.

«L’associazione italiana di ematologia e oncologia pediatrica ha spiegato che si attendono grandissimi passi avanti nelle cure grazie all’intelligenza artificiale. Mirano a diagnosi precise e personalizzate per bambini che così potrebbero guarire. Una notizia straordinaria. Poco dopo, alcune Organizzazioni non governative hanno reso noto che grazie a software sviluppati con l’intelligenza artificiale l’Iran sta identificando le donne che non rispettano i rigidi requisiti del codice di abbigliamento islamico. Bene, tra questi due esempi, tra il grande bene e il grande male, c’è la nostra sfida: mettere i paletti e costruire una governance che ci spieghi per cosa l’Intelligenza artificiale va usata e per cosa invece no. Un contesto che coordini sviluppo, sicurezza ed etica. Per citare la presidente del Consiglio, Giorgia Meloni, “un quadro normativo in cui innovazione e regolazione vadano di pari passo”. Dopo la mossa dell’Unione europea, questo è il nostro compito».

Nunzia Ciardi è la vice direttrice dell’Agenzia nazionale per la Cybersicurezza, dopo che per anni ha guidato la Polizia Postale. La sua è una delle voci più precise e chiare quando si parla dei confini dell’intelligenza artificiale nel nostro Paese.

«Partiamo, come premessa, dal dire quasi una banalità, però necessaria: l’intelligenza artificiale è uno strumento straordinario, portata ai suoi massimi livelli. Pensare di non competere su un terreno come questo è folle, significa negare il progresso e condannarsi a restare indietro nel tempo. Per dire: la capacità di processare un enorme quantità di dati, ci permette nella cybersicurezza strumenti di difesa dei sistemi fin qui inimmaginabili. Bene, detto questo sarebbe stupido non vedere i pericoli. E dunque regolamentarli».

Facciamo qualche esempio.

«L’intelligenza artificiale generativa è in grado di realizzare prodotti indistinguibili. Un discorso di un leader politico, per esempio. O una foto di guerra. Già oggi, e domani ancora di più, siamo sempre meno in grado di distinguere la realtà dai fake. E questo è una questione enorme di sicurezza nazionale perché alcune informazioni sono in grado di limitare le libertà e orientare il pensiero».

Ai Act, sulle regole per l’intelligenza artificiale raggiunto l’accordo in Europa. Breton: “Momento storico, guideremo la corsa”

In tema di sicurezza i rischi sono tanti. L’Europa ha messo dei paletti rigidi sui sistemi di categorizzazione biometrica: dai dati sensibili alla raccolta delle immagini facciali. Oggi in Italia quelle telecamere già sono in funzione: stazioni, concerti, dalle immagini si è in grado di sapere chi c’era e chi no.

«Ma esistono delle norme rigide che regolamentano cosa e soprattutto quando si può ricorrere a certi sistemi, particolarmente invasivi. E lo stesso fa l’Unione europea, giustamente, riconoscendo dei gradi a seconda dei reati. Ma il tema del riconoscimento facciale è soltanto uno rispetto a un più generale problema sulla privacy non di facilissima risoluzione. I nostri dati sono ovunque: dal supermercato dove fai la spesa ai siti di ecommerce. In Cina è stato sdoganato uno strumento pericolosissimo come il social scoring, un punteggio che indica la “dignità sociale” dei cittadini sulla base di un’analisi di dati quasi sempre iper riservati. Inoltre non abbiamo il controllo su come vengono gestite quelle informazioni: davanti ad output discriminatori, non corretti, si potrebbe creare un pericolosissimo cortocircuito. Ecco, davanti proprio a situazioni come queste è chiara la necessità di coordinare sicurezza ed etica di certi algoritmi».

In tema di sicurezza avete notato già degli usi distorti dell’Intelligenza artificiale?

«C’è la disinformazione. Ma guardiamo anche alle mail di phishing: prima erano sgrammaticate, era facile accorgersi che si trattava di truffe. Oggi invece, grazie a banali software di intelligenza artificiale, sono precise. Ed è facilissimo cadere in errore».

Che fare, quindi?

«Servono regole. E mi pare che su questo il dibattito sia a buon punto. Ma, come l’Agenzia sta facendo da tempo, è necessaria anche tecnologia: l’intelligenza artificiale non può essere competitiva ma ausiliaria. Questo non significa né demonizzarla né rinunciare alla competizione. Da tempo stiamo seguendo e sostenendo startup specifiche, perché occuparsi della sicurezza nazionale significa anche essere padroni della propria tecnologia, che non deve essere appannaggio soltanto dei grandi gruppi. Avere un’autonomia significa avere più sicurezza. Questo è stato importante per l’energia, lo è per la cyber. E lo stesso vale anche per l’intelligenza artificiale».

Pubblicità

Pubblicità

Go to Source

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *