HomeDemocrazia FuturaSicurezza fa rima con trasparenza

Sicurezza fa rima con trasparenza

L'Agenzia italiana di cybersecurity segue il Regno Unito sull'intelligenza artificiale

-

L’adesione alle Linee guida promosse dal National Cyber Security Centre apre una porta importante sulle prospettive di controllo e governo dei processi evolutivi dell’Intelligenza artificiale

La decisione dell’Agenzia nazionale di Cybersecurity (ACN) di aderire alle Linee guid per uno sviluppo sicuro dell’Intelligenza Artificiale[1], promosse dal National Cyber Security Centre del Regno Unito, non solo ci permette di rimanere agganciati a uno dei pochi stadi del circuito europeo tecnologico di una certa rilevanza, ma soprattutto apre una porta importante sulle prospettive di controllo e governo dei processi evolutivi dell’Intelligenza artificiale[2].

Infatti mentre il cosiddetto trilogo, la trimurti europea formata dalla Commissione europea, dal Parlamento e dal Consiglio europeo che raccoglie i governi dei paesi aderenti, si rimpalla il testo delle norme in materia appunto di Intelligenza Artificiale, sul mercato in pochi giorni si è scatenato l’inferno. Attorno a OpenAI, la società proprietaria di ChatGPT, è andato in scena lo psicodramma indotto dal tentativo di estromettere dalla società Sam Altman[3], il protagonista del lancio nel 2022 del nuovo chatbot intelligente, mentre affioravano i nuovi progetti che lo stesso Altman con Microsoft stava incubando, che spostano ulteriormente la frontiera tecnologica dall’Intelligenza artificiale generativa, quella appunto che viene addestrata con miliardi di cosiddetti parametri, ossia concetti ed espressioni logiche, a quella definita “Generale” che dovrebbe possedere la capacita di ragionare in maniera induttiva, scavalcando persino i limiti dell’addestramento.

Una frontiera questa che ci porterebbe a ridosso di quella prospettiva di singolarità che venne vagheggiata più di dieci anni fa, quando si paventò la possibilità che sistemi digitali possano sfuggire al controllo umano e auto organizzare le proprie attività.

Ora al di là degli scenari distopici che affascinano sempre tanto, rimane una realtà di pragmatica conquista di posizioni sul mercato, e soprattutto di accaparramento di quel segmento strategicamente fondamentale che sono le prossime applicazioni di sistemi intelligenti nei diversi processi produttivi.

Siamo a una vera e propria corsa all’oro, condotta esattamente con lo stile e la spregiudicatezza che hanno caratterizzato il vecchio Far West.

Il tentativo di bonificare la jungla tecnologica fissando standard qualitativi aperti e trasparenti

In questo scenario il buco nero è il ruolo dello spazio pubblico, ossia non solo delle istituzioni statali, che in qualche modo stanno cercando di farsi strada proprio con le nuove leggi sulla commercializzazione dei sistemi digitali che l’Europa, ma anche il governo americano con l’Ordine di Joe Biden sul tema, stanno promulgando, quanto proprio la società civile, quella comunità che si trova ad essere produttore della materia prima con cui viene implementata l’intelligenza artificiale, cioè i dati, ma anche soggetto elaboratore di quel sapere di base che è il motore del progresso tecnologico, di cui ChatGPT e i suoi simili sono un estratto.

Ora nell’incertezza generale sembra accendersi una luce che riguarda proprio l’esigenza di sicurezza digitale. Infatti le Linee Guida per uno sviluppo sicuro dell’intelligenza artificiale elaborate in Inghilterra costituiscono un efficace e adeguato prontuario per agganciare e monitorare i processi tecnologici, allertando le inevitabili ansie degli utenti.

Si tratta infatti di un insieme di criteri e di precetti che bonificano la giungla tecnologica, fissando standard qualitativi e criteri etici e politici per rendere queste tecniche non più solo patrimonio dei proprietari, ma sistemi aperti dove ognuno potrà intervenire ed estendere queste attività.

Il documento inglese, prontamente recepito dall’ANC italiana, infatti, spiega che

“I sistemi di intelligenza artificiale sono soggetti a nuove vulnerabilità di sicurezza che devono essere considerate insieme alle minacce standard alla sicurezza informatica. Quando il ritmo di sviluppo è elevato, come nel caso dell’intelligenza artificiale, la sicurezza può spesso essere una considerazione secondaria. La sicurezza deve essere un requisito fondamentale, non solo nella fase di sviluppo, ma durante l’intero ciclo di vita del sistema”.

In sostanza la sicurezza diventa un passe partout per aprire la black box e permettere agli stakeholder (dipendenti, fornitori e clienti dei sistemi commerciali) di avere piena consapevolezza dei meccanismi e dell’indotto neurale che l’uso di quel dispositivo comporta.

Ancora più concretamente le norme di sicurezza prevedono anche i principi di base che rendono ogni sistema digitale controllabile e condivisibile, alzando inevitabilmente la soglia di controllo di eventuali manomissioni e alterazioni. Infatti si precisa che i proprietari deli algoritmi debbano assumersi la responsabilità dei risultati di sicurezza per i clienti, abbracciando la trasparenza e la responsabilità radicali; costruire una struttura organizzativa e una leadership così sicure fin dalla progettazione è una priorità aziendale assoluta.

Una griglia selettiva che inevitabilmente comporterà convergenze e omologazione di ogni prodotto su questa linea di trasparenza che diventa propedeutica della sicurezza.

Non so se l’agenzia della Cybersecurity inglese che ha elaborato questi principi, e con essa anche la consorella italiana, diretta dal prefetto Frattasi, avesse chiaramente fra i propri fini quello di concorrere a rendere più negoziabile e condivisibile il mondo nascente dell’intelligenza artificiale, certo che oggi nessuno più potrà dire che i giganti sono ingovernabili, e che nulla possiamo fare per civilizzare questa infosfera tecnologica. Da oggi abbiamo strumenti funzionali e soprattutto intellegibili per ogni utente che bene comprende come la sicurezza delle proprie informazioni e azioni coincida con la socialità dei processi tecnologici che dovranno essere condivisi e trasparenti, non per un pedaggio etico, ma per una necessità di sicurezza comune.

Roma, 28 novembre 2023

[1] Chiara Masi, “L’Acn aderisce alle linee guida internazionali sulla sicurezza dell’IA. Ecco cosa prevedono”, Le formiche.net, 27 novembre 2023. Cf. https://formiche.net/2023/11/acn-linee-guida-sicurezza-ia/#content.

[2] The Huffington Post, 28 novembre 2023. Cf.

https://www.huffingtonpost.it/blog/2023/11/28/news/nel_conflitto_tra_israele_e_gaza_serve_un_cessate_il_fuoco_permanente-14327262/.

[3] Michele Mezza, “Il balletto di Sam Altman fra OpenAI e Microsoft ci parla dell’ingovernabilità delle imprese digitali”, The Huffington Post, 20 novembre 2023. Cf.

https://www.huffingtonpost.it/economia/2023/11/20/news/il_balletto_di_sam_altman_fra_openai_e_microsoft_ci_parla_dellingovernabilita_delle_imprese_digitali-14212013/

Michela Mezza
Michela Mezza
Insegna Epidemiologia sociale dei dati e degli algoritmi, all’Università Federico II di Napoli.

ULTIMI ARTICOLI

usa 2020

coronavirus - elezioni - democrazia - ostaggio

Coronavirus: elezioni rinviate, democrazia in ostaggio

0
Elezioni rinviate, elezioni in forse, presidenti, premier, parlamenti prorogati: la pandemia tiene in ostaggio le nostre democrazie e, in qualche caso, le espone alla...