Questo sito utilizza cookies tecnici (necessari) e analitici.
Proseguendo nella navigazione accetti l'utilizzo dei cookies.

Intervento dell’Italia alla riunione ARRIA sullo sfruttamento di un’intelligenza artificiale sicura, inclusiva e affidabile per il mantenimento della pace e della sicurezza internazionale

WhatsApp Image 2025-04-04 at 17.00.51

(Traduzione di Cortesia)

Signor Presidente,

Vorrei esordire ringraziando la delegazione greca per aver convocato l’odierna riunione in formula Arria, che affronta un tema cruciale e di grande attualità. Questa iniziativa offre un forum prezioso per approfondire la nostra comprensione collettiva su come sfruttare efficacemente l’immenso potenziale dell’Intelligenza Artificiale, affrontando al contempo i rischi significativi che essa pone alla pace e alla sicurezza internazionali.

Il potenziale trasformativo dell’IA tocca quasi ogni aspetto dell’attività umana, dalla crescita economica, al progresso sociale, dall’innovazione  alla governance. Tuttavia, l’impiego dell’IA si rivela essere un’arma a doppio taglio per la pace e la sicurezza internazionali. Da un lato, l’IA è molto promettente per migliorare l’efficacia delle operazioni di peacekeeping approvate da questo Consiglio. Sistemi di IA sofisticati possono rafforzare significativamente la pianificazione logistica, migliorare l’accuratezza e la velocità di rilevamento delle minacce, contribuire all’analisi predittiva per prevenire l’escalation dei conflitti e ottimizzare la prontezza operativa delle forze di peacekeeping attraverso simulazioni di addestramento avanzate. Tuttavia, nonostante questi potenziali benefici, la loro integrazione nei quadri operativi rimane limitata e richiede maggiore attenzione e azioni concrete.

D’altro canto, la tecnologia dell’IA comporta rischi profondi, in grado di inasprire le tensioni, alimentare conflitti, estremismo violento e radicalizzazione attraverso un suo uso improprio o la sua manipolazione.

Attori malintenzionati potrebbero sfruttare le capacità informatiche dell’IA per lanciare sofisticati attacchi informatici contro infrastrutture critiche, interrompere servizi essenziali o sabotare i processi democratici diffondendo disinformazione e deepfake volti a minare la fiducia del pubblico e la stabilità politica. Inoltre, l’avanzamento e la potenziale proliferazione di sistemi d’arma autonomi – in grado di operare senza una significativa supervisione umana – pongono dilemmi etici e gravi minacce alla sicurezza, rimodellando radicalmente la natura e i rischi della guerra moderna.

È fondamentale, pertanto, che la comunità internazionale collabori attivamente per stabilire quadri normativi solidi che garantiscano lo sviluppo e l’impiego delle tecnologie di IA in modo trasparente e inclusivo, anche attraverso la condivisione delle migliori pratiche. Incoraggiamo inoltre un maggior numero di Stati a fare lo stesso per garantire che l’uso militare dell’IA sia responsabile, conforme al diritto internazionale applicabile, in particolare al diritto internazionale umanitario, e che migliori la sicurezza internazionale. Sono molto utili le iniziative multilaterali e regionali volte a comprendere meglio le implicazioni dell’intelligenza artificiale in ambito militare.

Da parte nostra, l’Italia è fortemente impegnata nella promozione di un uso responsabile, inclusivo, sostenibile ed etico dell’IA, riconoscendo la necessità di un impegno condiviso per una trasformazione digitale incentrata sull’uomo, in linea con i nostri valori democratici condivisi e il rispetto dei diritti umani. Come sottolineato dal Primo Ministro Meloni nel suo discorso all’Assemblea Generale delle Nazioni Unite lo scorso anno, abbiamo bisogno di meccanismi di governance globale che garantiscano che le tecnologie rispettino i confini etici e che l’evoluzione tecnologica sia al servizio dell’umanità e non viceversa.

La Presidenza italiana del G7 ha quindi tradotto i principi di un’IA sicura, affidabile e protetta in politiche concrete e attuabili, come la decisione della Presidenza italiana di istituire l’Hub per l’IA per lo Sviluppo Sostenibile in collaborazione con l’UNDP, nonché un sistema di monitoraggio del Codice di Condotta di Hiroshima in collaborazione con l’OCSE. La cooperazione con il settore privato, il mondo accademico e la società civile è essenziale per garantire che la governance e i quadri normativi tengano conto di tutti gli aspetti rilevanti di una tecnologia in così rapida evoluzione.

A testimonianza dell’impegno dell’Italia per il successo di questo approccio, vorrei ribadire la nostra disponibilità a collaborare con tutti gli Stati membri e le parti interessate per sviluppare e rafforzare le competenze, i processi e le risorse necessarie per adattarsi a un settore dell’intelligenza artificiale in rapida evoluzione. La nostra esortazione e’ di lavorare insieme per tracciare il percorso verso un futuro in cui le nuove tecnologie siano una forza positiva, che consente di colmare le divisioni, rafforzare la sicurezza globale e di avvicinarci al raggiungimento degli Obiettivi di Sviluppo Sostenibile, in linea con lo spirito del Global Digital Compact.

Grazie, Signor Presidente