
Intelligenza artificiale: dal G7 il codice di condotta
I leader del G7 il 30 ottobre hanno trovato l’accordo sui principi guida internazionali sull’intelligenza artificiale (IA) e su un codice di condotta volontario per gli sviluppatori di IA nell’ambito del processo di Hiroshima sull’IA.
Il processo di Hiroshima è stato istituito in occasione del vertice G7 del 19 maggio 2023 per promuovere misure protettive a livello mondiale per i sistemi avanzati di IA. L’iniziativa fa parte di una serie più ampia di discussioni internazionali sulle misure protettive per l’IA, anche in seno all’OCSE, al Partenariato globale sull’intelligenza artificiale e al Consiglio UE-USA per il commercio e la tecnologia, così come nel quadro dei partenariati digitali dell’UE.
Tali principi e il codice di condotta volontario integreranno, a livello internazionale, le norme giuridicamente vincolanti che i colegislatori dell’UE stanno attualmente mettendo a punto nell’ambito della legge dell’UE sull’IA (AI ACT).
Garantire la sicurezza e l’affidabilità della tecnologia
Gli undici principi guida adottati dai leader G7, offrono orientamenti alle organizzazioni che sviluppano, diffondono e utilizzano sistemi avanzati di IA, come i modelli di base e gli strumenti di IA generativa, per promuovere la sicurezza e l’affidabilità della tecnologia. Comprendono impegni per mitigare i rischi e gli abusi, individuare le vulnerabilità e promuovere una condivisione responsabile delle informazioni, la segnalazione degli incidenti e gli investimenti nella cibersicurezza, nonché un sistema di etichettatura che consenta agli utenti di individuare i contenuti generati dall’IA.
Questi principi, che si basano sui risultati di un’indagine tra le parti interessate, sono serviti come base per l’elaborazione di un codice di condotta che fornirà orientamenti dettagliati e pratici alle organizzazioni che sviluppano l’IA. Il codice di condotta volontario promuoverà inoltre una governance responsabile dell’IA a livello mondiale. Entrambi i documenti saranno riesaminati e aggiornati, se necessario, anche tramite consultazioni multipartecipative e inclusive, per fare in modo che rimangano adatti allo scopo che perseguono e tengano il passo con questa tecnologia in rapida evoluzione.
Gli undici principi
1)Adottare misure adeguate durante lo sviluppo dei sistemi avanzati di intelligenza artificiale, anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita dell’IA.
2)Identificare modelli di abuso dopo la diffusione, compresa l’immissione sul mercato
3)Segnalare pubblicamente le capacità, i limiti e gli ambiti di utilizzo appropriato e inappropriato dei sistemi avanzati di IA, per garantire una sufficiente trasparenza contribuendo così ad aumentare la responsabilità.
4) Lavorare per una condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di IA, anche con l’industria, governi, società civile e il mondo accademico.
5) Sviluppare, implementare e divulgare politiche di governance e gestione del rischio dell’IA, basate su un approccio basato sul rischio, comprese le politiche sulla privacy e le misure di mitigazione.
6) Investire e implementare solidi controlli di sicurezza, compresa la sicurezza fisica, la sicurezza informatica e le misure contro le minacce interne durante tutto il ciclo di vita dell’IA.
7) Sviluppare e distribuire meccanismi affidabili di autenticazione e provenienza dei contenuti, laddove tecnicamente fattibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’IA
8) Dare priorità alla ricerca per ridurre i rischi per la società, la sicurezza e la protezione e dare priorità agli investimenti in misure di mitigazione efficaci.
9)Dare priorità allo sviluppo di sistemi avanzati di IA per affrontare le più grandi sfide globali, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione
10) Promuovere lo sviluppo e, ove opportuno, l’adozione di standard tecnici internazionali.
11) Implementare misure adeguate per l’inserimento dei dati e per la protezione dei dati personali e dei diritti della proprietà intellettuale.