Le linee guida in materia di AI e Data Protection.

Le linee guida in materia di AI e Data Protection.

Sistemi, software e dispositivi basati sull'intelligenza artificiale1 ("IA") forniscono nuove e preziose soluzioni per affrontare i bisogni e le sfide in molti e differenti ambiti, quali la domotica, le smart cities, l’industria, la sanità e la prevenzione del crimine. Le applicazioni IA possono rappresentare uno strumento utile nei processi decisionali, specie nel supportare politiche inclusive e fondate su evidenze concrete. Come per altre innovazioni tecnologiche, queste applicazioni possono avere ripercussioni negative sugli individui e la società.

Per evitare questo rischio, le Parti della Convenzione 108 garantiranno e assicureranno che lo sviluppo e l'utilizzo dell'IA rispettino e garantiscano i diritti alla tutela della vita privata e alla protezione dei dati personali (articolo 8 della Convenzione europea sui diritti dell’uomo), rafforzando così i diritti e le libertà fondamentali.

Le presenti linee guida forniscono una serie di misure di base che i governi, gli sviluppatori, i produttori e i fornitori di servizi di IA dovrebbero adottare per assicurare che le applicazioni IA non compromettano la dignità umana, i diritti e le libertà fondamentali di ogni individuo, in particolare con riferimento al diritto alla protezione dei dati.

Le presenti linee-guida non intendono in alcun modo precludere o limitare le disposizioni della Convenzione europea dei diritti dell’uomo e della Convenzione 108. Le linee-guida tengono conto anche delle nuove tutele previste dalla Convenzione 108 modernizzata (più nota come "Convenzione 108+”).

I Principi generali

  1. La protezione della dignità umana e la tutela dei diritti umani e delle libertà fondamentali, in particolare il diritto alla protezione dei dati personali, sono essenziali nello sviluppo e nell’adozione di applicazioni IA che possono avere conseguenze sugli individui e la società. Ciò è particolarmente importante quando le applicazioni IA vengono utilizzate nei processi decisionali.
  2. Lo sviluppo dell'IA fondato sul trattamento di dati personali dovrebbe basarsi sui principi della Convenzione 108+. Gli elementi chiave di questo approccio sono: liceità, correttezza, specificazione della finalità, proporzionalità del trattamento, protezione dei dati fin dalla progettazione (privacy by design) e protezione per impostazione predefinita (privacy by default), responsabilità e dimostrazione della conformità (accountability), trasparenza, sicurezza dei dati e gestione dei rischi.
  3. Un’innovazione responsabile nel settore dell'IA necessita di un approccio incentrato sulla prevenzione e attenuazione dei potenziali rischi del trattamento dei dati personali.
  4. In linea con le indicazioni in materia di valutazione del rischio fornite nelle linee-guida sui Big Data adottate dal Comitato della Convenzione 108 nel 2017, dovrebbe essere adottata una prospettiva più ampia quanto alle possibili conseguenze derivanti dal trattamento dei dati. Tale prospettiva dovrebbe considerare non solo i diritti umani e le libertà fondamentali, ma anche il funzionamento delle democrazie e i valori sociali ed etici.
  5. Le applicazioni IA devono sempre rispettare pienamente i diritti degli interessati, in particolare alla luce dell'articolo 9 della Convenzione 108+.
  6. Le applicazioni IA dovrebbero consentire un controllo significativo da parte degli interessati sul trattamento dei dati e sulle conseguenze correlate per gli individui e la società.

II Linee-guida per sviluppatori, produttori e fornitori di servizi

  1. Gli sviluppatori, i produttori e i fornitori di servizi di IA dovrebbero adottare un approccio orientato ai valori nella progettazione dei loro prodotti e servizi, in linea con la Convenzione 108+, in particolare con l'art. 10, par. 2 di quest’ultima, e con gli altri strumenti pertinenti del Consiglio d'Europa.
  2. Gli sviluppatori, i produttori e i fornitori di servizi di IA dovrebbero valutare le possibili conseguenze negative delle applicazioni IA sui diritti umani e le libertà fondamentali e, alla luce di tali conseguenze, adottare un approccio precauzionale basato su appropriate misure di prevenzione e attenuazione dei rischi.
  3. In tutte le fasi del trattamento, compresa la raccolta dei dati, gli sviluppatori, i produttori e i fornitori di servizi di IA dovrebbero adottare un approccio volto a tutelare i diritti umani fin dalla progettazione dei tali servizi (“human rights by design”) ed evitare qualsiasi potenziale pregiudizio (bias), anche involontario o occulto, il rischio di discriminazione o altri effetti negativi sui diritti umani e le libertà fondamentali degli interessati.
  4. Gli sviluppatori di IA dovrebbero vagliare accuratamente la qualità, la natura, l'origine e la quantità di dati personali utilizzati, riducendo i dati inutili, ridondanti o marginali durante lo sviluppo e le fasi di addestramento e poi monitorando l'accuratezza del modello man mano che viene alimentato con nuovi dati. L'uso di dati sinteticipuò rappresentare una soluzione atta a minimizzare la quantità di dati personali trattati dalle applicazioni IA.
  5. Nello sviluppo e nell'utilizzo di applicazioni IA si dovrebbe tenere in adeguata considerazione il rischio di impatti negativi sugli individui e la società dovuto all’impiego di dati e modelli algoritmici decontestualizzati.
  6. Gli sviluppatori, i produttori e i fornitori di servizi di IA sono invitati a istituire e consultare comitati indipendenti di esperti provenienti da più ambiti, nonché a collaborare con istituzioni accademiche indipendenti, che possono contribuire alla progettazione di applicazioni IA fondate sui diritti umani e ispirate a considerazioni di natura etica e sociale, nonché all’individuazione di potenziali pregiudizi (biases). Tali comitati potrebbero svolgere un ruolo particolarmente importante in quei settori ove assicurare la trasparenza e il coinvolgimento degli interessati può risultare più difficile a causa di interessi e diritti confliggenti, come negli ambiti della giustizia
    predittiva, della prevenzione e repressione dei reati.
  7. Dovrebbero essere incoraggiate forme partecipative di valutazione del rischio, basate sul coinvolgimento attivo degli individui e dei gruppi potenzialmente interessati dalle applicazioni IA.
  8. Tutti i prodotti e servizi dovrebbero essere progettati in modo tale da garantire il diritto delle persone di non essere sottoposte a una decisione basata unicamente su trattamenti automatizzati che abbia effetti significativi su di esse, senza che le loro opinioni vengano prese in considerazione.
  9. Al fine di rafforzare la fiducia degli utenti, gli sviluppatori, i produttori e i fornitori di servizi IA sono invitati a progettare i loro prodotti e servizi in modo da salvaguardare la libertà di scelta degli utenti rispetto all'utilizzo dell'IA, fornendo alternative praticabili alle applicazioni IA.
  10. Gli sviluppatori, i produttori e i fornitori di servizi di IA dovrebbero adottare forme di vigilanza sugli algoritmi che promuovano la responsabilizzazione di tutte le parti interessate durante l'intero ciclo di vita di tali applicazioni, al fine di garantire l’osservanza dei principi e delle norme in
    materia di protezione dei dati e diritti umani.
  11. Gli interessati dovrebbero essere informati se interagiscono con un'applicazione IA e hanno il diritto di ottenere informazioni sulla logica alla base dei trattamenti di dati che li coinvolgono. Le informazioni da fornire dovrebbero comprendere le conseguenze derivanti dall’applicazione di tale
    logica.
  12. Dovrebbe essere garantito il diritto di opporsi al trattamento basato su tecnologie che influenzano le opinioni e lo sviluppo personale degli individui.

III Linee-guida per legislatori e policy makers

  1. Il rispetto del principio di responsabilizzazione (accountability), l'adozione di procedure di valutazione del rischio e l'applicazione di altre misure adeguate, come i codici di condotta e i meccanismi di certificazione, possono rafforzare la fiducia nei confronti di prodotti e servizi di IA.
  2. Fatta salva la riservatezza tutelata dalla legge, le procedure di appalto pubblico dovrebbero imporre a sviluppatori, produttori e fornitori di servizi di IA specifici obblighi di trasparenza, una valutazione preliminare dell'impatto del trattamento dei dati sui diritti umani e sulle libertà fondamentali e l’obbligo di vigilanza sugli effetti negativi e le conseguenze potenzialmente derivanti dalle applicazioni IA (di seguito, "vigilanza sugli algoritmi").
  3. Il rispetto del principio di responsabilizzazione (accountability), l'adozione di procedure di valutazione del rischio e l'applicazione di altre misure adeguate, come i codici di condotta e i meccanismi di certificazione, possono rafforzare la fiducia nei confronti di prodotti e servizi di IA.
  4. Fatta salva la riservatezza tutelata dalla legge, le procedure di appalto pubblico dovrebbero imporre a sviluppatori, produttori e fornitori di servizi di IA specifici obblighi di trasparenza, una valutazione preliminare dell'impatto del trattamento dei dati sui diritti umani e sulle libertà fondamentali e l’obbligo di vigilanza sugli effetti negativi e le conseguenze potenzialmente derivanti dalle applicazioni IA (di seguito, "vigilanza sugli algoritmi").
  5. Le autorità di controllo dovrebbero essere dotate di risorse sufficienti per sostenere e monitorare i programmi di vigilanza sugli algoritmi posti in essere dagli sviluppatori, produttori e fornitori di servizi di IA.
  6. L'eccessivo affidamento sulle soluzioni fornite dalle applicazioni IA e i timori di contestare le decisioni suggerite dalle applicazioni IA rischiano di alterare l'autonomia dell'intervento umano nei processi decisionali. Dovrebbero pertanto essere preservati il ruolo dell'intervento umano nei processi decisionali e la libertà dei decisori umani di non fare affidamento sulle raccomandazioni fornite attraverso l’impiego dell'IA.
  7. Gli sviluppatori, i produttori e i fornitori di servizi di IA dovrebbero consultare le autorità di controllo quando le applicazioni di IA possono incidere in modo significativo sui diritti umani e sulle libertà fondamentali degli interessati.
  8. Si dovrebbe promuovere la cooperazione tra le autorità di protezione dei dati e altri organismi che hanno una competenza in materia di IA, quali le autorità di tutela dei consumatori o della concorrenza, quelle incaricate del contrasto alle discriminazioni, le autorità di regolamentazione settoriali e le autorità di regolamentazione dei media.
  9. Dovrebbero essere istituiti meccanismi adeguati al fine di garantire l'indipendenza dei comitati di esperti di cui alla sezione II.6.
  10. Si dovrebbero garantire l’informazione e il coinvolgimento attivo di individui, gruppi e altre parti interessate nel dibattito sul ruolo da attribuire all'IA nel plasmare le dinamiche sociali e nei processi decisionali che li riguardano.
  11. I policy maker dovrebbero investire risorse nell’alfabetizzazione digitale per aumentare la conoscenza e la comprensione degli interessati riguardo alle applicazioni IA e ai loro effetti. Dovrebbero promuovere, inoltre, la formazione professionale rivolta agli sviluppatori di IA al fine di aumentare la conoscenza e la comprensione dei potenziali effetti dell'IA sugli individui e la società. Dovrebbero sostenere la ricerca incentrata su un’IA orientata ai diritti umani.

Tratto dal documento (allegato) redatto dal Comitato consultivo (cd. T-pd) della convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (convenzione 108). 

 

Attachments:
FileFile sizeDownloads
Download this file (Convenzione 108 - Linee-guida in materia di intelligenza artificiale e protezione dei dati.pdf)Le linee guida in materia di AI e Data protection.114 kB82

Related Articles