Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'

29/03/2019: Privacy e intelligenza artificiale: vigilare sugli algoritmi

Le linee-guida con i principi da rispettare affinché l’impiego di AI avvenga nel rispetto dei principi della nuova Convenzione 108

Le applicazioni dell’intelligenza  artificiale (AI) devono rispettare i diritti fondamentali, incluso quello alla protezione dei dati. Sviluppatori, produttori e fornitori di servizi AI devono valutare preventivamente i possibili rischi, adottando un approccio di tipo “precauzionale”. Necessarie precise prescrizioni nelle procedure di appalto pubblico. Queste alcune delle indicazioni delle linee guida presentate - nel corso della Giornata della Protezione dei dati 2019 - dal Comitato consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (Convenzione 108/1981), che dal 2016 è presieduto dalla rappresentante del Garante della privacy italiano.

Le linee-guida, (reperibili al link https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8), si rivolgono a decisori pubblici, sviluppatori e fornitori di servizi basati sull’AI, come quelli utilizzati nell’ambito della domotica, delle smart cities, della sanità e della prevenzione del crimine.  In particolare, sono evidenziati i principi da rispettare affinché l’impiego di tale tecnologia avvenga nel rispetto dei principi della nuova Convenzione 108 (nota come “Convenzione 108+”), adottata lo scorso 18 maggio 2018, e già firmata da 26 Paesi tra cui l’Italia.

Si sottolinea, innanzi tutto, che ogni progetto basato sull’intelligenza artificiale dovrebbe rispettare la dignità umana e le libertà fondamentali, nonché i principi base di liceità, correttezza, specificazione della finalità, proporzionalità del trattamento, protezione dei dati fin dalla progettazione (privacy by design) e protezione per impostazione predefinita (privacy by default), responsabilità e dimostrazione della conformità (accountability), trasparenza, sicurezza dei dati e gestione dei rischi.

Tra i punti cardine del documento si segnala la necessità di adottare un approccio fondato sulla preventiva valutazione dell’impatto che sistemi, software e dispositivi basati sull’intelligenza artificiale possono avere su diritti fondamentali, nonché sulla minimizzazione dei relativi rischi per le persone evitando, tra l’altro, potenziali pregiudizi (bias) ed altri effetti discriminatori, come quelli basati sulla differenza di genere o sulle minoranze etniche. Il Comitato consultivo rimarca, tra l’altro, l’opportunità di inserire nel processo di valutazione nuove “forme partecipatorie”, basate sul coinvolgimento di individui e di gruppi potenzialmente colpiti dagli effetti dell’AI.

Varie le indicazioni anche per la pubblica amministrazione che dovrebbe, ad esempio, predisporre procedure di appalto pubblico dove si impongano a sviluppatori, produttori e fornitori di servizi di AI, specifici obblighi di trasparenza, la valutazione preliminare dell'impatto del trattamento dei dati sui diritti umani e sulle libertà fondamentali, e l’obbligo di “vigilanza sugli algoritmi”, in particolare sugli effetti negativi e sulle conseguenze derivanti dalle applicazioni AI.

 

Fonte: Garante Privacy, newsletter N. 451 del 25 marzo 2019



116 117 118 119 120 121 122 123 124 125 126