Negli ultimi mesi, pare esserci grande attenzione da parte di enti pubblici alla possibilità di incentivare buone condotte mediante l’attribuzione di “premi”. Il sistema, implementato attraverso la raccolta di dati personali che attestino tali comportamenti, può porre problemi di “privacy”, cioè di correttezza del trattamento dei dati stessi, per vari profili. Ma l’adozione di un tale sistema solleva perplessità anche nella sostanza.

Le iniziative di social scoring

Come si legge sul sito del Garante per la privacy, si stanno attivando «iniziative basate su soluzioni di tipo premiale che fanno ricorso a meccanismi di scoring associati a comportamenti “virtuosi” del cittadino in diversi settori (ambiente, fiscalità, cultura, mobilità, sport)». Il riferimento del Garante è al «“Progetto Pollicino”, un’indagine statistica a carattere sperimentale» – promossa dalla fondazione per lo Sviluppo sostenibile, dal ministero della Transizione ecologica e dal ministero delle Infrastrutture – «attraverso la quale il cittadino viene invitato a condividere i propri dati (apparentemente “in forma anonima”), per consentire un’analisi della mobilità», mediante un’app di tracciamento dei suoi spostamenti.

«Al termine dell’indagine, è previsto che il cittadino riceva premi offerti dai partner privati del progetto. L’indagine interesserà per primo il comune di Bologna». L’Autorità per la privacy ha chiesto chiarimenti al comune, ai ministeri e alla fondazione coinvolti, con particolare riguardo al ruolo degli enti pubblici e dei soggetti privati, alla base giuridica del trattamento dei dati, all’app utilizzata.

Un'altra iniziativa considerata dal Garante è quella denominata “smart citizen wallet”, del comune di Bologna. «È previsto che i cittadini possano aderire su base volontaria a un sistema che consente di accumulare “crediti” all’interno del proprio “walletC” (portafoglio), da spendere accedendo a una serie di premi/incentivi messi a disposizione dal comune e da partner accreditati».

Il cittadino ottiene un riconoscimento «se differenzia i rifiuti, se usa i mezzi pubblici, se gestisce bene l’energia, se non prende sanzioni dalla municipale, se risulta attivo con la card cultura», si legge sul Corriere di Bologna, che riporta la dichiarazione di un assessore del comune.

L’Autorità sta anche vagliando un progetto del comune di Fidenza, la “carta dell’assegnatario” degli alloggi di edilizia residenziale pubblica. In questo caso, è previsto «un meccanismo di scoring associato al comportamento tenuto dagli assegnatari degli alloggi, attraverso un sistema di punteggio finalizzato al riconoscimento di benefici e sanzioni, inclusa la risoluzione e/o la decadenza del contratto di locazione, con possibili conseguenze pregiudizievoli in capo a categorie di soggetti vulnerabili». Già in passato altre amministrazioni hanno adottato il medesimo sistema.

Sulle attività citate sono state avviate istruttorie da parte del Garante, anche «a causa dei rischi connessi a meccanismi di profilazione che comportino una sorta di “cittadinanza a punti” e dai quali possano derivare conseguenze giuridiche negative sui diritti e le libertà degli interessati, inclusi i soggetti più vulnerabili».

I profili critici

Sistemi automatizzati, idonei a dare indicazioni sulle condotte delle persone mediante raccolta di loro dati, possono presentare profili critici. Innanzitutto, in termini di base giuridica.

In alcune iniziative di enti locali si richiama il consenso degli interessati. Tuttavia, il Comitato europeo per la protezione dei dati (Edpb) afferma che, ai sensi del Gdpr,  è sconsigliabile che le autorità pubbliche si avvalgano del consenso dei cittadini per trattare i loro dati personali, dato «lo squilibrio di potere» tra i due soggetti.

Peraltro, il consenso sarebbe una base giuridica valida solo ove vi fosse piena conoscibilità, quindi consapevolezza, da parte dei cittadini circa i criteri e gli algoritmi utilizzati. In alternativa, è vero che i soggetti pubblici possono trattare dati personali, tra l’altro, quando ciò sia «necessario per l’esecuzione di un compito di interesse pubblico» – anche solo con un atto amministrativo generale – e che questa potrebbe essere una base legale. Tuttavia, andrebbe accertato se iniziative di social scoring siano riconducibili a un vero e proprio interesse pubblico, che ne possa costituire una valida base giuridica.

In secondo luogo, vanno segnalati i problemi connessi all’eventuale uso dell’intelligenza artificiale (Ia) nei sistemi di social scoring. La proposta di Artificial intelligence act, attualmente in discussione in sede europea, vieta l’uso di sistemi di Ia da parte di autorità pubbliche per la valutazione delle condotte delle persone – possono «ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia» – per le eventuali conseguenze pregiudizievoli in contesti estranei a quelli in cui i dati sono stati raccolti o per gli effetti sproporzionati oppure ingiustificati.

Valutare l’impatto

L’Artificial intelligence act non è ancora in vigore, ma indica le criticità insite nell’uso di certi strumenti. Comunque, ove un sistema di “patente digitale” non utilizzi l’Ia, la raccolta di dati può comportare comunque rischi – evidenziati dal Garante – connessi alla profilazione: trattamento non vietato, ma oltremodo pervasivo nella sfera privata.

Dunque, andrebbe sempre operata una preventiva valutazione di impatto, per vagliare necessità e proporzionalità del trattamento, nonché i rischi per i diritti e le libertà delle persone, e deve accertarsi che tale valutazione sia sempre fatta. Tra i profili da considerare in relazione a certe iniziative andrebbe menzionata anche la sicurezza delle banche dati pubbliche, non sempre garantita, come episodi recenti hanno mostrato.

Per quanto attiene poi al punteggio relativo alle case di edilizia popolare, la possibilità di perdere l’alloggio attribuito dal comune potrebbe essere contraria a princìpi ribaditi dalla Corte costituzionale, per cui «il diritto a una abitazione dignitosa rientra, innegabilmente, fra i diritti fondamentali della persona». Una graduatoria a punti basata sui comportamenti individuali rischia di ledere diritti e libertà soprattutto dei cittadini più fragili.

Dunque, l’utilizzo di sistemi automatizzati per il vaglio di dati personali a fini di credito sociale pone svariati problemi.  E, per il futuro, c’è il rischio che iniziative oggi configurate come incentivazioni a comportamenti virtuosi, con cessione di dati dietro corresponsione di premi, possano evolversi in una valutazione sistematica dei cittadini ai fini più vari; e che i parametri utilizzati a questo fine, decisi discrezionalmente da qualche autorità, non siano sempre chiari e trasparenti.

Senza arrivare a pensare al Social credit system cinese – e nutrendo comunque forti dubbi su sistemi di controllo usati per indirizzare condotte umane a fini etici – la prospettiva non appare rassicurante.

© Riproduzione riservata