n.274 del 05.11.2025 periodico (Parte Seconda)
RISOLUZIONE - Oggetto n. 1389 - Risoluzione per impegnare la Giunta regionale a contrastare qualsiasi tentativo di confondere strumenti diversi - quali OCR, intelligenza artificiale e videosorveglianza - in un unico pacchetto tecnologico presentato come neutrale, quando tali pratiche rappresentano in realtà il preludio a forme di sorveglianza biometrica. A firma dei Consiglieri: Trande, Larghetti, Calvano, Casadei, Arduini, Bosi, Carletti, Costa, Zappaterra, Parma, Castellari, Critelli, Donini, Paldino, Fornili, Ferrari, Massari, Albasi, Proni, Gordini, Quintavalla, Ancarani, Muzzarelli, Lembi, Lucchi
le tecnologie digitali e l'intelligenza artificiale stanno assumendo un ruolo sempre più pervasivo nella vita sociale, economica e amministrativa, rendendo necessario un dibattito pubblico consapevole e partecipato sul ruolo che si intende assegnare a tali strumenti, a partire da una riflessione attenta sull'impatto che essi generano sui diritti fondamentali e sulla partecipazione democratica;
è necessario promuovere, a livello regionale, una cultura della trasparenza, della proporzionalità e del controllo democratico nell'utilizzo delle tecnologie emergenti, in particolare quando incidono sulle libertà individuali e collettive;
nell'ambito del proprio programma di mandato, l'attuale Governo regionale ha assunto l'impegno di istituire un Osservatorio permanente sull'impatto delle tecnologie digitali, con l'obiettivo di analizzare e monitorare le trasformazioni prodotte dalle tecnologie emergenti - a partire dall'Intelligenza Artificiale - sulla società emiliano-romagnola, configurando così una presa di posizione esplicita contro qualsiasi adozione acritica o automatica della tecnologia e affermando la necessità di orientarne l'uso in modo democratico, trasparente e coerente con la tutela dei diritti fondamentali.
le tecnologie di intelligenza artificiale sono oggi sempre più disponibili pertanto, le aziende produttrici frequentemente si propongono alle pubbliche amministrazioni - in particolare nei settori della sicurezza, della gestione dei servizi e del monitoraggio degli spazi pubblici - evidenziando le qualità dei propri prodotti in termini di incremento del controllo urbano, senza tuttavia accompagnare tali proposte con adeguate valutazioni d'impatto sui diritti fondamentali e sulle libertà individuali; pertanto tale responsabilità rimane in capo alla politica e all'amministrazione;
l'uso combinato di strumenti come il riconoscimento ottico dei caratteri (OCR), i sistemi di videosorveglianza e le piattaforme di analisi basate su intelligenza artificiale, non costituisce un "pacchetto neutro", ma costituisce la premessa infrastrutturale per il riconoscimento biometrico, con conseguenti rischi significativi per la tutela della privacy e dei diritti fondamentali delle persone;
le esperienze maturate da diversi enti locali dimostrano che l'adozione acritica di tecnologie di videosorveglianza e riconoscimento biometrico ha spesso comportato ingenti sprechi di risorse pubbliche, poiché progetti successivamente risultati non conformi alla normativa sulla protezione dei dati personali sono stati bloccati o sospesi dal Garante per la protezione dei dati personali per carenze di garanzie, basi giuridiche o misure di sicurezza adeguate.
Tra i numerosi esempi si ricordano:
- il provvedimento "Videosorveglianza: stop a riconoscimento facciale e occhiali smart", con istruttorie nei confronti dei Comuni di Lecce e Arezzo, che avevano avviato sperimentazioni di sistemi biometrici in spazi pubblici senza adeguata base normativa;
- l'istruttoria su Roma Capitale e il richiamo alla moratoria nazionale sull'uso di tecnologie di riconoscimento facciale in tempo reale in luoghi pubblici;
- il provvedimento nei confronti del Comune di Como per un sistema di videosorveglianza con riconoscimento facciale installato in un parco pubblico, bloccato per assenza di base giuridica e rischi di sorveglianza indiscriminata;
- la limitazione provvisoria e sospensione del servizio "FaceBoarding" presso l'aeroporto di Milano Linate, disposta per gravi criticità di conformità nella gestione dei dati biometrici.
il Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 (Al Act) vieta l'utilizzo di tecnologie di identificazione biometrica in tempo reale, seppur con alcune eccezioni, e qualifica come "ad alto rischio" i sistemi di riconoscimento biometrico a posteriori, consentendone l'impiego solo per indagini su persone sospettate o condannate;
secondo la Rete per i Diritti Umani Digitali, le eccezioni introdotte nel testo finale dell'Al Act derivano da un compromesso politico, sollecitato in particolare da Stati membri a orientamento autoritario - come l'Ungheria di Viktor Orban - che già utilizzano infrastrutture di videosorveglianza per finalità di controllo politico e sociale, come accaduto nel caso dell'identificazione dei partecipanti al Pride di Budapest del giugno 2025;
proprio per questo motivo, I'AI Act ha previsto una clausola di salvaguardia che riconosce agli Stati membri che vogliono orientarsi a un approccio più garantista la possibilità di "introdurre, in conformità del diritto dell'Unione, disposizioni più restrittive sull'uso dei sistemi di identificazione biometrica remota a posteriori". (artt. 5 e 26 del Regolamento (UE) 2024/1689);
nonostante i numerosissimi emendamenti presentati da Alleanza Verdi e Sinistra, 5stelle e Partito Democratico prima della recentissima approvazione della legge 23 settembre 2025, n. 132, Disposizioni e deleghe al Governo in materia di intelligenza artificiale, tesi a vietare, limitare, e circo del Regolamento garanzie, l'utilizzo di sistemi di riconoscimento biometrico, la maggioranza parlamentare si è limitata a rigettare questi ultimi, di fatto sottraendosi dal dibattito parlamentare su tale importante tema;
che in base alla delega contenuta dalla legge 23 settembre 2025, n. 132, Disposizioni e deleghe al Governo in materia di intelligenza artificiale, i relativi decreti attuativi dovranno essere adottati dal governo entro il termine di dodici mesi;
non essendo ancora noti i criteri e i limiti che il Governo eventualmente vorrà adottare in sede di recepimento della normativa europea, appare del tutto inopportuna un'espansione degli investimenti pubblici su tecnologie di intelligenza artificiale applicate alla videosorveglianza, almeno fino a quando non sarà chiarito il quadro normativo nazionale.
esiste il rischio che nel dibattito pubblico e istituzionale si presentino in modo indistinto tecnologie di natura diversa - come OCR, IA e sistemi di videosorveglianza - sotto un unico quadro di "strumenti di supporto tecnico neutrale", senza valutare che la combinazione di tali tecnologie costituisce l'infrastruttura base per il riconoscimento biometrico;
tale rappresentazione rischia di oscurare le differenze sostanziali tra strumenti meramente funzionali e quelli potenzialmente invasivi della sfera personale, favorendo un'accettazione acritica di pratiche che possono costituire forme di sorveglianza biometrica o pre-biometrica;
con l'impegno nel programma di mandato, già richiamato in premessa, di istituire un Osservatorio permanente sull'impatto delle tecnologie digitali, il Governo della Regione ha espresso già un indirizzo chiaro, orientato a un approccio alla tecnologia fondato sull'etica e sull'umano, che mette al centro la trasparenza, la tutela dei diritti digitali e le garanzie contro forme di sorveglianza generalizzata.
il ricorso a strumenti tecnologici nella gestione della sicurezza pubblica non può sostituire la responsabilità politica, sociale e comunitaria nella costruzione di contesti urbani e territoriali più sicuri e coesi;
la sicurezza dei cittadini deve essere perseguita con mezzi proporzionati, trasparenti e rispettosi delle libertà fondamentali, evitando scorciatoie tecnologiche che possano tradursi in infrastrutture di controllo pervasivo o discriminatorio.
la Rete per i Diritti Umani Digitali - coalizione che riunisce organizzazioni come The Good Lobby, Amnesty lnternational, Period Think Tank, Strali, Privacy Network e Hermes Center - ha più volte ribadito che la sola realizzazione di infrastrutture di riconoscimento biometrico rappresenta già di per sé un rischio per i diritti umani digitali e per le libertà civili.
Tutto ciò premesso e considerato,
a contrastare fermamente qualsiasi tentativo di confondere strumenti diversi - quali OCR, intelligenza artificiale e videosorveglianza - in un unico pacchetto tecnologico presentato come neutrale, quando tali pratiche rappresentano in realtà il preludio a forme di sorveglianza biometrica;
a chiedere e sostenere, nell'ambito dei progetti regionali volti a incrementare la sicurezza urbana, e in tutte le sedi istituzionali e di confronto tecnico, la conformità al Regolamento (UE) 2024/1689 - Al Act e al Regolamento (UE) 2016/679 (GDPR) in riferimento al riconoscimento biometrico;
a ribadire che la sicurezza dei cittadini deve essere garantita attraverso strumenti proporzionati, trasparenti e pienamente rispettosi delle libertà fondamentali, promuovendo soluzioni tecnologiche e politiche che eliminino i fattori di marginalità e di esclusione sociale, rafforzino la fiducia pubblica e più elevati livelli di coesione sociale e convivenza civile, come peraltro previsto esplicitamente dall'art. 4 del decreto-legge 20 febbraio 2017, n. 14, convertito in legge 18 aprile 2017, n. 48, recante «Disposizioni urgenti in materia di sicurezza delle città» e non il controllo generalizzato e indiscriminato dei cittadini;
a istituire, come da Programma di Mandato, l'Osservatorio Permanente sull'Impatto delle Tecnologie Digitali.
Approvata a maggioranza dei presenti nella seduta pomeridiana del 15 ottobre 2025