I DATI BIOMETRICI ? SONO SACRI !

RECLAIM YOUR FACE

Nel gennaio 2021 i cittadini europei si attivano in un progetto comune di difesa sulla libertà e sulla privacy che si chiama “ RECLAIM YOUR FACE ”.

Nello specifico è una richiesta avallata alla UE, per stoppare e vietare il controllo biometrico su massa, a causa delle discriminazioni avvenute in pandemia e violazioni della privacy, nonché scongiurare anche futuri tentativi governativi, aziendali e non, di strumentalizzare o raccogliere indiscriminatamente e senza consenso o con escamotage, i dati biometrici del cittadino. La commissione europea accolse la richiesta anche se non ha fatto passi indietro a riguardo.  E’ intervenuto, in occasione e di dovere,  anche il Garante della Privacy secondo cui, a prima visione dei documenti, l’utilizzo di tecnologie pubbliche che si basano sulle sorveglianze biometriche in Europa, andrebbe vietato. Al momento, un esempio di nazione che utilizza la biometria per monitorare i cittadini è la Cina.

 In genere le culture costituzionaliste partono dal presupposto che lo Stato deve porsi a difesa e tutela del cittadino punendo con la legge chi mina il prossimo in modo fraudolento, ma non a sorveglianza sul cittadino, ossia monitorando i comportamenti individuali di tutti, potendo poi immagazzinare dati sensibili di natura biologica nelle memorie delle apparecchiature.  Di seguito riportiamo l’iniziativa:   

                 —————————————————————————————–

Iniziativa della società civile per il divieto delle pratiche di sorveglianza biometrica di massa

 Esortiamo la Commissione europea a disciplinare rigorosamente l’uso delle tecnologie biometriche onde evitare interferenze indebite con i diritti fondamentali. In particolare chiediamo alla Commissione di vietare, nel diritto e nella pratica, gli usi indiscriminati o tendenziosi della biometria che possono sconfinare in attività di sorveglianza di massa illecita. Simili sistemi intrusivi non devono essere sviluppati, messi in funzione (nemmeno a titolo sperimentale) o usati da soggetti pubblici o privati in quanto possono interferire senza che sia necessario o in misura sproporzionata con i diritti fondamentali delle persone.
È assodato che l’esercizio della sorveglianza biometrica di massa negli Stati membri e da parte delle agenzie dell’Unione sia causa di violazioni delle norme UE di protezione dei dati e limiti indebitamente i diritti delle persone, segnatamente i diritti alla riservatezza e alla libertà di espressione, il diritto di manifestare e il diritto alla non discriminazione. L’ampio ricorso alla sorveglianza biometrica, alla profilazione e alla previsione minaccia lo Stato di diritto e le nostre libertà fondamentali.
Con la presente iniziativa dei cittadini europei sollecitiamo quindi la Commissione a proporre un atto giuridico che si innesti sui divieti generali previsti dal regolamento generale sulla protezione dei dati e dalla direttiva sulla protezione dei dati nelle attività di polizia e giudiziarie e li rispetti appieno, al fine di garantire che la sorveglianza biometrica di massa sia esplicitamente e specificamente vietata dal diritto dell’UE.

«Non accetteremmo mai che una persona ci segua costantemente monitorando e valutando chi siamo, cosa facciamo, quando e dove ci muoviamo. Il riconoscimento facciale, insieme ad altre tecnologie biometriche utilizzate negli spazi pubblici, agisce proprio in questo modo, trasformando ognuno di noi in un potenziale sospetto».

                ——————————————————————————————–

E’ esattamente Il 21 aprile 2021, quando la commissione europea vara una proposta di regolamentazione delle intelligenze digitali biometriche, facendo sottendere di non essere disposta a rinunciare a questo tipo di implementazione di dispositivi, per poter continuare ad intraprendere le finalità del libro bianco sulle intelligenze artificiali, ma impegnandosi ad armonizzare le tecnologie sulla base dei diritti fondamentali di libertà e privacy del popolo europeo. Dunque, descrive al garante per la privacy una ipotesi di suddividere l’uso dei dati biometrici in gradazioni di rischio distinte per colori, in cui le intelligenze artificiali possono o non possono essere implementate, o devono essere monitorate per poi utilizzarle a seconda dei casi previsti dagli Stati membri.

La risposta del garante al fascicolo regolamentare inviato dalla UE:   

“L’Edpb si occupa di armonizzare le norme sulla privacy dell’Unione tra i diversi paesi membri, mentre il Garante ha il compito di verificare che le istituzioni le rispettino e di fornire una guida legislativa alla Commissione. Secondo le due istituzioni, la proposta di legge sull’intelligenza artificiale presentata ad aprile dalla Commissione non è sufficiente a evitare discriminazioni e violazioni delle libertà. La bozza prevede alcune restrizioni sull’uso dell’Ai da parte delle forze dell’ordine, ma garantisce diverse eccezioni che hanno attirato le critiche da parte dei gruppi in tutela dei diritti civili e delle autorità. Secondo la bozza, per esempio, i sistemi di videosorveglianza biometrici potrebbero essere utilizzati alle frontiere e, più in generale, se affiancate al personale umano. Edpb ed Edps, invece, hanno proposto un “divieto generale dell’uso del riconoscimento facciale in tutti gli spazi pubblici” come punto di partenza necessario per “preservare le nostre libertà e creare un quadro giuridico umano-centrico per l’intelligenza artificiale”. Una richiesta che si allinea a quelle di numerose associazioni europee riunite nella campagna Reclaim your face. Secondo le due autorità, tutte le tecnologie in grado di riconoscere i volti, l’andatura, le impronte digitali, il DNA, la voce e altri indicatori biometrici e comportamentali in maniera automatica andrebbero interdette dall’uso negli spazi pubblici. Inoltre, dovrebbe essere vietato anche qualunque utilizzo di queste tecnologie finalizzato all’attribuzione di punteggi sociali, perché contrario ai valori fondamentali dell’Unione e possibile elemento discriminatorio per le persone. Infine, le due autorità hanno chiesto che nella legislazione venga vietato qualunque uso di sistemi di riconoscimento comportamentale, se non a fini medici e in strutture sanitarie.  Secondo le due istituzioni, la proposta di legge sull’intelligenza artificiale presentata ad aprile dalla Commissione non è sufficiente a evitare discriminazioni e violazioni delle libertà”. 

Mentre in Europa è ancora viva la voglia del governo di modificare le leggi sulla privacy e avviare progetti in riferimento ai dati biometrici, negli Stati Uniti sono stati introdotti divieti di utilizzo di riconoscimento facciale da parte delle forze dell’ordine perchè queste tecnologie basate su algoritmi inseriti da terzi, sono inaffidabili, discriminano sistematicamente persone nere, indigene e finiscono per acuire quelle disparità che già ci dividono nella nostra società . In particolare sembra che le tecnologie non abbiano particolare successo se si tratta di volti di persone di colore, fanno confusione, e nella maggior parte dei casi rischiano di coinvolgere persone innocenti in crimini che non hanno commesso, come già è accaduto più volte laddove sono state sperimentate.

In Italia, si vorrebbe ricorrere al riconoscimento facciale per monitorare gli immigrati, questa è la propaganda con cui hanno intenzione di fare digerire la pillola ai cittadini italiani , che a causa delle istituzioni incapaci di risolvere i problemi di occupazione ed economici, non vedono di buon occhio gli immigrati. Non so se sia ancora così oppure se, dopo gli imbrogli della pandemia, i popoli abbiano compreso che odiarsi tra cittadini di qualunque etnia non è una buona soluzione, soprattutto oggi.

Ad esempio, il sistema di monitoraggio in Italia che è stato finanziato dall’Europa nel 2018, si chiama SARI. E’ un sistema automatico di riconoscimento immagini, a carattere biometrico, studiato per  le forze dell’ordine, che dovrebbe monitorare (così dicono) gli sbarchi e situazioni per ora specifiche, fra cui l’ immigrazione e che però, in molte nazioni è giudicata illegale. La tecnologia si basa su due algoritmi (per ora) che analizzano le immagini fornite e la banca dati delle forze dell’ordine e dei social network. Al momento, non basta l’identificazione della macchina per definire un colpevole ma è necessario l’intervento di operatori specializzati della Polizia scientifica. Se le immagini sono nitide l’identificazione è certa, mentre se non lo sono, possono essere stilati fino a 50 nominativi di possibili colpevoli o persone che assomigliano alle caratteristiche di chi ha commesso un reato. Fin qui tutto normale, le tecnologie se usate bene e senza abuso, posso essere veramente utili.

Ma la versione di SARI ITALIA, non sta sfruttando tutte le potenzialità che offre la Tecnologia. Ad esempio, ne esiste una molto potente, che analizza i filmati in tempo reale ma che è stata bocciata dal Garante per la privacy per evitare il rischio di forme indiscriminate di sorveglianza di massa. 

La problematica più grande per una sorveglianza biometrica di massa, è che tutto dipende dagli algoritmi inseriti per descrivere un colpevole, che se oggi si limitano a poche caratteristiche, domani con qualche aggiunta a piacere, potrebbero diventare invasive ed oppressive, come lo sono in alcune parti della Cina. Immaginate cosa accade se ad esempio l’algoritmo stabilisce che serve rintracciare tutte le persone coi lineamenti russi o tutti gli studenti  che abbassano la mascherina  nelle scuole ecc. Sono esempi molto piccoli che ci danno però la percezione del tipo di ” violazioni in quanto tali secondo la politica e non per la presenza di un crimine reale “ , concesso che oggi si diramano decreti senza logica come se non ci fosse un domani! 

Nel frattempo, ogni tanto i telegiornali ci informano di qualche colpo sventato grazie a SARI, nella sua versione più legale, per convincerci del fatto che denudarci dei nostri dati sensibili è utile alla società. Peccato che in altre Nazioni ove lo hanno sperimentato su massa, in modo più largo e nella sua versione definitiva, è stato un fallimento ed anche pericoloso in quanto, oltre alle violazioni dei diritti umani, gli errori degli algoritmi sono stati eclatanti e ci sono stati casi in cui ci sono andati di mezzo cittadini completamente estranei ai fatti. In fondo, chi decide cosa è un comportamento sospetto ?

Il comune di Como è noto per aver installato in violazione di legge il riconoscimento facciale, causando l’intervento del garante che obbligò il Comune a disattivare gli impianti per assenza di autorizzazione di legge.  A Torino sono già predisposti per questo tipo di sistemi di sorveglianza da usare per prevedere comportamenti e spostamenti di gruppi di persone all’interno della città, come in caso di manifestazioni.

Per farvi ridere: io sono una di quelle che non ha mai misurato la temperatura mettendo il viso davanti ai monitor delle colonnine per entrare nei centri commerciali. Sono gelosa dei miei dati! Al massimo tollero che si possa fare in banca, o in zone adibite ad uso militare. C’ era un centro commerciale ove le porte non si aprivano se prima non ti identificavi al monitor, con la mascherina sul viso. Ecco, io aspettavo sempre che passasse qualcuno prima di me, non tanto per la mascherina (figuriamoci!) quanto per i dati. Le porte si aprivano e ne approfittavo per infilarmi anche io!   Fine della storia !!!

05 GIUGNO 2022 – PMS – REDAZIONE DI QUI RADIO LONDRA

 

MESSAGGIO PUBBLICITARIO

 

(clicca sull’immagine per andare direttamente allo Shop di Qui Radio Londra)

 

 

Scroll to top
error: Content is protected.