“Non esiste consolazione migliore di aver scelto le proprie disgrazie” affermava, tra i numerosi lasciti, il famoso scrittore Josè Luis Borges.
Il termometro a forma di GDPR aiuta il Garante a capire se il fumo che emana l’Intelligenza Artificiale rispecchia la promessa di arrosto, o la minaccia di bruciato.
Nella continua battaglia tra pericolo e beneficio che accompagna privacy e AI, il confronto si rinnova di una nuova puntata: l’Affective Computing.
Cos’è l’Affective Computing? Alla scoperta dell’algoritmo emotivo
L’Affective Computing è un settore dell’Intelligenza Artificiale che si occupa di studiare, analizzare e sviluppare strumenti di calcolo algoritmico in grado di riconoscere, esprimere e generare emozioni tipicamente umane.
Possiamo individuare tre differenti metodi di applicazione:
- Espressione emotiva: riproduce le emozioni umane tramite volti digitali che imitano i caratteri dell’espressione emotiva umana;
- Riconoscimento emotivo: analizza lo stato emotivo dell’utente attraverso lo studio della combinazione delle espressioni facciali;
- Manipolazione emotiva: attraverso l’interazione con l’uomo, individua come la macchina può influenzare lo stato emotivo dell’utente.
La necessità di ampi database e di dati biometrici
“Il problema principale di questa tecnologia è la grandezza del database: in questo caso sono necessarie milioni di espressioni del viso” - afferma Sebastiano Battiato, professore ordinario di informatica all’università di Catania - “bisogna poi spendere parecchio tempo e denaro per addestrare l’intelligenza artificiale del software e ripartire ogni volta da zero”.
Oltre alla quantità di dati personali gestiti, c’è il tema del tipo di dati trattati: il GDPR è molto chiaro nella definizione di dati biometrici “dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici”
L’utilizzo di dati biometrici comporta dei limiti privacy stringenti
C’è un divieto generale di trattare i dati biometrici sancito dal GDPR, con pochissime eccezioni tra cui l’espresso consenso, la condivisione spontanea o quando il trattamento è di interesse pubblico.
Anche in queste 3 circostanze, il trattamento deve comunque rispettare determinati principi:
- Limitazione della finalità: i dati raccolti per specifiche finalità non possono essere successivamente trattati per finalità diverse;
- Minimizzazione dei dati: limita la raccolta dei dati a quanto necessario rispetto alla finalità per cui sono trattati;
- Validità del consenso prestato: l’interessato deve esprimere un valido, esplicito e libero consenso in merito al trattamento, alle finalità e alle conseguenze
Le perplessità del Garante inglese: “tecnologia immatura”
Dell’immaginaria bilancia che divide costi e benefici di cui parlavamo poco fa, in Inghilterra hanno una visione ben precisa sul peso dell’una e dell’altra: e l'Information Commissioner's Office (ICO), l'organo di controllo sulla privacy del Regno Unito l’ha fatto presente tramite un post sul proprio blog.
“Gli sviluppi nel mercato della biometria e dell'intelligenza artificiale per le emozioni sono immaturi. Potrebbero non funzionare ancora, o addirittura mai: anche se ci sono opportunità future i rischi sono attualmente maggiori.”
Siamo preoccupati che un'analisi errata possa portare a ipotesi e giudizi errati su una persona e in via definitiva a discriminazioni.
Le uniche implementazioni biometriche sostenibili saranno quelle completamente funzionali, responsabili e supportate dalla scienza: allo stato attuale non ne abbiamo ancora viste, in compenso abbiamo domande più generali sulla proporzionalità, l'equità e la trasparenza in questo settore.
Continueremo ad esaminare attentamente il mercato, identificare le parti interessate che stanno cercando di creare o implementare queste tecnologie e spiegare l'importanza di una maggiore privacy e conformità dei dati".