Il problema dei “bias” dell’Intelligenza Artificiale

Il problema dei “bias” dell’Intelligenza Artificiale

Tra la misteriosa nebbia che avvolge il futuro, si scorge esclusivamente l’Intelligenza Artificiale, elemento che sembra imprescindibile nel mondo del domani.

In realtà è bene ricordare che per quanto possa apparire ignoto, il futuro altro non è che l’estensione del passato e la proiezione del presente.

Il funzionamento data-driven dell’Intelligenza Artificiale si basa proprio sulla codificazione dei dati passati raccolti.

Se dal passato si può solo imparare, spetta a noi modellare a nostro piacimento il presente affinché il futuro rappresenti una mera conseguenza. 

Il Bias rende imparziale l’output dell’Intelligenza Artificiale

Come oramai ben sappiamo, essendo l’Intelligenza Artificiale parte integrante della molteplicità delle dinamiche quotidiane, questa si basa sul cosiddetto Machine Learning e Deep Learning ossia sull’apprendimento automatico.

Il problema nasce quando il campione di dati su cui si fonda l’intero meccanismo risulta distorto (biased) da cui nasce appunto il bias che genera automazione nella discriminazione e rende inaffidabile, parziale e potenzialmente pericoloso l’utilizzo dell’intelligenza artificiale.

Come educazione, esperienze e cultura influenzano gli esseri umani e la loro percezione del mondo, l’AI si basa su algoritmi che tendono a riflettere i preconcetti di chi li ha progettati.

Le cause che determinano i problemi dell’Intelligenza Artificiale

È proprio la natura e il meccanismo alla base dell’Intelligenza Artificiale a generare questi problemi a cui la società non ha ancora trovato risposta:

  • Gli algoritmi sono progettati da esseri umani ed alla base delle nostre convinzioni ci sono i cosiddetti “bias cognitivi, ovvero quelle scorciatoie mentali che ci inducono ad analizzare le informazioni per blocchi, creando in noi delle abitudini che una volta acquisite non vengono più messe in discussione anche se potenzialmente errate;
  • Gli algoritmi analizzano con approccio statistico e tramite un numero finito di operazioni un’enorme quantità di dati alla ricerca di elementi comuni dai quali fare previsioni comportamentali sempre più precise;
  • Il deep learning, alla base dei sistemi di intelligenza artificiale, consente di progettare, sviluppare, testare e soprattutto istruire le reti neurali tramite gli algoritmi;
  • Le reti neurali sono dei modelli matematici molto complessi che si ispirano al funzionamento del cervello umano e, proprio come questo, hanno ancora un lato oscuro;
  • Le tecnologie attuali non ci consentono di capire cosa avvenga realmente nelle fasi di lavorazione dei dati, le nostre competenze ci permettono soltanto di sapere che a fronte di un determinato input otterremo un risultato.

Le possibili soluzioni per evitare i BIAS

Intervenire sul processo di raccolta del dato diventa fondamentale ed è necessario interrogarsi se la propria cultura del dato sia sufficiente per garantire performance affidabili dei propri algoritmi.

Una azienda che intraprende un progetto di AI dovrebbe attenersi a buone pratiche di utilizzo dei dati, come ad esempio:

  • Fare ricerca a priori sul fenomeno che genera i dati cercando di comprendere lo scenario “più generale”;
  • Separare il team di analisi dati dal team di raccolta dati, al fine di minimizzare i bias cognitivi durante le analisi;
  • Combinare dati provenienti da configurazioni differenti di uno stesso fenomeno per ottenere una maggiore generalità;
  • Creare un prototipo di “dato ideale”, ovvero un piccolo campione di dati che sia il più rappresentativo possibile del fenomeno e agisca da guida durante la raccolta e il data labelling;
  • Nel caso di annotazione manuale dei dati, fare più passaggi di verifica su utenti umani differenti;
  • Chiedere aiuto esterno da parte di un esperto di dominio per revisionare i dati;
  • Utilizzare, quando possibile, randomizzazione nella generazione e nella selezione dei dati.

Le pericolose conseguenze dei bias dell’Intelligenza Artificiale

In questo momento l’output generato dall’Intelligenza artificiale è molto lontano dalla perfezione a cui ambisce.

Il vero problema è che l’incredibile velocità di miglioramento delle macchine e dei sistemi di AI rallentano paradossalmente il processo di ottimizzazione dei risultati.

L’allargamento della base dati non fa altro che automatizzare l’errore e standardizzare: la responsabilità del peggioramento dei bias nei sistemi di intelligenza artificiale è dei continui miglioramenti della tecnologia e la nostra incapacità di creare normative adeguate per risolvere i problemi.

Iscriviti alla Newsletter di UTOPIA.

Iscriviti alla Newsletter per ricevere il Privacy Digest che include un riepilogo bisettimanale degli ultimi articoli del Blog e le ultime novità di UTOPIA.

Iscrizione avvenuta con successo!
Ops! Qualcosa è andato storto. Ricarica la pagina e riprova...
 SCOPRI TUTTE LE NEWS SUL GDPR

Leggi il nostro blog

Unisciti ad altri appassionati di privacy e ricevi subito l’Infografica sull’Accountability documentale, oltre alle novità sul mondo dei dati personali direttamente nella tua e-mail. Una volta al mese, niente SPAM.

Grazie per esserti iscritto alla nostra newsletter.
Presto riceverai una mail con l'Infografica sull'Accountability documentale! 👈🏼
Ops! Qualcosa è anadato storto durante l'invio della richiesta.