• 0.000000lag
  • 0.000000lag
  • 0.000000lag
Data Science e responsabilità morale
Articolo pubblicato il 30 giugno 2017 sul blog “Professioni Digitali” di Franco Angeli

In un mio recente articolo apparso su NinjaMarketing, chiudevo facendo riferimento alla mission che i Data Scientist sono chiamati principalmente a svolgere: dare un senso compiuto all’uso che gli algoritmi fanno dei dati, attraverso senso di responsabilità e visione di insieme. Citavo Blade Runner, un film che per primo si è interrogato sul tema morale della “creazione” e su cosa significherà il termine “umanità” nel futuro.

La creazione di una Intelligenza Artificiale in grado di guadagnare autonomia di pensiero e, soprattutto, di azione, e di accumulare esperienze vissute da esseri umani, fino a essere in grado di prevederne e influenzarne i comportamenti, entrando a far parte integrante di una nuova comunità lavorativa.
Questo naturalmente comporta che le interazioni aumentino in volume e intensità, ponendo all’attenzione alcuni aspetti non secondari del “comportamento” che i sistemi presentano sotto queste condizioni d’uso. In particolare, gli algoritmi possono introdurre bias nelle modalità con le quali i sistemi interpretano la “esperienza” che fanno e si comportano di conseguenza.

Garbage in, garbage out

Bias!

Sono diverse le tipologie di bias che possono essere indotte da algoritmi di Machine Learning e che possono generare derive anche molto significative nei risultati che questi sistemi producono. Vediamone le più significative, classificate secondo l’origine principale.

  • Data-driven – Un vecchio adagio, molto noto agli informatici, recita: “garbage in, garbage out”. Vale ancora. E per qualsiasi sistema che impara, l’output è determinato dai dati ricevuti. E se il dataset di allenamento è “biased”, il risultato conseguibile lo sarà altrettanto. Esempi recenti di come questo bias abbia impattato i risultati conseguibili sono la confusione che l’algoritmo di Nikon ha fatto sui volti asiatici o i problemi di tono della pelle che sono stati riscontrati nel software di riconoscimento facciale di HP.
  • Interazione – Alcuni sistemi imparano attraverso l’interazione. Un chiaro esempio della polarizzazione che ne può conseguire è quanto accaduto a Tay. Un chatbot sviluppato da Microsoft, basato su Twitter e progettato per imparare dalle sue interazioni con gli utenti. Tay è stato influenzato da una comunità di utenti che gli ha insegnato ad essere razzista e misogino. Tay ha vissuto solo 1 giorno, bloccato dalla stessa Microsoft dopo essere diventato un “razzista” abbastanza aggressivo.
  • Emergente – Qualsiasi algoritmo che utilizzi l’analisi di un feed di dati per poi, sulla base di questi, presentare altri contenuti, finirà per fornire contenuti che corrispondono all’idea impostata da un utente. Infatti, l’effetto verrà amplificato quando altri utenti apprezzeranno e condivideranno questi contenuti, fino a che non si creerà un flusso di informazioni sospinte verso un insieme di “credenze”. Potrà succedere che le decisioni prese da queste tipologie di sistemi (Facebook è uno di questi) finiscano per creare “bolle” di bias.
  • Similitudine – Talvolta il bias è semplicemente il prodotto di sistemi che fanno bene quello per cui sono stati progettati.  Google News, ad esempio, è progettato per fornire storie che corrispondono alle query degli utenti con un insieme di storie correlate. Questo è esplicitamente quello che è stato progettato per fare e lo fa bene. Naturalmente, il risultato è un insieme di storie simili che tendono a confermare e corroborarsi l’un l’altra, contribuendo nuovamente a creare una “bolla”, questa volta di informazioni.
  • Stereotipo – Immaginiamo un sistema progettato per generare job description. Il sistema rileva interesse quando i potenziali candidati cliccano sulle job description, ottenendo da parte dell’algoritmo ulteriori job description che vanno nella medesima direzione. Ecco che il sistema sta generando uno stereotipo, costruito sulla base di un interesse alimentato dal sistema stesso. Ed ecco comparire il bias, che porta il sistema a preferire di presentare opportunità che rafforzino gli stereotipi ad esso noti e graditi agli utenti.

 

Al di fuori delle nostre bolle, alla ricerca di un nuovo equilibrio

Ora, la gestione della semplice informazione non comporterebbe di per sé stessa derive significative. Ma quando cerchiamo, invece, di creare una capacità prospettica che travalichi la semplice informazione per trasformarsi in conoscenza, allora le cose si complicano e l’impatto può essere importante. In un mondo ideale, i sistemi intelligenti e i loro algoritmi potrebbero essere oggettivi.

Ma questi sistemi, progettati e costruiti da noi, riflettono i nostri limiti e le nostre speranze. Forse non saremo mai capaci di progettare sistemi e strumenti perfettamente oggettivi, ma potremo porci come obiettivo quello di poter comunicare al di fuori delle nostre “bolle” di contenuti influenzati dal bias, alla ricerca di un nuovo equilibrio.

Come persone che si interessano di Data Science, siamo chiamati ad un maggiore senso di responsabilità. Come quando si debba, ad esempio, scegliere se adeguare o meno un algoritmo che sta producendo un determinato bias in relazione ai risultati che questo sta comportando da un punto di vista complessivo. Una scelta che può esporci al rischio di sostituire al giudizio morale dell’intera popolazione mondiale il proprio.
Vi lascio con questa riflessione e un link ad un video molto interessante, l’intervento di Andreas Ekström al TEDx Oslo 2015, “The moral bias behind your search results”.

Commenta